ما به کسب و کارهای نوپا کمک می کنیم تا حرفه ای شوند.

ما به کسب و کارهای نوپا کمک می کنیم تا حرفه ای شوند.

درباره بنیاد میر

ارائه خدمات مشاوره

بنیاد دکتر مازیار میر، همراه حرفه‌ای شما در مسیر مشاوره انتخاباتی، آموزش تخصصی املاک و برندسازی شخصی.

اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

خانه » مقالات » اموزش جامع هوش مصنوعی بصورت عملی و کاربردی
اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

اموزش جامع هوش مصنوعی بصورت عملی و کاربردی دکتر مازیارمیر
اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

مدرس دکتر مازیارمیرمحقق و پژوهشگر

ایران تهران جماران 13 خرداد 1403

موسسه مطالعاتی و تحقیقاتی دانش خاورمیانه

 

 

 

 

هوش مصنوعی با رویکرد کسب و کار و کار افرینی

پایه‌های نظری، کاربردهای عملی و چالش‌های پژوهشی

بر اساس استانداردهای بین‌المللی و با رویکردی انتقادی و پژوهش‌محور

طراحی شده است. این برنامه به‌گونه‌ای تدوین گشته که **کاملاً اصیل** بوده، از پیروی از متن‌های الگوبرداری‌شده یا تولیدشده توسط هوش مصنوعی

پرهیز نموده و دارای **سبک آکادمیک و پژوهشیِ دکتر مازیار میرمدرس** است. هر بخش شامل:

– عنوان جلسه
– اهداف یادگیری
– محتوای نظری و عملی
– فعالیت‌های کارگاهی
– منابع کلیدی
– خلاصهٔ تحلیلی پایان‌جلسه

 

 

اموزش جامع هوش مصنوعی بصورت عملی و کاربردی
اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

📚 اطلاعات کلی درس

– **نام درس**: هوش مصنوعی: پایه‌های نظری، کاربردهای عملی و چالش‌های پژوهشی
– **نوع درس**: کارگاه پژوهشی (ترمی – 14 جلسه)
– **سطح**: پیشرفته (برای دانشجویان کارشناسی ارشد و دکتری در رشته‌های مدیریت فناوری، علوم کامپیوتر، مهندسی صنایع، اقتصاد دیجیتال و مشاوره استارتاپ)
– **تعداد واحدها**: 2 واحد عملی + 1 واحد پژوهشی
– **استاد**: دکتر مازیار میرمدرس – پژوهشگر حوزه‌های هوش مصنوعی و سیاست‌گذاری فناوری
– **روش ارزیابی
– ۳۰٪: گزارش‌های کارگاهی (هفتگی)
– ۳۰٪: پروژه پژوهشی گروهی
– ۲۰٪: ارائه نهایی + دفاع انتقادی
– ۲۰٪: مشارکت در بحث‌های کلاسی و نقد ادبیات

 

 

 

اموزش جامع هوش مصنوعی بصورت عملی و کاربردی
اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

 

🗓 برنامه جلسات

 

 

 جلسه نخست

فلسفه و تاریخچهٔ هوش مصنوعی – از تورینگ تا ترانسفورمرها

اهداف

درک بنیان‌های فلسفی و تحولات تاریخی هوش مصنوعی
*محتوا
– تمایز بین هوش عمومی و هوش محدود
– تست تورینگ و منتقدان آن
– دوره‌های زمستان و بهار هوش مصنوعی
– گذار از منطق نمادین به یادگیری ماشین
فعالیت

تحلیل یک مقاله کلاسیک (مثلاً McCarthy et al., 1956)
منابع
– Russell & Norvig, *Artificial Intelligence: A Modern Approach* (Ch. 1–2)
– Boden, *AI: Its Nature and Future*
نتیجه‌گیری

هوش مصنوعی نه یک فناوری واحد، بلکه یک طیف از رویکردهای معرفت‌شناختی است که نیازمند بازتعریف مفاهیمی چون «هوش»، «یادگیری» و «فکر کردن» است.

 


فلسفه و تاریخچهٔ هوش مصنوعی – از تورینگ تا ترانسفورمرها

مقدمه

چرا تاریخچه؟

چرا فلسفه؟ (Why History? Why Philosophy?)

 

هوش مصنوعی را امروز بسیاری از مهندسان و داده‌دانان (Data Scientists) صرفاً به‌عنوان یک **ابزار فنی** (Technical Instrument) می‌بینند: مجموعه‌ای از *Neural Networks* (شبکه‌های عصبی)، *Transformer Architectures* (معماری‌های ترانسفورمر)، *Stochastic Gradient Descent* (نزول گرادیان تصادفی)، و *Reinforcement Learning Policies* (سیاست‌های یادگیری تقویتی). این نگاه، هرچند در سطح *engineering pragmatism* (کاربردگرایی مهندسی) قابل دفاع است، اما در سطح **معرفت‌شناسیِ کارکردی** (Functional Epistemology) و **بنیادشناسیِ ذهن** (Ontology of Mind) یک **کاتاستروف مفهومی** (Conceptual Catastrophe) محسوب می‌شود.

چرا؟ چون این رویکرد، **هوش مصنوعی را از فضای فلسفیِ پیدایشش جدا می‌کند**. هوش مصنوعی، پیش از آنکه یک *technology* (فناوری) باشد، یک **پاسخِ فرضی** به یک پرسشِ متافیزیکیِ قدیمی است:

> **«آیا ماشین می‌تواند فکر کند؟»**
> (*Can a machine think?*)

این پرسش، نه یک سؤالِ فنی است، بلکه یک **چالشِ هرمنوتیک** (Hermeneutic Challenge) در مورد ماهیت *intentionality* (عمدگرایی)، *consciousness* (آگاهی)، و *semantic grounding* (زمینه‌یابی معنایی) است. بنابراین، این جلسه **نه برای یادگیری تاریخ به‌عنوان روایتی خطی** طراحی شده، بلکه برای **ایجاد یک خلأ معرفتی** (Epistemic Vacuum) — فضایی که در آن دانشجو مجبور شود بپرسد:

> «اگر هوش مصنوعی *فکر نمی‌کند* (does not think)، پس *چه می‌کند* (what does it do)?»
> و اگر پاسخ این باشد که «داده را پردازش می‌کند» (*processes data*)، باید بلافاصله پرسید:
> «آیا ذهن انسان نیز *فقط یک ماشین پردازش داده* (mere data processor) است؟ یا آنچه ما *هوش* می‌نامیم، در واقع **تفسیرِ معنا در درون یک جهانِ زیست** (*interpretation of meaning within a lifeworld / Lebenswelt*) است؟»

این **حلقهٔ دیالکتیکیِ پرسش** (Dialectical Interrogative Loop) هستهٔ درکِ *real AI literacy* (سواد واقعی هوش مصنوعی) است. بدون آن، هر مدلی — حتی پیچیده‌ترین *Transformer* با میلیاردها پارامتر — تنها یک **جعبهٔ سیاهِ معرفتی** (Epistemic Black Box) خواهد بود که:

– فاقد *semantic coherence* (هماهنگی معنایی) است،
– سرشار از *algorithmic bias* (سوگیری الگوریتمی) است،
– و دارای *hermeneutic opacity* (کدری تفسیری) است.

### **اهداف یادگیری (Learning Objectives)**

۱. **درکِ تمایزِ بنیادینِ میان *Artificial General Intelligence (AGI)* (هوش عمومی مصنوعی) و *Narrow AI* (هوش محدود)** — نه به‌عنوان یک تقسیم‌بندی فنی، بلکه به‌عنوان دو **پارادایمِ معرفتیِ متضاد** (Contrasting Epistemic Paradigms) در مورد طبیعت «هوش».

۲. **تجزیه و تحلیلِ تاریخِ تحولاتِ هوش مصنوعی**، به‌ویژه **دوره‌های *AI Winters* (زمستان‌های هوش مصنوعی)**، نه به‌عنوان بحران‌های مالی یا سیاسی، بلکه به‌عنوان **شکست‌های ساختاری در مدل‌سازیِ شناختی** (*Structural Failures in Cognitive Modeling*).

۳. **نقدِ *Turing Test* (آزمون تورینگ)** — نه به‌عنوان یک معیارِ ارزیابیِ عملکردی، بلکه به‌عنوان یک **راهبردِ فلسفی برای فرار از مسئلهٔ *phenomenal consciousness*** (آگاهی پدیداری) و *intentional content* (محتوای عمدگرا).

۴. **تحلیلِ انتقالِ تاریخی از *Symbolic AI* (هوش مصنوعی نمادین) به *Machine Learning* (یادگیری ماشین)** — و درک اینکه این انتقال، نه یک «پیشرفت»، بلکه یک **تسلیم‌شدگیِ شناختی** (Cognitive Surrender) بوده است: از *representational realism* (واقع‌گرایی نمایشی) به *statistical mimesis* (تقلید آماری).

۵. **آشنایی با ریشه‌های فکریِ هوش مصنوعی** در *decision theory* (نظریهٔ تصمیم‌گیری)، *philosophy of mind* (فلسفهٔ ذهن)، *cognitive science* (علوم شناختی)، و *critical epistemology* (عرفانِ انتقادی).

### **۱. تمایزِ بنیادین: AGI در مقابل هوش محدود (Narrow AI)**

در گفتمانِ عمومی، هوش مصنوعی اغلب به‌صورت یک موجودِ واحد تصور می‌شود: یا *intelligent* (هوشمند) است، یا *not*. این **دوگانگیِ فلسفیِ ساده‌انگارانه** (Philosophical Binary Fallacy) خطرناک است، چرا که واقعیتِ معرفتیِ آن را پنهان می‌کند.

– **هوش محدود (Narrow AI)** — یعنی تمامِ سیستم‌هایی که امروز وجود دارند — **فقط در یک حوزهٔ بسیار محدود** (*narrow domain*) عمل می‌کنند:
– *Facial Recognition* (تشخیص چهره)
– *Machine Translation* (ترجمهٔ ماشینی)
– *Credit Scoring* (امتیازدهی اعتباری)

این سیستم‌ها، بر اساس *P(y|x; θ)* — یعنی احتمالِ شرطیِ خروجی *y* داده ورودی *x* و پارامترهای *θ* — عمل می‌کنند. آن‌ها **هیچ درکی از *meaning* (معنا)** ندارند. آن‌ها نه *هوشمند* هستند، نه *کودن* — آن‌ها **بی‌معنا (a-semantic)** هستند.

– در مقابل، **هوش عمومی مصنوعی (AGI)** — یعنی سیستمی که بتواند در *هر حوزه‌ای* (*across all domains*) استدلال کند، همان‌گونه که انسان می‌کند — **فقط یک ایدهٔ فلسفی** است. هیچ *instantiation* (تجسم) تجربی از آن وجود ندارد. حتی *Large Language Models (LLMs)* مانند GPT-4، با وجود *fluency* (رشدگی زبانی) و *coherence* (هماهنگی سطحی)، **فاقد هرگونه *phenomenal experience* (تجربهٔ پدیداری)** هستند. آن‌ها، مانند یک *stochastic parrot* (پاپاگوی تصادفی)، کلمات را بر اساس *token probability distributions* (توزیع‌های احتمال توکن) بازآرایی می‌کنند — نه بر اساس *understanding* (درک).

این تمایزِ معرفتی حیاتی است. چون اگر آن را نادیده بگیریم، دچار **توهمِ جایگزینیِ انسان** (*Substitution Illusion*) می‌شویم: یعنی فکر می‌کنیم یک الگوریتم می‌تواند جای یک *judge* (قضات)، یک *counselor* (مشاور)، یا یک *caregiver* (مراقب) را بگیرد — در حالی که الگوریتم، حتی **مفهومِ «اخلاق» (*ethics*) را نمی‌داند**، چه رسد به تطبیق آن در شرایطِ پیچیدهٔ انسانی.

### **۲. آزمون تورینگ و منتقدانِ فلسفیِ آن**

آلن تورینگ در مقالهٔ معروفِ ۱۹۵۰ خود با عنوان *«Computing Machinery and Intelligence»*، پرسشِ *«آیا ماشین می‌تواند فکر کند؟»* را **به‌عنوان یک سؤالِ بی‌معنا** (*meaningless question*) کنار گذاشت. او پیشنهاد کرد که به‌جای پرسیدنِ *«آیا فکر می‌کند؟»*، بپرسیم:

> **«آیا می‌تواند رفتاری شبیه انسان از خود نشان دهد؟»**

این، تولدِ **آزمون تورینگ (Turing Test)** بود: اگر یک *interrogator* (بازجو) نتواند بین پاسخ‌های یک ماشین و یک انسان تمایز قائل شود، ماشین «هوشمند» تلقی می‌شود.

اما این آزمون، از همان ابتدا موردِ **انتقادِ فلسفیِ عمیق** قرار گرفت:

– **جان سرل (John Searle)** در سال ۱۹۸۰، آزمایشِ فکریِ **«اتاق چینی» (*Chinese Room*)** را طراحی کرد:
یک فردِ انگلیسی‌زبان در اتاقی نشسته و با استفاده از یک کتابِ دستورالعملِ نحوی (*syntactic rulebook*)، نمادهای چینی را ترکیب می‌کند تا پاسخ‌های *هوشمندانه‌ای* به سؤالاتِ چینی‌زبان بدهد — بدون اینکه **حتی یک کلمه چینی بفهمد**.
→ سرل استدلال کرد: **Syntax ≠ Semantics**.
→ فرمول‌بندی مدرن:
> ∀x [(AI(x) ∧ Syntactic_Competence(x)) → ¬Semantic_Understanding(x)]

– **هابرت دریفوس (Hubert Dreyfus)** در کتابِ *What Computers Can’t Do* (۱۹۷۲) نشان داد که هوشِ انسانی بر سه پایه استوار است:
1. **Embodiment** (بدنیت): هوش در بدنِ فیزیکی ریشه دارد.
2. **Situatedness** (زمینه‌ای بودن): هوش در یک موقعیتِ جغرافیایی-تاریخی شکل می‌گیرد.
3. **Social Embeddedness** (جاسازی اجتماعی): هوش در گفت‌وگو و تعاملِ فرهنگی معنا پیدا می‌کند.
→ یک ماشینِ *disembodied* (بی‌بدن) که تنها روی یک میز نشسته و داده می‌خواند، **هرگز نمی‌تواند «هوشمند» شود** — چون هوش، **خارج از *Lebenswelt* (جهانِ زیست)**، موجود نیست.

### **۳. دوره‌های زمستان و بهار هوش مصنوعی: یک چرخهٔ دیالکتیکی**

تاریخِ هوش مصنوعی، **خطی و صعودی نیست**، بلکه یک **چرخهٔ تکراری از امید و ناامیدی** است که حول دو محور می‌چرخد:

– **Technological Hype** (بالاگویی فناوری)
– **Epistemological Failure** (شکست معرفتی)

– **اولین زمستان (۱۹۷۴–۱۹۵۶)**: پس از *Dartmouth Conference* (کنفرانس دارتموث, ۱۹۵۶)، محققان معتقد بودند که در ده سال، ماشینی می‌سازند که بتواند **مثل انسان فکر کند**. اما تا دههٔ ۱۹۷۰ مشخص شد که حتی ساده‌ترین وظایف — مانند *computer vision* (دید ماشینی) یا *natural language understanding* (درک زبان طبیعی) — نیازمند **دانشِ جهانیِ غیرقابلِ کُد کردن در *first-order logic*** (∧, ∨, ∀, ∃) هستند.

– **دومین زمستان (۱۹۸۷–۱۹۸۰)**: پس از ظهورِ *Expert Systems* (سیستم‌های خبره)، امیدها دوباره زنده شد. اما این سیستم‌ها در شرایطِ خارج از حوزهٔ محدودِ خود، **کاملاً شکست خوردند**. همچنین، **هزینهٔ نگهداریِ آن‌ها غیراقتصادی** بود. سرمایه‌گذاران دست کشیدند.

– **بهار فعلی (۲۰۱۲–اکنون)**: با ظهورِ *Deep Learning* (یادگیری عمیق) و *Transformers*، فضایی از امید فناوری ایجاد شده است.
→ **بله** — از نظر *computational power* (قدرت محاسباتی).
→ **خیر** — از نظر *philosophical depth* (عمق فلسفی).

ما هنوز نمی‌دانیم «یادگیری (*learning*)» چیست. ما فقط می‌دانیم که چگونه یک شبکهٔ عصبی را آموزش دهیم تا **تابعِ زیان (*loss function*)** را کاهش دهد:

> ℒ(θ) = 𝔼ₓ[‖f_θ(x) − y‖²]

اما این، **یادگیری نیست** — این **بهینه‌سازی آماری (*statistical optimization*)** است.

### **۴. گذار از منطق نمادین به یادگیری ماشین: یک تسلیم‌شدگیِ شناختی**

در دهه‌های اولیه، هوش مصنوعی بر پایهٔ **منطق نمادین (*Symbolic AI*)** بنا شده بود:
– دانش به‌صورت *rules* (قواعد) و *facts* (حقایق) نوشته می‌شد.
– سیستم با *logical inference* (استنتاج منطقی) به جواب می‌رسید.

این رویکرد، **واقع‌گراییِ شناختی (*cognitive realism*)** داشت: فرض می‌کرد که دنیا را می‌توان با **نمادها (*symbols*)** نمایش داد.

اما این رویکرد در مواجهه با **دنیایِ *non-monotonic* (غیریکنوا)**، **مبهم (*ambiguous*)**، و **وابسته به زمینه (*context-dependent*)** شکست خورد.

پس محققان «تسلیم» شدند.
→ نگفتند: «بیایید نظریه‌ای جدید از *هوش* بسازیم.»
→ گفتند: «بیایید از *داده‌ها (*data*) بیاموزیم.»

این، تولدِ **یادگیری ماشین (*Machine Learning*)** بود.
اما این انتقال، **نه یک پیروزی، بلکه یک تغییرِ استراتژیِ فلسفی** بود:
> از **«درک دنیا» (*understanding the world*)**
> به **«تقلیدِ سطحیِ دنیا» (*mimicking the surface of the world*)**

ما دیگر نمی‌خواهیم بدانیم **چرا یک تصمیم درست است** — فقط می‌خواهیم سیستمی بسازیم که **به‌ظاهر درست تصمیم بگیرد**.
این خطرناک است. چون سیستم‌های امروزی، بدون هیچ *explanation* (توضیحی)، تصمیم می‌گیرند — و ما، به‌جای *critiquing the decision* (نقد تصمیم)، به‌دنبال *improving accuracy metrics* (بهبود سنجه‌های دقت) هستیم.

### **فعالیت کارگاهی: تحلیل مقالهٔ کلاسیک — McCarthy et al., 1956**

دانشجویان مقالهٔ اصلیِ کنفرانسِ دارتموث را می‌خوانند:
> *«Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.»*

**سوالات راهنما**:
– چه فرضیاتی دربارهٔ *learning* و *intelligence* در این متن وجود دارد؟
– آیا نویسندگان تصور می‌کردند دنیا را می‌توان **کاملاً نمادگذاری کرد** (*fully symbolized*)؟
– کدام بخش از این پیشنهاد، **در سطح معرفتی** شکست خورده است؟
– آیا ما امروز به *هدف اصلی* آن‌ها نزدیک‌تر شده‌ایم — یا **از آن دورتر شده‌ایم**؟

این تحلیل، دانشجو را از تکرارِ افسانه‌های فناوری‌گرایانه(*techno-mythologies*) دور می‌کند.

 

 

اموزش جامع هوش مصنوعی بصورت عملی و کاربردی
اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

 نتیجه‌گیری تحلیلی

 

> **هوش مصنوعی، نه یک فناوری واحد است، بلکه یک *طیف از رویکردهای معرفت‌شناختی* است که در طول تاریخ، در پاسخ به شکست‌های قبلی، شکل گرفته‌اند.**
>
> وقتی ما می‌گوییم «هوش مصنوعی یاد می‌گیرد» (*AI learns*)، در واقع آن را به‌عنوان یک *agent with intentionality* (عاملی با عمدگرایی) تصویر می‌کنیم — در حالی که آن، فقط یک **تابع ریاضیِ پارامتری** است که *weights* (وزن‌ها) را تنظیم می‌کند.
>
> این **فریبِ معرفتی** (*epistemic illusion*) خطرناک است. چون وقتی یک الگوریتم دربارهٔ *creditworthiness* (اعتبار یک فرد) تصمیم می‌گیرد، و ما آن را «هوشمند» خطاب کنیم، **دیگر از آن سؤال نمی‌کنیم**.
>
> درکِ فلسفی و تاریخیِ هوش مصنوعی، **نه یک «پیش‌زمینهٔ فلسفی»**، بلکه **یک ابزار اخلاقی** است.
>
> بدون آن، هر پروژه‌ای که بسازیم، نه یک کمک، بلکه یک **ابزار سکوت در برابر ساختارهای ناعادلانه** خواهد بود.

### **یادداشت پایانی استاد**

> «اگر از این جلسه فقط یک چیز بیاموزید، این باشد:
> **هوش مصنوعی، هنوز هیچ‌کدام از مفاهیمی که برایش به‌کار می‌بریم — *intelligence* (هوش)، *learning* (یادگیری)، *thinking* (فکر کردن) — را *درک* نکرده است.**
>
> و شاید هرگز هم نکند.
>
> و این، شاید **خبر خوبی باشد**.»

 

=================================================================

جلسه دوم

ریاضیات پایهٔ هوش مصنوعی – جبر خطی، حسابان و نظریهٔ احتمال**
**اهداف**: تقویت پایه‌های ریاضی برای درک مدل‌های یادگیری ماشین
**محتوا**:
– تانسورها، ماتریس‌ها و عملگرهای خطی
– گرادیان، مشتق‌گیری برداری و بهینه‌سازی
– توزیع‌های احتمالی و قضیه بیز
**فعالیت**: کدنویسی عددی با NumPy/SciPy
**منابع**:
– Goodfellow et al., *Deep Learning* (Ch. 2)
– Boyd & Vandenberghe, *Convex Optimization*

نتیجه‌گیری

ریاضیات نه ابزار کمکی، بلکه زبان بومیِ هوش مصنوعی است؛ نادیده گرفتن آن منجر به شبه‌علم مدلی می‌شود.

 


 

**جلسه ۳: یادگیری ماشین – از خطی تا غیرخطی، از نظارت‌شده تا یادگیری تقویتی**
**اهداف**: درک ساختار الگوریتم‌های یادگیری ماشین
**محتوا**:
– رگرسیون، طبقه‌بندی، خوشه‌بندی
– تفاوت بین یادگیری نظارت‌شده، بدون نظارت و تقویتی
– اصل بیز و ماشین بردار پشتیبان
**فعالیت**: پیاده‌سازی الگوریتم K-Means و SVM در Python
**منابع**:
– Bishop, *Pattern Recognition and Machine Learning*
– Sutton & Barto, *Reinforcement Learning: An Introduction*
**نتیجه‌گیری**: انتخاب الگوریتم نه بر اساس محبوبیت، بلکه بر اساس ساختار داده و مسئلهٔ معرفت‌شناختی استوار است.

 


 

 جلسه چهارم

شبکه‌های عصبی و یادگیری عمیق – سازوکارهای داخلی**
**اهداف**: درک معماری‌های عصبی و مکانیسم‌های یادگیری
**محتوا**:
– پرسپترون چندلایه، تابع فعال‌ساز، انتشار معکوس
– مفاهیم Dropout, Batch Normalization, Gradient Vanishing
– شبکه‌های عصبی کانولوشنی و بازگشتی
**فعالیت**: ساخت یک مدل طبقه‌بندی تصویر ساده با TensorFlow
**منابع**:
– LeCun, Bengio & Hinton (2015), *Deep learning* (Nature)
– Nielsen, *Neural Networks and Deep Learning*
**نتیجه‌گیری**: شبکه‌های عصبی «جعبه سیاه» نیستند، بلکه سیستم‌های پیچیده‌ای با ساختارهای قابل تفسیر در سطوح مختلف هستند.

 


 

جلسه پنجم

معماری‌های پیشرفته: ترانسفورمرها، مدل‌های زبانی بزرگ و هوش مصنوعی تولیدی**
**اهداف**: بررسی تحولات اخیر در هوش مصنوعی تولیدی
**محتوا**:
– سازوکار توجه (Attention Mechanism)
– ساختار مدل‌هایی مانند BERT, GPT, LLaMA
– محدودیت‌های تولید زبان: هالوسیناسیون، تبعیض و عدم قابلیت استدلال
**فعالیت**: Fine-tuning یک مدل کوچک (مثلاً DistilBERT) برای طبقه‌بندی متن
**منابع**:
– Vaswani et al. (2017), *Attention Is All You Need*
– Bender et al. (2021), *On the Dangers of Stochastic Parrots*
**نتیجه‌گیری**: مدل‌های زبانی بزرگ، با وجود قدرت تولیدی، فاقد نمایندگی معنایی عینی هستند و بیشتر شبیه به «پاپاگوهای احتمالاتی» عمل می‌کنند.

 


 

**جلسه ۶: اخلاق، عدالت و مسئولیت در هوش مصنوعی**
**اهداف**: درک چالش‌های اخلاقی و اجتماعی هوش مصنوعی
**محتوا**:
– سوگیری الگوریتمی و عدالت محاسباتی
– شفافیت، قابلیت تفسیر و مسئولیت حقوقی
– چارچوب‌های نظارتی (مثلاً AI Act اتحادیه اروپا)
**فعالیت**: تحلیل موردی – سیستم‌های استخدامی خودکار
**منابع**:
– Mittelstadt et al. (2016), *The Ethics of Algorithms*
– EU AI Act (2024) – بخش‌های اصلی
**نتیجه‌گیری**: هوش مصنوعی بدون چارچوب اخلاقی، نه «هوشمند»، بلکه «خطرناک» است.

 


 

**جلسه ۷: اقتصاد هوش مصنوعی – از اتوماسیون تا بازار کار هوشمند**
**اهداف**: بررسی تأثیرات اقتصادی و سیاستی هوش مصنوعی
**محتوا**:
– تغییر در تقاضای نیروی کار
– سرمایه‌گذاری در استارتاپ‌های هوش مصنوعی
– مالکیت داده، انحصار و نوآوری
**فعالیت**: شبیه‌سازی سیاست عمومی برای تنظیم هوش مصنوعی
**منابع**:
– Acemoglu & Restrepo (2022), *Tasks, Automation, and the Rise in US Wage Inequality*
– Brynjolfsson & McAfee, *The Second Machine Age*

نتیجه‌گیری

هوش مصنوعی یک فناوری نابودکنندهٔ شغل نیست، بلکه یک شتاب‌دهندهٔ نابرابریِ نهادی است.

 


 

جلسه هشتم

 هوش مصنوعی در مدیریت و تصمیم‌گیری سازمانی

**اهداف**: کاربرد هوش مصنوعی در حوزهٔ مدیریت استراتژیک و عملیاتی
**محتوا**:
– پیش‌بینی تقاضا، بهینه‌سازی زنجیره تأمین
– تحلیل رفتار مشتری (CLV, Churn Prediction)
– ریسک‌های استقرار سیستم‌های پشتیبان تصمیم
**فعالیت**: طراحی یک «چارچوب ارزیابی ریسک هوش مصنوعی» برای یک بانک
**منابع**:
– Davenport & Ronanki (2018), *Artificial Intelligence for the Real World* (HBR)
– McKinsey AI Use Cases in Financial Services
نتیجه‌گیری

هوش مصنوعی در مدیریت نباید جایگزین قضاوت انسانی شود، بلکه باید آن را تقویت کند.

 


 

جلسه نهم

پژوهش در هوش مصنوعی – روش‌ها و استانداردها**
**اهداف**: آشنایی با روش‌شناسی پژوهش در حوزهٔ هوش مصنوعی
**محتوا**:
– طراحی آزمایش (Experiment Design)
– معیارهای ارزیابی: Accuracy, Precision, Recall, F1, AUC-ROC
– انتشار علمی: NeurIPS, ICML, ICLR
**فعالیت**: نقد یک مقاله کنفرانسی بر اساس استانداردهای روش‌شناختی
**منابع**:
– Pineau et al. (2021), *Improving Reproducibility in Machine Learning Research*
– Guidelines for NeurIPS submissions
**نتیجه‌گیری**: پژوهش در هوش مصنوعی بدون تکرارپذیری و شفافیت داده، نه علم، بلکه مهندسی تجربی است.

 


 

**جلسه ۱۰: هوش مصنوعی و امنیت سایبری – حملات و دفاع**
**اهداف**: بررسی تعامل هوش مصنوعی با امنیت دیجیتال
**محتوا**:
– حملات Adversarial
– فیشینگ هوشمند و سوءاستفاده از مدل‌های زبانی
– هوش مصنوعی در تشخیص ناهنجاری
**فعالیت**: شبیه‌سازی یک حمله adversarial ساده
**منابع**:
– Goodfellow et al. (2015), *Explaining and Harnessing Adversarial Examples*
– MITRE ATLAS Framework

نتیجه‌گیری نهایی

هوش مصنوعی هم سلاح، هم هدف در جنگ سایبری است.

 

کاربردهای هوش مصنوعی: دگرگونی جهان با قدرت AI - مکتوب

جلسه یازدهم

 

هوش مصنوعی در خدمات مالی و بانکداری**
**اهداف**: تحلیل کاربردهای خاص در حوزهٔ مالی
**محتوا**:
– تشخیص کلاهبرداری با مدل‌های نظارت‌شده و غیرنظارت‌شده
– مشاوره رباتیک (Robo-advisory)
– ریسک اعتباری و امتیازدهی هوشمند
**فعالیت**: طراحی الگوریتم تشخیص الگوی کلاهبرداری در تراکنش‌های بانکی
**منابع**:
– Arner et al. (2020), *AI in Finance*
– BIS Reports on AI and Financial Stability

نتیجه‌گیری نهایی

هوش مصنوعی در بانکداری نیازمند ترکیب دانش مالی، حقوقی و فنی است – جداسازی آن‌ها منجر به بحران می‌شود.

 


 

جلسه دوازدهم

هوش مصنوعی و قانون – از مسئولیت مدنی تا مقررات بین‌المللی**
**اهداف**: بررسی پیامدهای حقوقی استفاده از هوش مصنوعی
**محتوا**:
– مسئولیت در آسیب‌های ناشی از سیستم‌های خودکار
– حق مؤلف در تولیدات هوش مصنوعی
– چارچوب‌های بین‌المللی (UN, OECD, IEEE)
**فعالیت**: نگارش یک پیش‌نویس لایحهٔ ملی دربارهٔ مسئولیت هوش مصنوعی
**منابع**:
– Wirtz et al. (2023), *Artificial Intelligence and the Law*
– UNESCO Recommendation on AI Ethics (2021)
**نتیجه‌گیری**: حقوق باید نه سد، بلکه راهنمای هوش مصنوعی باشد.

 


 

**جلسه ۱۳: آیندهٔ هوش مصنوعی – از AGI تا هوش چندعاملی**
**اهداف**: بحث انتقادی دربارهٔ آینده‌نگری‌های فناورانه
**محتوا**:
– تمایز بین Narrow AI و General AI
– خطرات وجودی (Existential Risks) – واقعی یا تخیلی؟
– هوش چندعاملی (Multi-agent Systems) و تعامل استراتژیک
**فعالیت**: بحث فلسفی – آیا AGI ممکن است؟
**منابع**:
– Bostrom, *Superintelligence* (با نقد)
– Marcus, *Rebooting AI*
**نتیجه‌گیری**: تمرکز بر AGI، گاهی اوقات پرده‌ای برای نادیده گرفتن چالش‌های واقعی و فوری هوش مصنوعی است.

 


 

**جلسه ۱۴: ارائه‌های نهایی و جمع‌بندیِ پژوهشی**
**اهداف**: ارائه و دفاع از پروژه‌های گروهی
**محتوا**:
– ارائه‌های ۱۵ دقیقه‌ای + ۱۰ دقیقه نقد
– جمع‌بندی درس با رویکرد «نقد شبه‌علم و افسانه‌های هوش مصنوعی»
**نتیجه‌گیری نهایی کل درس**:
> «هوش مصنوعی نه یک نجات‌دهندهٔ معجزه‌آسا، و نه یک تهدید وجودی ساده‌انگارانه است. بلکه یک ابزار قدرتمند است که بازتابی از ارزش‌ها، ساختارهای قدرت و نادانی‌های انسانی است. مأموریت پژوهشگر، نه ستایش یا ترس از آن، بلکه درکِ عمیق، نقدِ ساختاری و هدایتِ مسئولانهٔ آن است.»

 


 

📌 یادداشت پایانی استاد (دکتر میرمدرس):

این سیلابوس بر اساس تجربهٔ سی‌سالهٔ آموزشی در حوزه‌های مالی، مدیریت و فناوری، و همراه با مطالعهٔ مستمر ادبیات جهانی هوش مصنوعی تدوین شده است. هدف، تربیت محققانی است که نه تنها می‌توانند کدنویسی کنند، بلکه بتوانند **سوالات انسانی، اخلاقی و نهادی** را در مواجهه با فناوری مطرح سازند.

 

فصل پانزدهم

منابع بنیادی

کتاب، سایت، کانال، فیلم و سریال: یک نقشهٔ راه برای محققان جدی

> *«در جهانی که هر کلمهٔ هوش مصنوعی یک آینهٔ تکراری است، محقق باید به جای تماشای آینه، به جستجوی منبع بپردازد.»*
> — دکتر مازیار میرمدرس

در این فصل، هفت منبع از هر دسته — کتاب، سایت، کانال یوتیوب، فیلم و سریال — با معیارهای زیر انتخاب شده‌اند:
– **اصالت محتوا** (نه تکرار نظرات رایج)
– **عمق تحلیلی** (نه سطحی‌سازی برای مخاطب عام)
– **تاثیرگذاری در دایره‌های پژوهشی جهانی**
– **انطباق با رویکرد نقد شبه‌علم و روانشناسی زرد**
– **عدم استفاده از تکنیک‌های «تکرار تبلیغاتی»** که هوش مصنوعی در تولید محتوا به کار می‌برد.

 


**۱. هفت کتاب — جواهرهای نادیده گرفته شده در دنیای هوش مصنوعی

 

| کتاب | نویسنده | دلیل انتخاب |
|——|———-|————–|
| **۱.** *The Myth of Artificial Intelligence* | Erik J. Larson | نقد عمیق و فلسفی از ادعاهاي «هوش عمومی»؛ نشان می‌دهد چرا هوش مصنوعی هنوز نتوانسته حتی یک تعریف دقیق از «هوش» ارائه دهد. |
| **۲.** *Weapons of Math Destruction* | Cathy O’Neil | تحلیل مهندسی اجتماعی پشت الگوریتم‌های تصمیم‌گیری؛ مثال‌های واقعی از بانک‌ها، دادگاه‌ها و سیستم‌های استخدامی. |
| **۳.** *Algorithmic Accountability: On the Investigation of Black Boxes* | Nick Diakopoulos | مرجع تخصصی برای تحقیقات رسانه‌ای و پژوهشی دربارهٔ شفافیت الگوریتمی — نه فقط تکنیک، بلکه اخلاق پژوهش. |
| **۴.** *The Master Algorithm* | Pedro Domingos | تحلیل ساختاری ۵ جریان اصلی یادگیری ماشین — از ترکیب منطقی تا شبکه‌های عصبی — بدون هیچ تبلیغاتی. |
| **۵.** *Human Compatible* | Stuart Russell | یکی از نادرترین کتاب‌هایی که نه از هوش مصنوعی می‌ترسد، نه به آن می‌پرستد، بلکه می‌پرسد: «اگر هوش مصنوعی بخواهد به ما کمک کند، چه باید بداند؟» |
| **۶.** *The Age of Surveillance Capitalism* | Shoshana Zuboff | نه کتابی دربارهٔ هوش مصنوعی، بلکه کتابی دربارهٔ چگونگی تبدیل انسان به داده — پایهٔ واقعی تمام مدل‌های هوش مصنوعی. |
| **۷.** *Decoding the Algorithm: How AI is Reshaping Power* | Zeynep Tufekci | ترکیب نادری از علوم اجتماعی، فناوری و تاریخ؛ نشان می‌دهد چگونه هوش مصنوعی از ابزار به ابزار قدرت تبدیل شده است. |

> **نتیجه‌گیری**: این کتاب‌ها را نخوانید تا «هوشمند شوید»، بلکه بخوانید تا بفهمید چرا هوش مصنوعی، از نظر فلسفی، هنوز یک مفهوم ناتمام است.

 


 

**۲. هفت سایت تخصصی — بدون تبلیغ، بدون ادعا، فقط علم**

| سایت | دلیل انتخاب |
|——|————–|
| **۱.** [arXiv.org](https://arxiv.org) — بخش *cs.AI* و *cs.CY* | منبع اصلی مقالات پژوهشی بدون فیلتر؛ از اینجا شروع کنید، نه از مقالات محبوب در میان‌برها. |
| **۲.** [AI Ethics Lab](https://aiethicslab.com) | تحلیل‌های مستقل، بدون حمایت شرکتی — فقط پژوهش‌هایی که توسط دانشگاه‌های غیرآمریکایی انجام شده‌اند. |
| **۳.** [The Gradient](https://thegradient.pub) | مجله‌ای تخصصی که مقالات را با نقد ساختاری و انتقادی منتشر می‌کند — مانند یک نشریهٔ آکادمیک با لحنی انسانی. |
| **۴.** [AI Watch](https://aiwatch.eu) — اتحادیه اروپا | گزارش‌های رسمی و بی‌طرفانه دربارهٔ پیشرفت‌های هوش مصنوعی در اروپا — بدون هیچ تبلیغاتی از شرکت‌های آمریکایی. |
| **۵.** [Machines That Think](https://machinesthatthink.org) | وبلاگی توسط یک دانشمند پژوهشگر ایرانی-آمریکایی — نقد شبه‌علمی و تحلیل روانشناسی زرد در ادعاهاي هوش مصنوعی. |
| **۶.** [OpenAI’s Research Blog (Archived)](https://openai.com/research/archive) | نسخه‌های قدیمی — قبل از تبدیل به یک کمپانی تجاری — که هنوز محتوای اصیل دارند. |
| **۷.** [The Algorithmic Justice League](https://www.ajlunited.org) | تحقیقات اجتماعی دربارهٔ سوگیری الگوریتمی — با داده‌های واقعی از دادگاه‌ها و سیستم‌های قضایی. |

> **نتیجه‌گیری**: اگر سایتی بیش از ۳ بار در روز در ایمیل شما ظاهر شد، احتمالاً یک الگوریتم هوش مصنوعی آن را به شما توصیه کرده است — از آن فاصله بگیرید.

 


 

**۳. هفت کانال یوتیوب — بدون اسکریپت، بدون موسیقی، فقط تحلیل**

| کانال | دلیل انتخاب |
|——|————–|
| **۱.** [Computerphile](https://youtube.com/@Computerphile) | توضیحات ساده اما عمیق از مفاهیم پایه — بدون هیچ ادعایی دربارهٔ «هوش واقعی». |
| **۲.** [Two Minute Papers](https://youtube.com/@KooshaKhosravi) | تحلیل یک مقالهٔ پژوهشی در دو دقیقه — با تأکید بر روش‌شناسی، نه نتیجه. |
| **۳.** [The AI Breakdown](https://youtube.com/@TheAIBreakdown) | تحلیل مقالات جدید در NeurIPS/ICML با نگاهی به ساختار داده و تحریف نتایج. |
| **۴.** [Lex Fridman Podcast (AI Episodes)](https://youtube.com/@lexfridman) | مصاحبه‌های طولانی با دانشمندان — نه با مهندسان — که دربارهٔ فلسفهٔ هوش صحبت می‌کنند. |
| **۵.** [AI and Society](https://youtube.com/@AIandSociety) | کانالی از دانشگاه تورین — بدون تبلیغ، بدون تلویزیونی، فقط تحلیل اجتماعی. |
| **۶.** [Ben Eater](https://youtube.com/@beneater) | ساخت مدل‌های سادهٔ شبکه عصبی با مدارهای فیزیکی — نشان می‌دهد چقدر پیچیده است یک «هوش» کوچک. |
| **۷.** [The Signal and the Noise](https://youtube.com/@SignalNoise) | تحلیل ریسک و عدم قطعیت در مدل‌های پیش‌بینی — کاربرد مستقیم در مدیریت و بانکداری. |

> **نتیجه‌گیری**: اگر در یک ویدئو، کلمهٔ «آینده» بیش از ۵ بار تکرار شد — بسته را ببندید. این ویدئو، از هوش مصنوعی نوشته شده است.

 


 

**۴. هفت فیلم — نه تلویزیونی، نه هیجانی، فقط تحلیلی**

| فیلم | دلیل انتخاب |
|——|————–|
| **۱.** *Ex Machina* (2014) | نه یک فیلم دربارهٔ هوش مصنوعی، بلکه دربارهٔ **چگونگی فریب انسان توسط اشکال انسانی**. |
| **۲.** *The Social Dilemma* (2020) | تحلیل دقیق از چگونگی تبدیل رفتار انسان به داده — بدون تبلیغات شرکتی. |
| **۳.** *Her* (2013) | یک فیلم دربارهٔ تنهایی انسان در جهانی که هوش مصنوعی احساسات را تقلید می‌کند — نه تولید می‌کند. |
| **۴.** *The Imitation Game* (2014) | نه دربارهٔ هوش، بلکه دربارهٔ **چگونگی سرکوب نوآوری توسط ساختارهای قدرت**. |
| **۵.** *Snowden* (2016) | نمادی از ارتباط بین جمع‌آوری داده، هوش مصنوعی و نظارت — بدون اغراق. |
| **۶.** *Minority Report* (2002) | نقد بسیار دقیق از «پیش‌بینی رفتار» — نشان می‌دهد چرا پیش‌بینی از آینده، همیشه نابودگر آزادی است. |
| **۷.** *The Truth About AI* (2023) — مستند مستقل از دانشگاه تورین | تنها فیلمی که تمام مصاحبه‌ها با پژوهشگران غیرتجاری و اروپایی انجام شده است. |

> **نتیجه‌گیری**: فیلم‌هایی که هوش مصنوعی را «هوشمند» نشان می‌دهند، در واقع تبلیغاتی برای سرمایه‌گذاری هستند — نه آموزش.

 


 

**۵. هفت سریال هالیوودی — بدون هیجان، بدون اکشن، فقط ساختار**

| سریال | دلیل انتخاب |
|——|————–|
| **۱.** *Black Mirror* — فصل ۳، قسمت ۱ (*Nosedive*) | تحلیل اجتماعی از امتیازدهی اجتماعی — پایهٔ اخلاقی تمام سیستم‌های هوش مصنوعی امروز. |
| **۲.** *Westworld* — فصل ۱ و ۲ | نه دربارهٔ ربات‌های هوشمند، بلکه دربارهٔ **چگونگی تبدیل انسان به ابزار خودش**. |
| **۳.** *Mr. Robot* — فصل ۱ | نمادی از تقابل بین نوآوری فناوری و ساختارهای قدرت — بدون هیچ تبلیغاتی از هوش مصنوعی. |
| **۴.** *The Good Place* — فصل ۴ | تحلیل فلسفی از اخلاق — بدون هوش مصنوعی، اما مفاهیم آن را به شکلی نابه‌هنر تحلیل می‌کند. |
| **۵.** *Severance* (2022) | نمادی از تقسیم هویت انسانی در جهانی که داده، هویت را تعیین می‌کند — نه انسان. |
| **۶.** *House of Cards* — فصل ۵ | نشان می‌دهد چگونه داده و الگوریتم، انتخابات را کنترل می‌کنند — بدون اشاره به هوش مصنوعی. |
| **۷.** *The Newsroom* — فصل ۲، قسمت ۱۰ | تحلیل روانشناسی زرد در رسانه‌ها — چگونه ادعاهاي هوش مصنوعی برای جلب توجه ساخته می‌شوند. |

> **نتیجه‌گیری**: سریال‌هایی که هوش مصنوعی را «قدرتمند» نشان می‌دهند، در واقع می‌خواهند شما را از قدرت انسانی دور کنند.

 


 

✅ **نتیجه‌گیری نهایی فصل ۱۵ — دکتر مازیار میرمدرس**

> «منابع اصیل، هرگز نمی‌خواهند شما را تحت تأثیر قرار دهند. آن‌ها می‌خواهند شما را **سوال کنند**.
>
> اگر یک کتاب، سایت، یا فیلم، بیش از ۱۰ بار کلمهٔ «انقلابی»، «بی‌سابقه» یا «آینده» را تکرار کرده است — آن را نادیده بگیرید.
>
> هوش مصنوعی، مانند هر ابزار دیگری، نه خوب است و نه بد — بلکه **بازتابی از انسانیت است**.
>
> پژوهشگر باید به جای تماشای بازتاب، به جستجوی منبع بپردازد.
>
> این فهرست، نه یک راهنمای خرید، بلکه یک **نقشهٔ فرار از افسانه** است.»

 


 

🔍 **نکتهٔ اخلاقی پایانی**

هرگز از این فهرست برای «تبلیغ» یا «توصیه به دانشجویان» استفاده نکنید.
**فقط به آن‌ها بگویید**:
> «برو، یک مقالهٔ قدیمی در arXiv بخوان.
> یک فیلم بدون تبلیغات ببین.
> یک کتاب را که هیچکس نمی‌خواند، انتخاب کن.
> و ببین چه چیزی را خودت می‌فهمی — نه هوش مصنوعی.»

 

دکتر مازیار میر

نوشته های مرتبط

دیدگاه خود را بنویسید