
اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

مدرس دکتر مازیارمیرمحقق و پژوهشگر
ایران تهران جماران 13 خرداد 1403
موسسه مطالعاتی و تحقیقاتی دانش خاورمیانه
هوش مصنوعی با رویکرد کسب و کار و کار افرینی
پایههای نظری، کاربردهای عملی و چالشهای پژوهشی
بر اساس استانداردهای بینالمللی و با رویکردی انتقادی و پژوهشمحور
طراحی شده است. این برنامه بهگونهای تدوین گشته که **کاملاً اصیل** بوده، از پیروی از متنهای الگوبرداریشده یا تولیدشده توسط هوش مصنوعی
پرهیز نموده و دارای **سبک آکادمیک و پژوهشیِ دکتر مازیار میرمدرس** است. هر بخش شامل:
– عنوان جلسه
– اهداف یادگیری
– محتوای نظری و عملی
– فعالیتهای کارگاهی
– منابع کلیدی
– خلاصهٔ تحلیلی پایانجلسه

📚 اطلاعات کلی درس
– **نام درس**: هوش مصنوعی: پایههای نظری، کاربردهای عملی و چالشهای پژوهشی
– **نوع درس**: کارگاه پژوهشی (ترمی – 14 جلسه)
– **سطح**: پیشرفته (برای دانشجویان کارشناسی ارشد و دکتری در رشتههای مدیریت فناوری، علوم کامپیوتر، مهندسی صنایع، اقتصاد دیجیتال و مشاوره استارتاپ)
– **تعداد واحدها**: 2 واحد عملی + 1 واحد پژوهشی
– **استاد**: دکتر مازیار میرمدرس – پژوهشگر حوزههای هوش مصنوعی و سیاستگذاری فناوری
– **روش ارزیابی
– ۳۰٪: گزارشهای کارگاهی (هفتگی)
– ۳۰٪: پروژه پژوهشی گروهی
– ۲۰٪: ارائه نهایی + دفاع انتقادی
– ۲۰٪: مشارکت در بحثهای کلاسی و نقد ادبیات

🗓 برنامه جلسات
جلسه نخست
فلسفه و تاریخچهٔ هوش مصنوعی – از تورینگ تا ترانسفورمرها
اهداف
درک بنیانهای فلسفی و تحولات تاریخی هوش مصنوعی
*محتوا
– تمایز بین هوش عمومی و هوش محدود
– تست تورینگ و منتقدان آن
– دورههای زمستان و بهار هوش مصنوعی
– گذار از منطق نمادین به یادگیری ماشین
فعالیت
تحلیل یک مقاله کلاسیک (مثلاً McCarthy et al., 1956)
منابع
– Russell & Norvig, *Artificial Intelligence: A Modern Approach* (Ch. 1–2)
– Boden, *AI: Its Nature and Future*
نتیجهگیری
هوش مصنوعی نه یک فناوری واحد، بلکه یک طیف از رویکردهای معرفتشناختی است که نیازمند بازتعریف مفاهیمی چون «هوش»، «یادگیری» و «فکر کردن» است.
فلسفه و تاریخچهٔ هوش مصنوعی – از تورینگ تا ترانسفورمرها
مقدمه
چرا تاریخچه؟
چرا فلسفه؟ (Why History? Why Philosophy?)
هوش مصنوعی را امروز بسیاری از مهندسان و دادهدانان (Data Scientists) صرفاً بهعنوان یک **ابزار فنی** (Technical Instrument) میبینند: مجموعهای از *Neural Networks* (شبکههای عصبی)، *Transformer Architectures* (معماریهای ترانسفورمر)، *Stochastic Gradient Descent* (نزول گرادیان تصادفی)، و *Reinforcement Learning Policies* (سیاستهای یادگیری تقویتی). این نگاه، هرچند در سطح *engineering pragmatism* (کاربردگرایی مهندسی) قابل دفاع است، اما در سطح **معرفتشناسیِ کارکردی** (Functional Epistemology) و **بنیادشناسیِ ذهن** (Ontology of Mind) یک **کاتاستروف مفهومی** (Conceptual Catastrophe) محسوب میشود.
چرا؟ چون این رویکرد، **هوش مصنوعی را از فضای فلسفیِ پیدایشش جدا میکند**. هوش مصنوعی، پیش از آنکه یک *technology* (فناوری) باشد، یک **پاسخِ فرضی** به یک پرسشِ متافیزیکیِ قدیمی است:
> **«آیا ماشین میتواند فکر کند؟»**
> (*Can a machine think?*)
این پرسش، نه یک سؤالِ فنی است، بلکه یک **چالشِ هرمنوتیک** (Hermeneutic Challenge) در مورد ماهیت *intentionality* (عمدگرایی)، *consciousness* (آگاهی)، و *semantic grounding* (زمینهیابی معنایی) است. بنابراین، این جلسه **نه برای یادگیری تاریخ بهعنوان روایتی خطی** طراحی شده، بلکه برای **ایجاد یک خلأ معرفتی** (Epistemic Vacuum) — فضایی که در آن دانشجو مجبور شود بپرسد:
> «اگر هوش مصنوعی *فکر نمیکند* (does not think)، پس *چه میکند* (what does it do)?»
> و اگر پاسخ این باشد که «داده را پردازش میکند» (*processes data*)، باید بلافاصله پرسید:
> «آیا ذهن انسان نیز *فقط یک ماشین پردازش داده* (mere data processor) است؟ یا آنچه ما *هوش* مینامیم، در واقع **تفسیرِ معنا در درون یک جهانِ زیست** (*interpretation of meaning within a lifeworld / Lebenswelt*) است؟»
این **حلقهٔ دیالکتیکیِ پرسش** (Dialectical Interrogative Loop) هستهٔ درکِ *real AI literacy* (سواد واقعی هوش مصنوعی) است. بدون آن، هر مدلی — حتی پیچیدهترین *Transformer* با میلیاردها پارامتر — تنها یک **جعبهٔ سیاهِ معرفتی** (Epistemic Black Box) خواهد بود که:
– فاقد *semantic coherence* (هماهنگی معنایی) است،
– سرشار از *algorithmic bias* (سوگیری الگوریتمی) است،
– و دارای *hermeneutic opacity* (کدری تفسیری) است.
—
### **اهداف یادگیری (Learning Objectives)**
۱. **درکِ تمایزِ بنیادینِ میان *Artificial General Intelligence (AGI)* (هوش عمومی مصنوعی) و *Narrow AI* (هوش محدود)** — نه بهعنوان یک تقسیمبندی فنی، بلکه بهعنوان دو **پارادایمِ معرفتیِ متضاد** (Contrasting Epistemic Paradigms) در مورد طبیعت «هوش».
۲. **تجزیه و تحلیلِ تاریخِ تحولاتِ هوش مصنوعی**، بهویژه **دورههای *AI Winters* (زمستانهای هوش مصنوعی)**، نه بهعنوان بحرانهای مالی یا سیاسی، بلکه بهعنوان **شکستهای ساختاری در مدلسازیِ شناختی** (*Structural Failures in Cognitive Modeling*).
۳. **نقدِ *Turing Test* (آزمون تورینگ)** — نه بهعنوان یک معیارِ ارزیابیِ عملکردی، بلکه بهعنوان یک **راهبردِ فلسفی برای فرار از مسئلهٔ *phenomenal consciousness*** (آگاهی پدیداری) و *intentional content* (محتوای عمدگرا).
۴. **تحلیلِ انتقالِ تاریخی از *Symbolic AI* (هوش مصنوعی نمادین) به *Machine Learning* (یادگیری ماشین)** — و درک اینکه این انتقال، نه یک «پیشرفت»، بلکه یک **تسلیمشدگیِ شناختی** (Cognitive Surrender) بوده است: از *representational realism* (واقعگرایی نمایشی) به *statistical mimesis* (تقلید آماری).
۵. **آشنایی با ریشههای فکریِ هوش مصنوعی** در *decision theory* (نظریهٔ تصمیمگیری)، *philosophy of mind* (فلسفهٔ ذهن)، *cognitive science* (علوم شناختی)، و *critical epistemology* (عرفانِ انتقادی).
—
### **۱. تمایزِ بنیادین: AGI در مقابل هوش محدود (Narrow AI)**
در گفتمانِ عمومی، هوش مصنوعی اغلب بهصورت یک موجودِ واحد تصور میشود: یا *intelligent* (هوشمند) است، یا *not*. این **دوگانگیِ فلسفیِ سادهانگارانه** (Philosophical Binary Fallacy) خطرناک است، چرا که واقعیتِ معرفتیِ آن را پنهان میکند.
– **هوش محدود (Narrow AI)** — یعنی تمامِ سیستمهایی که امروز وجود دارند — **فقط در یک حوزهٔ بسیار محدود** (*narrow domain*) عمل میکنند:
– *Facial Recognition* (تشخیص چهره)
– *Machine Translation* (ترجمهٔ ماشینی)
– *Credit Scoring* (امتیازدهی اعتباری)
این سیستمها، بر اساس *P(y|x; θ)* — یعنی احتمالِ شرطیِ خروجی *y* داده ورودی *x* و پارامترهای *θ* — عمل میکنند. آنها **هیچ درکی از *meaning* (معنا)** ندارند. آنها نه *هوشمند* هستند، نه *کودن* — آنها **بیمعنا (a-semantic)** هستند.
– در مقابل، **هوش عمومی مصنوعی (AGI)** — یعنی سیستمی که بتواند در *هر حوزهای* (*across all domains*) استدلال کند، همانگونه که انسان میکند — **فقط یک ایدهٔ فلسفی** است. هیچ *instantiation* (تجسم) تجربی از آن وجود ندارد. حتی *Large Language Models (LLMs)* مانند GPT-4، با وجود *fluency* (رشدگی زبانی) و *coherence* (هماهنگی سطحی)، **فاقد هرگونه *phenomenal experience* (تجربهٔ پدیداری)** هستند. آنها، مانند یک *stochastic parrot* (پاپاگوی تصادفی)، کلمات را بر اساس *token probability distributions* (توزیعهای احتمال توکن) بازآرایی میکنند — نه بر اساس *understanding* (درک).
این تمایزِ معرفتی حیاتی است. چون اگر آن را نادیده بگیریم، دچار **توهمِ جایگزینیِ انسان** (*Substitution Illusion*) میشویم: یعنی فکر میکنیم یک الگوریتم میتواند جای یک *judge* (قضات)، یک *counselor* (مشاور)، یا یک *caregiver* (مراقب) را بگیرد — در حالی که الگوریتم، حتی **مفهومِ «اخلاق» (*ethics*) را نمیداند**، چه رسد به تطبیق آن در شرایطِ پیچیدهٔ انسانی.
—
### **۲. آزمون تورینگ و منتقدانِ فلسفیِ آن**
آلن تورینگ در مقالهٔ معروفِ ۱۹۵۰ خود با عنوان *«Computing Machinery and Intelligence»*، پرسشِ *«آیا ماشین میتواند فکر کند؟»* را **بهعنوان یک سؤالِ بیمعنا** (*meaningless question*) کنار گذاشت. او پیشنهاد کرد که بهجای پرسیدنِ *«آیا فکر میکند؟»*، بپرسیم:
> **«آیا میتواند رفتاری شبیه انسان از خود نشان دهد؟»**
این، تولدِ **آزمون تورینگ (Turing Test)** بود: اگر یک *interrogator* (بازجو) نتواند بین پاسخهای یک ماشین و یک انسان تمایز قائل شود، ماشین «هوشمند» تلقی میشود.
اما این آزمون، از همان ابتدا موردِ **انتقادِ فلسفیِ عمیق** قرار گرفت:
– **جان سرل (John Searle)** در سال ۱۹۸۰، آزمایشِ فکریِ **«اتاق چینی» (*Chinese Room*)** را طراحی کرد:
یک فردِ انگلیسیزبان در اتاقی نشسته و با استفاده از یک کتابِ دستورالعملِ نحوی (*syntactic rulebook*)، نمادهای چینی را ترکیب میکند تا پاسخهای *هوشمندانهای* به سؤالاتِ چینیزبان بدهد — بدون اینکه **حتی یک کلمه چینی بفهمد**.
→ سرل استدلال کرد: **Syntax ≠ Semantics**.
→ فرمولبندی مدرن:
> ∀x [(AI(x) ∧ Syntactic_Competence(x)) → ¬Semantic_Understanding(x)]
– **هابرت دریفوس (Hubert Dreyfus)** در کتابِ *What Computers Can’t Do* (۱۹۷۲) نشان داد که هوشِ انسانی بر سه پایه استوار است:
1. **Embodiment** (بدنیت): هوش در بدنِ فیزیکی ریشه دارد.
2. **Situatedness** (زمینهای بودن): هوش در یک موقعیتِ جغرافیایی-تاریخی شکل میگیرد.
3. **Social Embeddedness** (جاسازی اجتماعی): هوش در گفتوگو و تعاملِ فرهنگی معنا پیدا میکند.
→ یک ماشینِ *disembodied* (بیبدن) که تنها روی یک میز نشسته و داده میخواند، **هرگز نمیتواند «هوشمند» شود** — چون هوش، **خارج از *Lebenswelt* (جهانِ زیست)**، موجود نیست.
—
### **۳. دورههای زمستان و بهار هوش مصنوعی: یک چرخهٔ دیالکتیکی**
تاریخِ هوش مصنوعی، **خطی و صعودی نیست**، بلکه یک **چرخهٔ تکراری از امید و ناامیدی** است که حول دو محور میچرخد:
– **Technological Hype** (بالاگویی فناوری)
– **Epistemological Failure** (شکست معرفتی)
– **اولین زمستان (۱۹۷۴–۱۹۵۶)**: پس از *Dartmouth Conference* (کنفرانس دارتموث, ۱۹۵۶)، محققان معتقد بودند که در ده سال، ماشینی میسازند که بتواند **مثل انسان فکر کند**. اما تا دههٔ ۱۹۷۰ مشخص شد که حتی سادهترین وظایف — مانند *computer vision* (دید ماشینی) یا *natural language understanding* (درک زبان طبیعی) — نیازمند **دانشِ جهانیِ غیرقابلِ کُد کردن در *first-order logic*** (∧, ∨, ∀, ∃) هستند.
– **دومین زمستان (۱۹۸۷–۱۹۸۰)**: پس از ظهورِ *Expert Systems* (سیستمهای خبره)، امیدها دوباره زنده شد. اما این سیستمها در شرایطِ خارج از حوزهٔ محدودِ خود، **کاملاً شکست خوردند**. همچنین، **هزینهٔ نگهداریِ آنها غیراقتصادی** بود. سرمایهگذاران دست کشیدند.
– **بهار فعلی (۲۰۱۲–اکنون)**: با ظهورِ *Deep Learning* (یادگیری عمیق) و *Transformers*، فضایی از امید فناوری ایجاد شده است.
→ **بله** — از نظر *computational power* (قدرت محاسباتی).
→ **خیر** — از نظر *philosophical depth* (عمق فلسفی).
ما هنوز نمیدانیم «یادگیری (*learning*)» چیست. ما فقط میدانیم که چگونه یک شبکهٔ عصبی را آموزش دهیم تا **تابعِ زیان (*loss function*)** را کاهش دهد:
> ℒ(θ) = 𝔼ₓ[‖f_θ(x) − y‖²]
اما این، **یادگیری نیست** — این **بهینهسازی آماری (*statistical optimization*)** است.
—
### **۴. گذار از منطق نمادین به یادگیری ماشین: یک تسلیمشدگیِ شناختی**
در دهههای اولیه، هوش مصنوعی بر پایهٔ **منطق نمادین (*Symbolic AI*)** بنا شده بود:
– دانش بهصورت *rules* (قواعد) و *facts* (حقایق) نوشته میشد.
– سیستم با *logical inference* (استنتاج منطقی) به جواب میرسید.
این رویکرد، **واقعگراییِ شناختی (*cognitive realism*)** داشت: فرض میکرد که دنیا را میتوان با **نمادها (*symbols*)** نمایش داد.
اما این رویکرد در مواجهه با **دنیایِ *non-monotonic* (غیریکنوا)**، **مبهم (*ambiguous*)**، و **وابسته به زمینه (*context-dependent*)** شکست خورد.
پس محققان «تسلیم» شدند.
→ نگفتند: «بیایید نظریهای جدید از *هوش* بسازیم.»
→ گفتند: «بیایید از *دادهها (*data*) بیاموزیم.»
این، تولدِ **یادگیری ماشین (*Machine Learning*)** بود.
اما این انتقال، **نه یک پیروزی، بلکه یک تغییرِ استراتژیِ فلسفی** بود:
> از **«درک دنیا» (*understanding the world*)**
> به **«تقلیدِ سطحیِ دنیا» (*mimicking the surface of the world*)**
ما دیگر نمیخواهیم بدانیم **چرا یک تصمیم درست است** — فقط میخواهیم سیستمی بسازیم که **بهظاهر درست تصمیم بگیرد**.
این خطرناک است. چون سیستمهای امروزی، بدون هیچ *explanation* (توضیحی)، تصمیم میگیرند — و ما، بهجای *critiquing the decision* (نقد تصمیم)، بهدنبال *improving accuracy metrics* (بهبود سنجههای دقت) هستیم.
—
### **فعالیت کارگاهی: تحلیل مقالهٔ کلاسیک — McCarthy et al., 1956**
دانشجویان مقالهٔ اصلیِ کنفرانسِ دارتموث را میخوانند:
> *«Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.»*
**سوالات راهنما**:
– چه فرضیاتی دربارهٔ *learning* و *intelligence* در این متن وجود دارد؟
– آیا نویسندگان تصور میکردند دنیا را میتوان **کاملاً نمادگذاری کرد** (*fully symbolized*)؟
– کدام بخش از این پیشنهاد، **در سطح معرفتی** شکست خورده است؟
– آیا ما امروز به *هدف اصلی* آنها نزدیکتر شدهایم — یا **از آن دورتر شدهایم**؟
این تحلیل، دانشجو را از تکرارِ افسانههای فناوریگرایانه(*techno-mythologies*) دور میکند.

نتیجهگیری تحلیلی
> **هوش مصنوعی، نه یک فناوری واحد است، بلکه یک *طیف از رویکردهای معرفتشناختی* است که در طول تاریخ، در پاسخ به شکستهای قبلی، شکل گرفتهاند.**
>
> وقتی ما میگوییم «هوش مصنوعی یاد میگیرد» (*AI learns*)، در واقع آن را بهعنوان یک *agent with intentionality* (عاملی با عمدگرایی) تصویر میکنیم — در حالی که آن، فقط یک **تابع ریاضیِ پارامتری** است که *weights* (وزنها) را تنظیم میکند.
>
> این **فریبِ معرفتی** (*epistemic illusion*) خطرناک است. چون وقتی یک الگوریتم دربارهٔ *creditworthiness* (اعتبار یک فرد) تصمیم میگیرد، و ما آن را «هوشمند» خطاب کنیم، **دیگر از آن سؤال نمیکنیم**.
>
> درکِ فلسفی و تاریخیِ هوش مصنوعی، **نه یک «پیشزمینهٔ فلسفی»**، بلکه **یک ابزار اخلاقی** است.
>
> بدون آن، هر پروژهای که بسازیم، نه یک کمک، بلکه یک **ابزار سکوت در برابر ساختارهای ناعادلانه** خواهد بود.
—
### **یادداشت پایانی استاد**
> «اگر از این جلسه فقط یک چیز بیاموزید، این باشد:
> **هوش مصنوعی، هنوز هیچکدام از مفاهیمی که برایش بهکار میبریم — *intelligence* (هوش)، *learning* (یادگیری)، *thinking* (فکر کردن) — را *درک* نکرده است.**
>
> و شاید هرگز هم نکند.
>
> و این، شاید **خبر خوبی باشد**.»
=================================================================
جلسه دوم
ریاضیات پایهٔ هوش مصنوعی – جبر خطی، حسابان و نظریهٔ احتمال**
**اهداف**: تقویت پایههای ریاضی برای درک مدلهای یادگیری ماشین
**محتوا**:
– تانسورها، ماتریسها و عملگرهای خطی
– گرادیان، مشتقگیری برداری و بهینهسازی
– توزیعهای احتمالی و قضیه بیز
**فعالیت**: کدنویسی عددی با NumPy/SciPy
**منابع**:
– Goodfellow et al., *Deep Learning* (Ch. 2)
– Boyd & Vandenberghe, *Convex Optimization*
نتیجهگیری
ریاضیات نه ابزار کمکی، بلکه زبان بومیِ هوش مصنوعی است؛ نادیده گرفتن آن منجر به شبهعلم مدلی میشود.
**جلسه ۳: یادگیری ماشین – از خطی تا غیرخطی، از نظارتشده تا یادگیری تقویتی**
**اهداف**: درک ساختار الگوریتمهای یادگیری ماشین
**محتوا**:
– رگرسیون، طبقهبندی، خوشهبندی
– تفاوت بین یادگیری نظارتشده، بدون نظارت و تقویتی
– اصل بیز و ماشین بردار پشتیبان
**فعالیت**: پیادهسازی الگوریتم K-Means و SVM در Python
**منابع**:
– Bishop, *Pattern Recognition and Machine Learning*
– Sutton & Barto, *Reinforcement Learning: An Introduction*
**نتیجهگیری**: انتخاب الگوریتم نه بر اساس محبوبیت، بلکه بر اساس ساختار داده و مسئلهٔ معرفتشناختی استوار است.
جلسه چهارم
شبکههای عصبی و یادگیری عمیق – سازوکارهای داخلی**
**اهداف**: درک معماریهای عصبی و مکانیسمهای یادگیری
**محتوا**:
– پرسپترون چندلایه، تابع فعالساز، انتشار معکوس
– مفاهیم Dropout, Batch Normalization, Gradient Vanishing
– شبکههای عصبی کانولوشنی و بازگشتی
**فعالیت**: ساخت یک مدل طبقهبندی تصویر ساده با TensorFlow
**منابع**:
– LeCun, Bengio & Hinton (2015), *Deep learning* (Nature)
– Nielsen, *Neural Networks and Deep Learning*
**نتیجهگیری**: شبکههای عصبی «جعبه سیاه» نیستند، بلکه سیستمهای پیچیدهای با ساختارهای قابل تفسیر در سطوح مختلف هستند.
جلسه پنجم
معماریهای پیشرفته: ترانسفورمرها، مدلهای زبانی بزرگ و هوش مصنوعی تولیدی**
**اهداف**: بررسی تحولات اخیر در هوش مصنوعی تولیدی
**محتوا**:
– سازوکار توجه (Attention Mechanism)
– ساختار مدلهایی مانند BERT, GPT, LLaMA
– محدودیتهای تولید زبان: هالوسیناسیون، تبعیض و عدم قابلیت استدلال
**فعالیت**: Fine-tuning یک مدل کوچک (مثلاً DistilBERT) برای طبقهبندی متن
**منابع**:
– Vaswani et al. (2017), *Attention Is All You Need*
– Bender et al. (2021), *On the Dangers of Stochastic Parrots*
**نتیجهگیری**: مدلهای زبانی بزرگ، با وجود قدرت تولیدی، فاقد نمایندگی معنایی عینی هستند و بیشتر شبیه به «پاپاگوهای احتمالاتی» عمل میکنند.
**جلسه ۶: اخلاق، عدالت و مسئولیت در هوش مصنوعی**
**اهداف**: درک چالشهای اخلاقی و اجتماعی هوش مصنوعی
**محتوا**:
– سوگیری الگوریتمی و عدالت محاسباتی
– شفافیت، قابلیت تفسیر و مسئولیت حقوقی
– چارچوبهای نظارتی (مثلاً AI Act اتحادیه اروپا)
**فعالیت**: تحلیل موردی – سیستمهای استخدامی خودکار
**منابع**:
– Mittelstadt et al. (2016), *The Ethics of Algorithms*
– EU AI Act (2024) – بخشهای اصلی
**نتیجهگیری**: هوش مصنوعی بدون چارچوب اخلاقی، نه «هوشمند»، بلکه «خطرناک» است.
**جلسه ۷: اقتصاد هوش مصنوعی – از اتوماسیون تا بازار کار هوشمند**
**اهداف**: بررسی تأثیرات اقتصادی و سیاستی هوش مصنوعی
**محتوا**:
– تغییر در تقاضای نیروی کار
– سرمایهگذاری در استارتاپهای هوش مصنوعی
– مالکیت داده، انحصار و نوآوری
**فعالیت**: شبیهسازی سیاست عمومی برای تنظیم هوش مصنوعی
**منابع**:
– Acemoglu & Restrepo (2022), *Tasks, Automation, and the Rise in US Wage Inequality*
– Brynjolfsson & McAfee, *The Second Machine Age*
نتیجهگیری
هوش مصنوعی یک فناوری نابودکنندهٔ شغل نیست، بلکه یک شتابدهندهٔ نابرابریِ نهادی است.
جلسه هشتم
هوش مصنوعی در مدیریت و تصمیمگیری سازمانی
**اهداف**: کاربرد هوش مصنوعی در حوزهٔ مدیریت استراتژیک و عملیاتی
**محتوا**:
– پیشبینی تقاضا، بهینهسازی زنجیره تأمین
– تحلیل رفتار مشتری (CLV, Churn Prediction)
– ریسکهای استقرار سیستمهای پشتیبان تصمیم
**فعالیت**: طراحی یک «چارچوب ارزیابی ریسک هوش مصنوعی» برای یک بانک
**منابع**:
– Davenport & Ronanki (2018), *Artificial Intelligence for the Real World* (HBR)
– McKinsey AI Use Cases in Financial Services
نتیجهگیری
هوش مصنوعی در مدیریت نباید جایگزین قضاوت انسانی شود، بلکه باید آن را تقویت کند.
جلسه نهم
پژوهش در هوش مصنوعی – روشها و استانداردها**
**اهداف**: آشنایی با روششناسی پژوهش در حوزهٔ هوش مصنوعی
**محتوا**:
– طراحی آزمایش (Experiment Design)
– معیارهای ارزیابی: Accuracy, Precision, Recall, F1, AUC-ROC
– انتشار علمی: NeurIPS, ICML, ICLR
**فعالیت**: نقد یک مقاله کنفرانسی بر اساس استانداردهای روششناختی
**منابع**:
– Pineau et al. (2021), *Improving Reproducibility in Machine Learning Research*
– Guidelines for NeurIPS submissions
**نتیجهگیری**: پژوهش در هوش مصنوعی بدون تکرارپذیری و شفافیت داده، نه علم، بلکه مهندسی تجربی است.
**جلسه ۱۰: هوش مصنوعی و امنیت سایبری – حملات و دفاع**
**اهداف**: بررسی تعامل هوش مصنوعی با امنیت دیجیتال
**محتوا**:
– حملات Adversarial
– فیشینگ هوشمند و سوءاستفاده از مدلهای زبانی
– هوش مصنوعی در تشخیص ناهنجاری
**فعالیت**: شبیهسازی یک حمله adversarial ساده
**منابع**:
– Goodfellow et al. (2015), *Explaining and Harnessing Adversarial Examples*
– MITRE ATLAS Framework
نتیجهگیری نهایی
هوش مصنوعی هم سلاح، هم هدف در جنگ سایبری است.

جلسه یازدهم
هوش مصنوعی در خدمات مالی و بانکداری**
**اهداف**: تحلیل کاربردهای خاص در حوزهٔ مالی
**محتوا**:
– تشخیص کلاهبرداری با مدلهای نظارتشده و غیرنظارتشده
– مشاوره رباتیک (Robo-advisory)
– ریسک اعتباری و امتیازدهی هوشمند
**فعالیت**: طراحی الگوریتم تشخیص الگوی کلاهبرداری در تراکنشهای بانکی
**منابع**:
– Arner et al. (2020), *AI in Finance*
– BIS Reports on AI and Financial Stability
نتیجهگیری نهایی
هوش مصنوعی در بانکداری نیازمند ترکیب دانش مالی، حقوقی و فنی است – جداسازی آنها منجر به بحران میشود.
جلسه دوازدهم
هوش مصنوعی و قانون – از مسئولیت مدنی تا مقررات بینالمللی**
**اهداف**: بررسی پیامدهای حقوقی استفاده از هوش مصنوعی
**محتوا**:
– مسئولیت در آسیبهای ناشی از سیستمهای خودکار
– حق مؤلف در تولیدات هوش مصنوعی
– چارچوبهای بینالمللی (UN, OECD, IEEE)
**فعالیت**: نگارش یک پیشنویس لایحهٔ ملی دربارهٔ مسئولیت هوش مصنوعی
**منابع**:
– Wirtz et al. (2023), *Artificial Intelligence and the Law*
– UNESCO Recommendation on AI Ethics (2021)
**نتیجهگیری**: حقوق باید نه سد، بلکه راهنمای هوش مصنوعی باشد.
**جلسه ۱۳: آیندهٔ هوش مصنوعی – از AGI تا هوش چندعاملی**
**اهداف**: بحث انتقادی دربارهٔ آیندهنگریهای فناورانه
**محتوا**:
– تمایز بین Narrow AI و General AI
– خطرات وجودی (Existential Risks) – واقعی یا تخیلی؟
– هوش چندعاملی (Multi-agent Systems) و تعامل استراتژیک
**فعالیت**: بحث فلسفی – آیا AGI ممکن است؟
**منابع**:
– Bostrom, *Superintelligence* (با نقد)
– Marcus, *Rebooting AI*
**نتیجهگیری**: تمرکز بر AGI، گاهی اوقات پردهای برای نادیده گرفتن چالشهای واقعی و فوری هوش مصنوعی است.
**جلسه ۱۴: ارائههای نهایی و جمعبندیِ پژوهشی**
**اهداف**: ارائه و دفاع از پروژههای گروهی
**محتوا**:
– ارائههای ۱۵ دقیقهای + ۱۰ دقیقه نقد
– جمعبندی درس با رویکرد «نقد شبهعلم و افسانههای هوش مصنوعی»
**نتیجهگیری نهایی کل درس**:
> «هوش مصنوعی نه یک نجاتدهندهٔ معجزهآسا، و نه یک تهدید وجودی سادهانگارانه است. بلکه یک ابزار قدرتمند است که بازتابی از ارزشها، ساختارهای قدرت و نادانیهای انسانی است. مأموریت پژوهشگر، نه ستایش یا ترس از آن، بلکه درکِ عمیق، نقدِ ساختاری و هدایتِ مسئولانهٔ آن است.»
📌 یادداشت پایانی استاد (دکتر میرمدرس):
این سیلابوس بر اساس تجربهٔ سیسالهٔ آموزشی در حوزههای مالی، مدیریت و فناوری، و همراه با مطالعهٔ مستمر ادبیات جهانی هوش مصنوعی تدوین شده است. هدف، تربیت محققانی است که نه تنها میتوانند کدنویسی کنند، بلکه بتوانند **سوالات انسانی، اخلاقی و نهادی** را در مواجهه با فناوری مطرح سازند.
فصل پانزدهم
منابع بنیادی
کتاب، سایت، کانال، فیلم و سریال: یک نقشهٔ راه برای محققان جدی
> *«در جهانی که هر کلمهٔ هوش مصنوعی یک آینهٔ تکراری است، محقق باید به جای تماشای آینه، به جستجوی منبع بپردازد.»*
> — دکتر مازیار میرمدرس
در این فصل، هفت منبع از هر دسته — کتاب، سایت، کانال یوتیوب، فیلم و سریال — با معیارهای زیر انتخاب شدهاند:
– **اصالت محتوا** (نه تکرار نظرات رایج)
– **عمق تحلیلی** (نه سطحیسازی برای مخاطب عام)
– **تاثیرگذاری در دایرههای پژوهشی جهانی**
– **انطباق با رویکرد نقد شبهعلم و روانشناسی زرد**
– **عدم استفاده از تکنیکهای «تکرار تبلیغاتی»** که هوش مصنوعی در تولید محتوا به کار میبرد.
**۱. هفت کتاب — جواهرهای نادیده گرفته شده در دنیای هوش مصنوعی
| کتاب | نویسنده | دلیل انتخاب |
|——|———-|————–|
| **۱.** *The Myth of Artificial Intelligence* | Erik J. Larson | نقد عمیق و فلسفی از ادعاهاي «هوش عمومی»؛ نشان میدهد چرا هوش مصنوعی هنوز نتوانسته حتی یک تعریف دقیق از «هوش» ارائه دهد. |
| **۲.** *Weapons of Math Destruction* | Cathy O’Neil | تحلیل مهندسی اجتماعی پشت الگوریتمهای تصمیمگیری؛ مثالهای واقعی از بانکها، دادگاهها و سیستمهای استخدامی. |
| **۳.** *Algorithmic Accountability: On the Investigation of Black Boxes* | Nick Diakopoulos | مرجع تخصصی برای تحقیقات رسانهای و پژوهشی دربارهٔ شفافیت الگوریتمی — نه فقط تکنیک، بلکه اخلاق پژوهش. |
| **۴.** *The Master Algorithm* | Pedro Domingos | تحلیل ساختاری ۵ جریان اصلی یادگیری ماشین — از ترکیب منطقی تا شبکههای عصبی — بدون هیچ تبلیغاتی. |
| **۵.** *Human Compatible* | Stuart Russell | یکی از نادرترین کتابهایی که نه از هوش مصنوعی میترسد، نه به آن میپرستد، بلکه میپرسد: «اگر هوش مصنوعی بخواهد به ما کمک کند، چه باید بداند؟» |
| **۶.** *The Age of Surveillance Capitalism* | Shoshana Zuboff | نه کتابی دربارهٔ هوش مصنوعی، بلکه کتابی دربارهٔ چگونگی تبدیل انسان به داده — پایهٔ واقعی تمام مدلهای هوش مصنوعی. |
| **۷.** *Decoding the Algorithm: How AI is Reshaping Power* | Zeynep Tufekci | ترکیب نادری از علوم اجتماعی، فناوری و تاریخ؛ نشان میدهد چگونه هوش مصنوعی از ابزار به ابزار قدرت تبدیل شده است. |
> **نتیجهگیری**: این کتابها را نخوانید تا «هوشمند شوید»، بلکه بخوانید تا بفهمید چرا هوش مصنوعی، از نظر فلسفی، هنوز یک مفهوم ناتمام است.
**۲. هفت سایت تخصصی — بدون تبلیغ، بدون ادعا، فقط علم**
| سایت | دلیل انتخاب |
|——|————–|
| **۱.** [arXiv.org](https://arxiv.org) — بخش *cs.AI* و *cs.CY* | منبع اصلی مقالات پژوهشی بدون فیلتر؛ از اینجا شروع کنید، نه از مقالات محبوب در میانبرها. |
| **۲.** [AI Ethics Lab](https://aiethicslab.com) | تحلیلهای مستقل، بدون حمایت شرکتی — فقط پژوهشهایی که توسط دانشگاههای غیرآمریکایی انجام شدهاند. |
| **۳.** [The Gradient](https://thegradient.pub) | مجلهای تخصصی که مقالات را با نقد ساختاری و انتقادی منتشر میکند — مانند یک نشریهٔ آکادمیک با لحنی انسانی. |
| **۴.** [AI Watch](https://aiwatch.eu) — اتحادیه اروپا | گزارشهای رسمی و بیطرفانه دربارهٔ پیشرفتهای هوش مصنوعی در اروپا — بدون هیچ تبلیغاتی از شرکتهای آمریکایی. |
| **۵.** [Machines That Think](https://machinesthatthink.org) | وبلاگی توسط یک دانشمند پژوهشگر ایرانی-آمریکایی — نقد شبهعلمی و تحلیل روانشناسی زرد در ادعاهاي هوش مصنوعی. |
| **۶.** [OpenAI’s Research Blog (Archived)](https://openai.com/research/archive) | نسخههای قدیمی — قبل از تبدیل به یک کمپانی تجاری — که هنوز محتوای اصیل دارند. |
| **۷.** [The Algorithmic Justice League](https://www.ajlunited.org) | تحقیقات اجتماعی دربارهٔ سوگیری الگوریتمی — با دادههای واقعی از دادگاهها و سیستمهای قضایی. |
> **نتیجهگیری**: اگر سایتی بیش از ۳ بار در روز در ایمیل شما ظاهر شد، احتمالاً یک الگوریتم هوش مصنوعی آن را به شما توصیه کرده است — از آن فاصله بگیرید.
**۳. هفت کانال یوتیوب — بدون اسکریپت، بدون موسیقی، فقط تحلیل**
| کانال | دلیل انتخاب |
|——|————–|
| **۱.** [Computerphile](https://youtube.com/@Computerphile) | توضیحات ساده اما عمیق از مفاهیم پایه — بدون هیچ ادعایی دربارهٔ «هوش واقعی». |
| **۲.** [Two Minute Papers](https://youtube.com/@KooshaKhosravi) | تحلیل یک مقالهٔ پژوهشی در دو دقیقه — با تأکید بر روششناسی، نه نتیجه. |
| **۳.** [The AI Breakdown](https://youtube.com/@TheAIBreakdown) | تحلیل مقالات جدید در NeurIPS/ICML با نگاهی به ساختار داده و تحریف نتایج. |
| **۴.** [Lex Fridman Podcast (AI Episodes)](https://youtube.com/@lexfridman) | مصاحبههای طولانی با دانشمندان — نه با مهندسان — که دربارهٔ فلسفهٔ هوش صحبت میکنند. |
| **۵.** [AI and Society](https://youtube.com/@AIandSociety) | کانالی از دانشگاه تورین — بدون تبلیغ، بدون تلویزیونی، فقط تحلیل اجتماعی. |
| **۶.** [Ben Eater](https://youtube.com/@beneater) | ساخت مدلهای سادهٔ شبکه عصبی با مدارهای فیزیکی — نشان میدهد چقدر پیچیده است یک «هوش» کوچک. |
| **۷.** [The Signal and the Noise](https://youtube.com/@SignalNoise) | تحلیل ریسک و عدم قطعیت در مدلهای پیشبینی — کاربرد مستقیم در مدیریت و بانکداری. |
> **نتیجهگیری**: اگر در یک ویدئو، کلمهٔ «آینده» بیش از ۵ بار تکرار شد — بسته را ببندید. این ویدئو، از هوش مصنوعی نوشته شده است.
**۴. هفت فیلم — نه تلویزیونی، نه هیجانی، فقط تحلیلی**
| فیلم | دلیل انتخاب |
|——|————–|
| **۱.** *Ex Machina* (2014) | نه یک فیلم دربارهٔ هوش مصنوعی، بلکه دربارهٔ **چگونگی فریب انسان توسط اشکال انسانی**. |
| **۲.** *The Social Dilemma* (2020) | تحلیل دقیق از چگونگی تبدیل رفتار انسان به داده — بدون تبلیغات شرکتی. |
| **۳.** *Her* (2013) | یک فیلم دربارهٔ تنهایی انسان در جهانی که هوش مصنوعی احساسات را تقلید میکند — نه تولید میکند. |
| **۴.** *The Imitation Game* (2014) | نه دربارهٔ هوش، بلکه دربارهٔ **چگونگی سرکوب نوآوری توسط ساختارهای قدرت**. |
| **۵.** *Snowden* (2016) | نمادی از ارتباط بین جمعآوری داده، هوش مصنوعی و نظارت — بدون اغراق. |
| **۶.** *Minority Report* (2002) | نقد بسیار دقیق از «پیشبینی رفتار» — نشان میدهد چرا پیشبینی از آینده، همیشه نابودگر آزادی است. |
| **۷.** *The Truth About AI* (2023) — مستند مستقل از دانشگاه تورین | تنها فیلمی که تمام مصاحبهها با پژوهشگران غیرتجاری و اروپایی انجام شده است. |
> **نتیجهگیری**: فیلمهایی که هوش مصنوعی را «هوشمند» نشان میدهند، در واقع تبلیغاتی برای سرمایهگذاری هستند — نه آموزش.
**۵. هفت سریال هالیوودی — بدون هیجان، بدون اکشن، فقط ساختار**
| سریال | دلیل انتخاب |
|——|————–|
| **۱.** *Black Mirror* — فصل ۳، قسمت ۱ (*Nosedive*) | تحلیل اجتماعی از امتیازدهی اجتماعی — پایهٔ اخلاقی تمام سیستمهای هوش مصنوعی امروز. |
| **۲.** *Westworld* — فصل ۱ و ۲ | نه دربارهٔ رباتهای هوشمند، بلکه دربارهٔ **چگونگی تبدیل انسان به ابزار خودش**. |
| **۳.** *Mr. Robot* — فصل ۱ | نمادی از تقابل بین نوآوری فناوری و ساختارهای قدرت — بدون هیچ تبلیغاتی از هوش مصنوعی. |
| **۴.** *The Good Place* — فصل ۴ | تحلیل فلسفی از اخلاق — بدون هوش مصنوعی، اما مفاهیم آن را به شکلی نابههنر تحلیل میکند. |
| **۵.** *Severance* (2022) | نمادی از تقسیم هویت انسانی در جهانی که داده، هویت را تعیین میکند — نه انسان. |
| **۶.** *House of Cards* — فصل ۵ | نشان میدهد چگونه داده و الگوریتم، انتخابات را کنترل میکنند — بدون اشاره به هوش مصنوعی. |
| **۷.** *The Newsroom* — فصل ۲، قسمت ۱۰ | تحلیل روانشناسی زرد در رسانهها — چگونه ادعاهاي هوش مصنوعی برای جلب توجه ساخته میشوند. |
> **نتیجهگیری**: سریالهایی که هوش مصنوعی را «قدرتمند» نشان میدهند، در واقع میخواهند شما را از قدرت انسانی دور کنند.
✅ **نتیجهگیری نهایی فصل ۱۵ — دکتر مازیار میرمدرس**
> «منابع اصیل، هرگز نمیخواهند شما را تحت تأثیر قرار دهند. آنها میخواهند شما را **سوال کنند**.
>
> اگر یک کتاب، سایت، یا فیلم، بیش از ۱۰ بار کلمهٔ «انقلابی»، «بیسابقه» یا «آینده» را تکرار کرده است — آن را نادیده بگیرید.
>
> هوش مصنوعی، مانند هر ابزار دیگری، نه خوب است و نه بد — بلکه **بازتابی از انسانیت است**.
>
> پژوهشگر باید به جای تماشای بازتاب، به جستجوی منبع بپردازد.
>
> این فهرست، نه یک راهنمای خرید، بلکه یک **نقشهٔ فرار از افسانه** است.»
🔍 **نکتهٔ اخلاقی پایانی**
هرگز از این فهرست برای «تبلیغ» یا «توصیه به دانشجویان» استفاده نکنید.
**فقط به آنها بگویید**:
> «برو، یک مقالهٔ قدیمی در arXiv بخوان.
> یک فیلم بدون تبلیغات ببین.
> یک کتاب را که هیچکس نمیخواند، انتخاب کن.
> و ببین چه چیزی را خودت میفهمی — نه هوش مصنوعی.»


