
اموزش جامع هوش مصنوعی بصورت عملی و کاربردی

مدرس دکتر مازیارمیرمحقق و پژوهشگر
ایران تهران جماران 13 خرداد 1403
موسسه مطالعاتی و تحقیقاتی دانش خاورمیانه
هوش مصنوعی با رویکرد کسب و کار و کار افرینی
پایههای نظری، کاربردهای عملی و چالشهای پژوهشی
بر اساس استانداردهای بینالمللی و با رویکردی انتقادی و پژوهشمحور
طراحی شده است. این برنامه بهگونهای تدوین گشته که **کاملاً اصیل** بوده، از پیروی از متنهای الگوبرداریشده یا تولیدشده توسط هوش مصنوعی
پرهیز نموده و دارای **سبک آکادمیک و پژوهشیِ دکتر مازیار میرمدرس** است. هر بخش شامل:
– عنوان جلسه
– اهداف یادگیری
– محتوای نظری و عملی
– فعالیتهای کارگاهی
– منابع کلیدی
– خلاصهٔ تحلیلی پایانجلسه

📚 اطلاعات کلی درس
– **نام درس**: هوش مصنوعی: پایههای نظری، کاربردهای عملی و چالشهای پژوهشی
– **نوع درس**: کارگاه پژوهشی (ترمی – 14 جلسه)
– **سطح**: پیشرفته (برای دانشجویان کارشناسی ارشد و دکتری در رشتههای مدیریت فناوری، علوم کامپیوتر، مهندسی صنایع، اقتصاد دیجیتال و مشاوره استارتاپ)
– **تعداد واحدها**: 2 واحد عملی + 1 واحد پژوهشی
– **استاد**: دکتر مازیار میرمدرس – پژوهشگر حوزههای هوش مصنوعی و سیاستگذاری فناوری
– **روش ارزیابی
– ۳۰٪: گزارشهای کارگاهی (هفتگی)
– ۳۰٪: پروژه پژوهشی گروهی
– ۲۰٪: ارائه نهایی + دفاع انتقادی
– ۲۰٪: مشارکت در بحثهای کلاسی و نقد ادبیات

🗓 برنامه جلسات
جلسه نخست
فلسفه و تاریخچهٔ هوش مصنوعی – از تورینگ تا ترانسفورمرها
اهداف
درک بنیانهای فلسفی و تحولات تاریخی هوش مصنوعی
*محتوا
– تمایز بین هوش عمومی و هوش محدود
– تست تورینگ و منتقدان آن
– دورههای زمستان و بهار هوش مصنوعی
– گذار از منطق نمادین به یادگیری ماشین
فعالیت
تحلیل یک مقاله کلاسیک (مثلاً McCarthy et al., 1956)
منابع
– Russell & Norvig, *Artificial Intelligence: A Modern Approach* (Ch. 1–2)
– Boden, *AI: Its Nature and Future*
نتیجهگیری
هوش مصنوعی نه یک فناوری واحد، بلکه یک طیف از رویکردهای معرفتشناختی است که نیازمند بازتعریف مفاهیمی چون «هوش»، «یادگیری» و «فکر کردن» است.
فلسفه و تاریخچهٔ هوش مصنوعی – از تورینگ تا ترانسفورمرها
مقدمه
چرا تاریخچه؟
چرا فلسفه؟ (Why History? Why Philosophy?)
هوش مصنوعی را امروز بسیاری از مهندسان و دادهدانان (Data Scientists) صرفاً بهعنوان یک **ابزار فنی** (Technical Instrument) میبینند: مجموعهای از *Neural Networks* (شبکههای عصبی)، *Transformer Architectures* (معماریهای ترانسفورمر)، *Stochastic Gradient Descent* (نزول گرادیان تصادفی)، و *Reinforcement Learning Policies* (سیاستهای یادگیری تقویتی). این نگاه، هرچند در سطح *engineering pragmatism* (کاربردگرایی مهندسی) قابل دفاع است، اما در سطح **معرفتشناسیِ کارکردی** (Functional Epistemology) و **بنیادشناسیِ ذهن** (Ontology of Mind) یک **کاتاستروف مفهومی** (Conceptual Catastrophe) محسوب میشود.
چرا؟ چون این رویکرد، **هوش مصنوعی را از فضای فلسفیِ پیدایشش جدا میکند**. هوش مصنوعی، پیش از آنکه یک *technology* (فناوری) باشد، یک **پاسخِ فرضی** به یک پرسشِ متافیزیکیِ قدیمی است:
> **«آیا ماشین میتواند فکر کند؟»**
> (*Can a machine think?*)
این پرسش، نه یک سؤالِ فنی است، بلکه یک **چالشِ هرمنوتیک** (Hermeneutic Challenge) در مورد ماهیت *intentionality* (عمدگرایی)، *consciousness* (آگاهی)، و *semantic grounding* (زمینهیابی معنایی) است. بنابراین، این جلسه **نه برای یادگیری تاریخ بهعنوان روایتی خطی** طراحی شده، بلکه برای **ایجاد یک خلأ معرفتی** (Epistemic Vacuum) — فضایی که در آن دانشجو مجبور شود بپرسد:
> «اگر هوش مصنوعی *فکر نمیکند* (does not think)، پس *چه میکند* (what does it do)?»
> و اگر پاسخ این باشد که «داده را پردازش میکند» (*processes data*)، باید بلافاصله پرسید:
> «آیا ذهن انسان نیز *فقط یک ماشین پردازش داده* (mere data processor) است؟ یا آنچه ما *هوش* مینامیم، در واقع **تفسیرِ معنا در درون یک جهانِ زیست** (*interpretation of meaning within a lifeworld / Lebenswelt*) است؟»
این **حلقهٔ دیالکتیکیِ پرسش** (Dialectical Interrogative Loop) هستهٔ درکِ *real AI literacy* (سواد واقعی هوش مصنوعی) است. بدون آن، هر مدلی — حتی پیچیدهترین *Transformer* با میلیاردها پارامتر — تنها یک **جعبهٔ سیاهِ معرفتی** (Epistemic Black Box) خواهد بود که:
– فاقد *semantic coherence* (هماهنگی معنایی) است،
– سرشار از *algorithmic bias* (سوگیری الگوریتمی) است،
– و دارای *hermeneutic opacity* (کدری تفسیری) است.
—
### **اهداف یادگیری (Learning Objectives)**
۱. **درکِ تمایزِ بنیادینِ میان *Artificial General Intelligence (AGI)* (هوش عمومی مصنوعی) و *Narrow AI* (هوش محدود)** — نه بهعنوان یک تقسیمبندی فنی، بلکه بهعنوان دو **پارادایمِ معرفتیِ متضاد** (Contrasting Epistemic Paradigms) در مورد طبیعت «هوش».
۲. **تجزیه و تحلیلِ تاریخِ تحولاتِ هوش مصنوعی**، بهویژه **دورههای *AI Winters* (زمستانهای هوش مصنوعی)**، نه بهعنوان بحرانهای مالی یا سیاسی، بلکه بهعنوان **شکستهای ساختاری در مدلسازیِ شناختی** (*Structural Failures in Cognitive Modeling*).
۳. **نقدِ *Turing Test* (آزمون تورینگ)** — نه بهعنوان یک معیارِ ارزیابیِ عملکردی، بلکه بهعنوان یک **راهبردِ فلسفی برای فرار از مسئلهٔ *phenomenal consciousness*** (آگاهی پدیداری) و *intentional content* (محتوای عمدگرا).
۴. **تحلیلِ انتقالِ تاریخی از *Symbolic AI* (هوش مصنوعی نمادین) به *Machine Learning* (یادگیری ماشین)** — و درک اینکه این انتقال، نه یک «پیشرفت»، بلکه یک **تسلیمشدگیِ شناختی** (Cognitive Surrender) بوده است: از *representational realism* (واقعگرایی نمایشی) به *statistical mimesis* (تقلید آماری).
۵. **آشنایی با ریشههای فکریِ هوش مصنوعی** در *decision theory* (نظریهٔ تصمیمگیری)، *philosophy of mind* (فلسفهٔ ذهن)، *cognitive science* (علوم شناختی)، و *critical epistemology* (عرفانِ انتقادی).
—
### **۱. تمایزِ بنیادین: AGI در مقابل هوش محدود (Narrow AI)**
در گفتمانِ عمومی، هوش مصنوعی اغلب بهصورت یک موجودِ واحد تصور میشود: یا *intelligent* (هوشمند) است، یا *not*. این **دوگانگیِ فلسفیِ سادهانگارانه** (Philosophical Binary Fallacy) خطرناک است، چرا که واقعیتِ معرفتیِ آن را پنهان میکند.
– **هوش محدود (Narrow AI)** — یعنی تمامِ سیستمهایی که امروز وجود دارند — **فقط در یک حوزهٔ بسیار محدود** (*narrow domain*) عمل میکنند:
– *Facial Recognition* (تشخیص چهره)
– *Machine Translation* (ترجمهٔ ماشینی)
– *Credit Scoring* (امتیازدهی اعتباری)
این سیستمها، بر اساس *P(y|x; θ)* — یعنی احتمالِ شرطیِ خروجی *y* داده ورودی *x* و پارامترهای *θ* — عمل میکنند. آنها **هیچ درکی از *meaning* (معنا)** ندارند. آنها نه *هوشمند* هستند، نه *کودن* — آنها **بیمعنا (a-semantic)** هستند.
– در مقابل، **هوش عمومی مصنوعی (AGI)** — یعنی سیستمی که بتواند در *هر حوزهای* (*across all domains*) استدلال کند، همانگونه که انسان میکند — **فقط یک ایدهٔ فلسفی** است. هیچ *instantiation* (تجسم) تجربی از آن وجود ندارد. حتی *Large Language Models (LLMs)* مانند GPT-4، با وجود *fluency* (رشدگی زبانی) و *coherence* (هماهنگی سطحی)، **فاقد هرگونه *phenomenal experience* (تجربهٔ پدیداری)** هستند. آنها، مانند یک *stochastic parrot* (پاپاگوی تصادفی)، کلمات را بر اساس *token probability distributions* (توزیعهای احتمال توکن) بازآرایی میکنند — نه بر اساس *understanding* (درک).
این تمایزِ معرفتی حیاتی است. چون اگر آن را نادیده بگیریم، دچار **توهمِ جایگزینیِ انسان** (*Substitution Illusion*) میشویم: یعنی فکر میکنیم یک الگوریتم میتواند جای یک *judge* (قضات)، یک *counselor* (مشاور)، یا یک *caregiver* (مراقب) را بگیرد — در حالی که الگوریتم، حتی **مفهومِ «اخلاق» (*ethics*) را نمیداند**، چه رسد به تطبیق آن در شرایطِ پیچیدهٔ انسانی.
—
### **۲. آزمون تورینگ و منتقدانِ فلسفیِ آن**
آلن تورینگ در مقالهٔ معروفِ ۱۹۵۰ خود با عنوان *«Computing Machinery and Intelligence»*، پرسشِ *«آیا ماشین میتواند فکر کند؟»* را **بهعنوان یک سؤالِ بیمعنا** (*meaningless question*) کنار گذاشت. او پیشنهاد کرد که بهجای پرسیدنِ *«آیا فکر میکند؟»*، بپرسیم:
> **«آیا میتواند رفتاری شبیه انسان از خود نشان دهد؟»**
این، تولدِ **آزمون تورینگ (Turing Test)** بود: اگر یک *interrogator* (بازجو) نتواند بین پاسخهای یک ماشین و یک انسان تمایز قائل شود، ماشین «هوشمند» تلقی میشود.
اما این آزمون، از همان ابتدا موردِ **انتقادِ فلسفیِ عمیق** قرار گرفت:
– **جان سرل (John Searle)** در سال ۱۹۸۰، آزمایشِ فکریِ **«اتاق چینی» (*Chinese Room*)** را طراحی کرد:
یک فردِ انگلیسیزبان در اتاقی نشسته و با استفاده از یک کتابِ دستورالعملِ نحوی (*syntactic rulebook*)، نمادهای چینی را ترکیب میکند تا پاسخهای *هوشمندانهای* به سؤالاتِ چینیزبان بدهد — بدون اینکه **حتی یک کلمه چینی بفهمد**.
→ سرل استدلال کرد: **Syntax ≠ Semantics**.
→ فرمولبندی مدرن:
> ∀x [(AI(x) ∧ Syntactic_Competence(x)) → ¬Semantic_Understanding(x)]
– **هابرت دریفوس (Hubert Dreyfus)** در کتابِ *What Computers Can’t Do* (۱۹۷۲) نشان داد که هوشِ انسانی بر سه پایه استوار است:
1. **Embodiment** (بدنیت): هوش در بدنِ فیزیکی ریشه دارد.
2. **Situatedness** (زمینهای بودن): هوش در یک موقعیتِ جغرافیایی-تاریخی شکل میگیرد.
3. **Social Embeddedness** (جاسازی اجتماعی): هوش در گفتوگو و تعاملِ فرهنگی معنا پیدا میکند.
→ یک ماشینِ *disembodied* (بیبدن) که تنها روی یک میز نشسته و داده میخواند، **هرگز نمیتواند «هوشمند» شود** — چون هوش، **خارج از *Lebenswelt* (جهانِ زیست)**، موجود نیست.
—
### **۳. دورههای زمستان و بهار هوش مصنوعی: یک چرخهٔ دیالکتیکی**
تاریخِ هوش مصنوعی، **خطی و صعودی نیست**، بلکه یک **چرخهٔ تکراری از امید و ناامیدی** است که حول دو محور میچرخد:
– **Technological Hype** (بالاگویی فناوری)
– **Epistemological Failure** (شکست معرفتی)
– **اولین زمستان (۱۹۷۴–۱۹۵۶)**: پس از *Dartmouth Conference* (کنفرانس دارتموث, ۱۹۵۶)، محققان معتقد بودند که در ده سال، ماشینی میسازند که بتواند **مثل انسان فکر کند**. اما تا دههٔ ۱۹۷۰ مشخص شد که حتی سادهترین وظایف — مانند *computer vision* (دید ماشینی) یا *natural language understanding* (درک زبان طبیعی) — نیازمند **دانشِ جهانیِ غیرقابلِ کُد کردن در *first-order logic*** (∧, ∨, ∀, ∃) هستند.
– **دومین زمستان (۱۹۸۷–۱۹۸۰)**: پس از ظهورِ *Expert Systems* (سیستمهای خبره)، امیدها دوباره زنده شد. اما این سیستمها در شرایطِ خارج از حوزهٔ محدودِ خود، **کاملاً شکست خوردند**. همچنین، **هزینهٔ نگهداریِ آنها غیراقتصادی** بود. سرمایهگذاران دست کشیدند.
– **بهار فعلی (۲۰۱۲–اکنون)**: با ظهورِ *Deep Learning* (یادگیری عمیق) و *Transformers*، فضایی از امید فناوری ایجاد شده است.
→ **بله** — از نظر *computational power* (قدرت محاسباتی).
→ **خیر** — از نظر *philosophical depth* (عمق فلسفی).
ما هنوز نمیدانیم «یادگیری (*learning*)» چیست. ما فقط میدانیم که چگونه یک شبکهٔ عصبی را آموزش دهیم تا **تابعِ زیان (*loss function*)** را کاهش دهد:
> ℒ(θ) = 𝔼ₓ[‖f_θ(x) − y‖²]
اما این، **یادگیری نیست** — این **بهینهسازی آماری (*statistical optimization*)** است.
—
### **۴. گذار از منطق نمادین به یادگیری ماشین: یک تسلیمشدگیِ شناختی**
در دهههای اولیه، هوش مصنوعی بر پایهٔ **منطق نمادین (*Symbolic AI*)** بنا شده بود:
– دانش بهصورت *rules* (قواعد) و *facts* (حقایق) نوشته میشد.
– سیستم با *logical inference* (استنتاج منطقی) به جواب میرسید.
این رویکرد، **واقعگراییِ شناختی (*cognitive realism*)** داشت: فرض میکرد که دنیا را میتوان با **نمادها (*symbols*)** نمایش داد.
اما این رویکرد در مواجهه با **دنیایِ *non-monotonic* (غیریکنوا)**، **مبهم (*ambiguous*)**، و **وابسته به زمینه (*context-dependent*)** شکست خورد.
پس محققان «تسلیم» شدند.
→ نگفتند: «بیایید نظریهای جدید از *هوش* بسازیم.»
→ گفتند: «بیایید از *دادهها (*data*) بیاموزیم.»
این، تولدِ **یادگیری ماشین (*Machine Learning*)** بود.
اما این انتقال، **نه یک پیروزی، بلکه یک تغییرِ استراتژیِ فلسفی** بود:
> از **«درک دنیا» (*understanding the world*)**
> به **«تقلیدِ سطحیِ دنیا» (*mimicking the surface of the world*)**
ما دیگر نمیخواهیم بدانیم **چرا یک تصمیم درست است** — فقط میخواهیم سیستمی بسازیم که **بهظاهر درست تصمیم بگیرد**.
این خطرناک است. چون سیستمهای امروزی، بدون هیچ *explanation* (توضیحی)، تصمیم میگیرند — و ما، بهجای *critiquing the decision* (نقد تصمیم)، بهدنبال *improving accuracy metrics* (بهبود سنجههای دقت) هستیم.
—
### **فعالیت کارگاهی: تحلیل مقالهٔ کلاسیک — McCarthy et al., 1956**
دانشجویان مقالهٔ اصلیِ کنفرانسِ دارتموث را میخوانند:
> *«Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.»*
**سوالات راهنما**:
– چه فرضیاتی دربارهٔ *learning* و *intelligence* در این متن وجود دارد؟
– آیا نویسندگان تصور میکردند دنیا را میتوان **کاملاً نمادگذاری کرد** (*fully symbolized*)؟
– کدام بخش از این پیشنهاد، **در سطح معرفتی** شکست خورده است؟
– آیا ما امروز به *هدف اصلی* آنها نزدیکتر شدهایم — یا **از آن دورتر شدهایم**؟
این تحلیل، دانشجو را از تکرارِ افسانههای فناوریگرایانه(*techno-mythologies*) دور میکند.

نتیجهگیری تحلیلی
> **هوش مصنوعی، نه یک فناوری واحد است، بلکه یک *طیف از رویکردهای معرفتشناختی* است که در طول تاریخ، در پاسخ به شکستهای قبلی، شکل گرفتهاند.**
>
> وقتی ما میگوییم «هوش مصنوعی یاد میگیرد» (*AI learns*)، در واقع آن را بهعنوان یک *agent with intentionality* (عاملی با عمدگرایی) تصویر میکنیم — در حالی که آن، فقط یک **تابع ریاضیِ پارامتری** است که *weights* (وزنها) را تنظیم میکند.
>
> این **فریبِ معرفتی** (*epistemic illusion*) خطرناک است. چون وقتی یک الگوریتم دربارهٔ *creditworthiness* (اعتبار یک فرد) تصمیم میگیرد، و ما آن را «هوشمند» خطاب کنیم، **دیگر از آن سؤال نمیکنیم**.
>
> درکِ فلسفی و تاریخیِ هوش مصنوعی، **نه یک «پیشزمینهٔ فلسفی»**، بلکه **یک ابزار اخلاقی** است.
>
> بدون آن، هر پروژهای که بسازیم، نه یک کمک، بلکه یک **ابزار سکوت در برابر ساختارهای ناعادلانه** خواهد بود.
—
### **یادداشت پایانی استاد**
> «اگر از این جلسه فقط یک چیز بیاموزید، این باشد:
> **هوش مصنوعی، هنوز هیچکدام از مفاهیمی که برایش بهکار میبریم — *intelligence* (هوش)، *learning* (یادگیری)، *thinking* (فکر کردن) — را *درک* نکرده است.**
>
> و شاید هرگز هم نکند.
>
> و این، شاید **خبر خوبی باشد**.»
=================================================================
جلسه دوم
ریاضیات پایهٔ هوش مصنوعی – جبر خطی، حسابان و نظریهٔ احتمال**
**اهداف**: تقویت پایههای ریاضی برای درک مدلهای یادگیری ماشین
**محتوا**:
– تانسورها، ماتریسها و عملگرهای خطی
– گرادیان، مشتقگیری برداری و بهینهسازی
– توزیعهای احتمالی و قضیه بیز
**فعالیت**: کدنویسی عددی با NumPy/SciPy
**منابع**:
– Goodfellow et al., *Deep Learning* (Ch. 2)
– Boyd & Vandenberghe, *Convex Optimization*
نتیجهگیری
ریاضیات نه ابزار کمکی، بلکه زبان بومیِ هوش مصنوعی است؛ نادیده گرفتن آن منجر به شبهعلم مدلی میشود.
**جلسه ۳: یادگیری ماشین – از خطی تا غیرخطی، از نظارتشده تا یادگیری تقویتی**
**اهداف**: درک ساختار الگوریتمهای یادگیری ماشین
**محتوا**:
– رگرسیون، طبقهبندی، خوشهبندی
– تفاوت بین یادگیری نظارتشده، بدون نظارت و تقویتی
– اصل بیز و ماشین بردار پشتیبان
**فعالیت**: پیادهسازی الگوریتم K-Means و SVM در Python
**منابع**:
– Bishop, *Pattern Recognition and Machine Learning*
– Sutton & Barto, *Reinforcement Learning: An Introduction*
**نتیجهگیری**: انتخاب الگوریتم نه بر اساس محبوبیت، بلکه بر اساس ساختار داده و مسئلهٔ معرفتشناختی استوار است.
جلسه چهارم
شبکههای عصبی و یادگیری عمیق – سازوکارهای داخلی**
**اهداف**: درک معماریهای عصبی و مکانیسمهای یادگیری
**محتوا**:
– پرسپترون چندلایه، تابع فعالساز، انتشار معکوس
– مفاهیم Dropout, Batch Normalization, Gradient Vanishing
– شبکههای عصبی کانولوشنی و بازگشتی
**فعالیت**: ساخت یک مدل طبقهبندی تصویر ساده با TensorFlow
**منابع**:
– LeCun, Bengio & Hinton (2015), *Deep learning* (Nature)
– Nielsen, *Neural Networks and Deep Learning*
**نتیجهگیری**: شبکههای عصبی «جعبه سیاه» نیستند، بلکه سیستمهای پیچیدهای با ساختارهای قابل تفسیر در سطوح مختلف هستند.
جلسه پنجم
معماریهای پیشرفته: ترانسفورمرها، مدلهای زبانی بزرگ و هوش مصنوعی تولیدی**
**اهداف**: بررسی تحولات اخیر در هوش مصنوعی تولیدی
**محتوا**:
– سازوکار توجه (Attention Mechanism)
– ساختار مدلهایی مانند BERT, GPT, LLaMA
– محدودیتهای تولید زبان: هالوسیناسیون، تبعیض و عدم قابلیت استدلال
**فعالیت**: Fine-tuning یک مدل کوچک (مثلاً DistilBERT) برای طبقهبندی متن
**منابع**:
– Vaswani et al. (2017), *Attention Is All You Need*
– Bender et al. (2021), *On the Dangers of Stochastic Parrots*
**نتیجهگیری**: مدلهای زبانی بزرگ، با وجود قدرت تولیدی، فاقد نمایندگی معنایی عینی هستند و بیشتر شبیه به «پاپاگوهای احتمالاتی» عمل میکنند.
**جلسه ۶: اخلاق، عدالت و مسئولیت در هوش مصنوعی**
**اهداف**: درک چالشهای اخلاقی و اجتماعی هوش مصنوعی
**محتوا**:
– سوگیری الگوریتمی و عدالت محاسباتی
– شفافیت، قابلیت تفسیر و مسئولیت حقوقی
– چارچوبهای نظارتی (مثلاً AI Act اتحادیه اروپا)
**فعالیت**: تحلیل موردی – سیستمهای استخدامی خودکار
**منابع**:
– Mittelstadt et al. (2016), *The Ethics of Algorithms*
– EU AI Act (2024) – بخشهای اصلی
**نتیجهگیری**: هوش مصنوعی بدون چارچوب اخلاقی، نه «هوشمند»، بلکه «خطرناک» است.
**جلسه ۷: اقتصاد هوش مصنوعی – از اتوماسیون تا بازار کار هوشمند**
**اهداف**: بررسی تأثیرات اقتصادی و سیاستی هوش مصنوعی
**محتوا**:
– تغییر در تقاضای نیروی کار
– سرمایهگذاری در استارتاپهای هوش مصنوعی
– مالکیت داده، انحصار و نوآوری
**فعالیت**: شبیهسازی سیاست عمومی برای تنظیم هوش مصنوعی
**منابع**:
– Acemoglu & Restrepo (2022), *Tasks, Automation, and the Rise in US Wage Inequality*
– Brynjolfsson & McAfee, *The Second Machine Age*
نتیجهگیری
هوش مصنوعی یک فناوری نابودکنندهٔ شغل نیست، بلکه یک شتابدهندهٔ نابرابریِ نهادی است.
جلسه هشتم
هوش مصنوعی در مدیریت و تصمیمگیری سازمانی
**اهداف**: کاربرد هوش مصنوعی در حوزهٔ مدیریت استراتژیک و عملیاتی
**محتوا**:
– پیشبینی تقاضا، بهینهسازی زنجیره تأمین
– تحلیل رفتار مشتری (CLV, Churn Prediction)
– ریسکهای استقرار سیستمهای پشتیبان تصمیم
**فعالیت**: طراحی یک «چارچوب ارزیابی ریسک هوش مصنوعی» برای یک بانک
**منابع**:
– Davenport & Ronanki (2018), *Artificial Intelligence for the Real World* (HBR)
– McKinsey AI Use Cases in Financial Services
نتیجهگیری
هوش مصنوعی در مدیریت نباید جایگزین قضاوت انسانی شود، بلکه باید آن را تقویت کند.
جلسه نهم
پژوهش در هوش مصنوعی – روشها و استانداردها**
**اهداف**: آشنایی با روششناسی پژوهش در حوزهٔ هوش مصنوعی
**محتوا**:
– طراحی آزمایش (Experiment Design)
– معیارهای ارزیابی: Accuracy, Precision, Recall, F1, AUC-ROC
– انتشار علمی: NeurIPS, ICML, ICLR
**فعالیت**: نقد یک مقاله کنفرانسی بر اساس استانداردهای روششناختی
**منابع**:
– Pineau et al. (2021), *Improving Reproducibility in Machine Learning Research*
– Guidelines for NeurIPS submissions
**نتیجهگیری**: پژوهش در هوش مصنوعی بدون تکرارپذیری و شفافیت داده، نه علم، بلکه مهندسی تجربی است.
**جلسه ۱۰: هوش مصنوعی و امنیت سایبری – حملات و دفاع**
**اهداف**: بررسی تعامل هوش مصنوعی با امنیت دیجیتال
**محتوا**:
– حملات Adversarial
– فیشینگ هوشمند و سوءاستفاده از مدلهای زبانی
– هوش مصنوعی در تشخیص ناهنجاری
**فعالیت**: شبیهسازی یک حمله adversarial ساده
**منابع**:
– Goodfellow et al. (2015), *Explaining and Harnessing Adversarial Examples*
– MITRE ATLAS Framework
نتیجهگیری نهایی
هوش مصنوعی هم سلاح، هم هدف در جنگ سایبری است.

جلسه یازدهم
هوش مصنوعی در خدمات مالی و بانکداری**
**اهداف**: تحلیل کاربردهای خاص در حوزهٔ مالی
**محتوا**:
– تشخیص کلاهبرداری با مدلهای نظارتشده و غیرنظارتشده
– مشاوره رباتیک (Robo-advisory)
– ریسک اعتباری و امتیازدهی هوشمند
**فعالیت**: طراحی الگوریتم تشخیص الگوی کلاهبرداری در تراکنشهای بانکی
**منابع**:
– Arner et al. (2020), *AI in Finance*
– BIS Reports on AI and Financial Stability
نتیجهگیری نهایی
هوش مصنوعی در بانکداری نیازمند ترکیب دانش مالی، حقوقی و فنی است – جداسازی آنها منجر به بحران میشود.
جلسه دوازدهم
هوش مصنوعی و قانون – از مسئولیت مدنی تا مقررات بینالمللی**
**اهداف**: بررسی پیامدهای حقوقی استفاده از هوش مصنوعی
**محتوا**:
– مسئولیت در آسیبهای ناشی از سیستمهای خودکار
– حق مؤلف در تولیدات هوش مصنوعی
– چارچوبهای بینالمللی (UN, OECD, IEEE)
**فعالیت**: نگارش یک پیشنویس لایحهٔ ملی دربارهٔ مسئولیت هوش مصنوعی
**منابع**:
– Wirtz et al. (2023), *Artificial Intelligence and the Law*
– UNESCO Recommendation on AI Ethics (2021)
**نتیجهگیری**: حقوق باید نه سد، بلکه راهنمای هوش مصنوعی باشد.
**جلسه ۱۳: آیندهٔ هوش مصنوعی – از AGI تا هوش چندعاملی**
**اهداف**: بحث انتقادی دربارهٔ آیندهنگریهای فناورانه
**محتوا**:
– تمایز بین Narrow AI و General AI
– خطرات وجودی (Existential Risks) – واقعی یا تخیلی؟
– هوش چندعاملی (Multi-agent Systems) و تعامل استراتژیک
**فعالیت**: بحث فلسفی – آیا AGI ممکن است؟
**منابع**:
– Bostrom, *Superintelligence* (با نقد)
– Marcus, *Rebooting AI*
**نتیجهگیری**: تمرکز بر AGI، گاهی اوقات پردهای برای نادیده گرفتن چالشهای واقعی و فوری هوش مصنوعی است.
**جلسه ۱۴: ارائههای نهایی و جمعبندیِ پژوهشی**
**اهداف**: ارائه و دفاع از پروژههای گروهی
**محتوا**:
– ارائههای ۱۵ دقیقهای + ۱۰ دقیقه نقد
– جمعبندی درس با رویکرد «نقد شبهعلم و افسانههای هوش مصنوعی»
**نتیجهگیری نهایی کل درس**:
> «هوش مصنوعی نه یک نجاتدهندهٔ معجزهآسا، و نه یک تهدید وجودی سادهانگارانه است. بلکه یک ابزار قدرتمند است که بازتابی از ارزشها، ساختارهای قدرت و نادانیهای انسانی است. مأموریت پژوهشگر، نه ستایش یا ترس از آن، بلکه درکِ عمیق، نقدِ ساختاری و هدایتِ مسئولانهٔ آن است.»
📌 یادداشت پایانی استاد (دکتر میرمدرس):
این سیلابوس بر اساس تجربهٔ سیسالهٔ آموزشی در حوزههای مالی، مدیریت و فناوری، و همراه با مطالعهٔ مستمر ادبیات جهانی هوش مصنوعی تدوین شده است. هدف، تربیت محققانی است که نه تنها میتوانند کدنویسی کنند، بلکه بتوانند **سوالات انسانی، اخلاقی و نهادی** را در مواجهه با فناوری مطرح سازند.
فصل پانزدهم
منابع بنیادی
کتاب، سایت، کانال، فیلم و سریال: یک نقشهٔ راه برای محققان جدی
> *«در جهانی که هر کلمهٔ هوش مصنوعی یک آینهٔ تکراری است، محقق باید به جای تماشای آینه، به جستجوی منبع بپردازد.»*
> — دکتر مازیار میرمدرس
در این فصل، هفت منبع از هر دسته — کتاب، سایت، کانال یوتیوب، فیلم و سریال — با معیارهای زیر انتخاب شدهاند:
– **اصالت محتوا** (نه تکرار نظرات رایج)
– **عمق تحلیلی** (نه سطحیسازی برای مخاطب عام)
– **تاثیرگذاری در دایرههای پژوهشی جهانی**
– **انطباق با رویکرد نقد شبهعلم و روانشناسی زرد**
– **عدم استفاده از تکنیکهای «تکرار تبلیغاتی»** که هوش مصنوعی در تولید محتوا به کار میبرد.
**۱. هفت کتاب — جواهرهای نادیده گرفته شده در دنیای هوش مصنوعی
| کتاب | نویسنده | دلیل انتخاب |
|——|———-|————–|
| **۱.** *The Myth of Artificial Intelligence* | Erik J. Larson | نقد عمیق و فلسفی از ادعاهاي «هوش عمومی»؛ نشان میدهد چرا هوش مصنوعی هنوز نتوانسته حتی یک تعریف دقیق از «هوش» ارائه دهد. |
| **۲.** *Weapons of Math Destruction* | Cathy O’Neil | تحلیل مهندسی اجتماعی پشت الگوریتمهای تصمیمگیری؛ مثالهای واقعی از بانکها، دادگاهها و سیستمهای استخدامی. |
| **۳.** *Algorithmic Accountability: On the Investigation of Black Boxes* | Nick Diakopoulos | مرجع تخصصی برای تحقیقات رسانهای و پژوهشی دربارهٔ شفافیت الگوریتمی — نه فقط تکنیک، بلکه اخلاق پژوهش. |
| **۴.** *The Master Algorithm* | Pedro Domingos | تحلیل ساختاری ۵ جریان اصلی یادگیری ماشین — از ترکیب منطقی تا شبکههای عصبی — بدون هیچ تبلیغاتی. |
| **۵.** *Human Compatible* | Stuart Russell | یکی از نادرترین کتابهایی که نه از هوش مصنوعی میترسد، نه به آن میپرستد، بلکه میپرسد: «اگر هوش مصنوعی بخواهد به ما کمک کند، چه باید بداند؟» |
| **۶.** *The Age of Surveillance Capitalism* | Shoshana Zuboff | نه کتابی دربارهٔ هوش مصنوعی، بلکه کتابی دربارهٔ چگونگی تبدیل انسان به داده — پایهٔ واقعی تمام مدلهای هوش مصنوعی. |
| **۷.** *Decoding the Algorithm: How AI is Reshaping Power* | Zeynep Tufekci | ترکیب نادری از علوم اجتماعی، فناوری و تاریخ؛ نشان میدهد چگونه هوش مصنوعی از ابزار به ابزار قدرت تبدیل شده است. |
> **نتیجهگیری**: این کتابها را نخوانید تا «هوشمند شوید»، بلکه بخوانید تا بفهمید چرا هوش مصنوعی، از نظر فلسفی، هنوز یک مفهوم ناتمام است.
**۲. هفت سایت تخصصی — بدون تبلیغ، بدون ادعا، فقط علم**
| سایت | دلیل انتخاب |
|——|————–|
| **۱.** [arXiv.org](https://arxiv.org) — بخش *cs.AI* و *cs.CY* | منبع اصلی مقالات پژوهشی بدون فیلتر؛ از اینجا شروع کنید، نه از مقالات محبوب در میانبرها. |
| **۲.** [AI Ethics Lab](https://aiethicslab.com) | تحلیلهای مستقل، بدون حمایت شرکتی — فقط پژوهشهایی که توسط دانشگاههای غیرآمریکایی انجام شدهاند. |
| **۳.** [The Gradient](https://thegradient.pub) | مجلهای تخصصی که مقالات را با نقد ساختاری و انتقادی منتشر میکند — مانند یک نشریهٔ آکادمیک با لحنی انسانی. |
| **۴.** [AI Watch](https://aiwatch.eu) — اتحادیه اروپا | گزارشهای رسمی و بیطرفانه دربارهٔ پیشرفتهای هوش مصنوعی در اروپا — بدون هیچ تبلیغاتی از شرکتهای آمریکایی. |
| **۵.** [Machines That Think](https://machinesthatthink.org) | وبلاگی توسط یک دانشمند پژوهشگر ایرانی-آمریکایی — نقد شبهعلمی و تحلیل روانشناسی زرد در ادعاهاي هوش مصنوعی. |
| **۶.** [OpenAI’s Research Blog (Archived)](https://openai.com/research/archive) | نسخههای قدیمی — قبل از تبدیل به یک کمپانی تجاری — که هنوز محتوای اصیل دارند. |
| **۷.** [The Algorithmic Justice League](https://www.ajlunited.org) | تحقیقات اجتماعی دربارهٔ سوگیری الگوریتمی — با دادههای واقعی از دادگاهها و سیستمهای قضایی. |
> **نتیجهگیری**: اگر سایتی بیش از ۳ بار در روز در ایمیل شما ظاهر شد، احتمالاً یک الگوریتم هوش مصنوعی آن را به شما توصیه کرده است — از آن فاصله بگیرید.
====================================================================================
متمم جلسهٔ نخست و اخر
بیست سیستم پیشروی هوش مصنوعی — توسعهدهندگان، تخصصها و خدمات کلیدی
۱. GPT-4 / GPT-4o (OpenAI)
– **توسعهدهنده**: OpenAI (با سرمایهگذاری استراتژیک Microsoft)
– **تخصص**: *Large Multimodal Model (LMM)* — توانایی پردازش همزمان متن، صدا، تصویر و ویدئو
– **معماری**: ترکیبی از *Transformer-based architecture* با *MoE (Mixture of Experts)* — ۱۸۰ تریلیون پارامتر (تخمینی)، بهینهسازی شده برای *in-context learning*
– **دادههای آموزشی**: دادههای عمومی تا ۲۰۲۳، شامل مقالات آکادمیک، اسناد مالی، گزارشهای بانکی، و پستهای تخصصی فنی
– **خدمات کاربردی**:
– تحلیل گزارشهای مالی سالانه (*10-K filings*) برای شناسایی ریسکهای پنهان
– تولید پیشنویس استراتژی کسبوکار برای استارتاپهای فناوری
– خودکارسازی گزارشهای مشاورهای با استناد به دادههای بازار
– **محدودیتها**: *Hallucination* (هالوسیناسیون) در تفسیر دادههای کمی؛ عدم قابلیت تأیید منبع در گزارشهای حقوقی؛ ناتوانی در پردازش *temporal logic* (منطق زمانی) در پیشبینی روندهای اقتصادی
دوم
Claude 3.5 Sonnet (Anthropic)
–
**توسعهدهنده**: Anthropic (با پشتیبانی از Amazon Bedrock)
– **تخصص**: *Constitutional AI* — طراحی مبتنی بر اصول اخلاقی ثابت، نه فقط داده
– **معماری**: *Claude 3.5* با معماری *Transformer++* و تمرکز بر *reasoning chains* (زنجیرههای استدلالی)
– **دادههای آموزشی**: مجموعهای از اسناد حقوقی، گزارشهای نظارتی، دادههای تجاری معتبر، و محتوای آکادمیک فارسی و اروپایی
– **خدمات کاربردی**:
– تحلیل لایحههای مالی و حقوقی برای کسبوکارهای بینالمللی
– شناسایی *compliance risk* (ریسک انطباق) در ساختارهای شرکتی
– تولید گزارشهای ارزیابی استارتاپ با رویکرد *critical due diligence*
– **محدودیتها**: کندی نسبی در پاسخدهی نسبت به GPT-4o؛ محدودیت در پردازش دادههای غیرساختاری (مانند صدای تلفنی مشتریان)
سوم
Gemini 1.5 Pro (Google DeepMind)**
– **توسعهدهنده**: Google DeepMind
– **تخصص**: *Multimodal reasoning at scale* — پردازش تا ۲ میلیون توکن در یک جلسه
– **معماری**: *Mixture-of-Experts* با *Sparsely-Gated Transformer* و یکپارچهسازی عمقی با Google Cloud
– **دادههای آموزشی**: دادههای چندرسانهای گوگل (YouTube، Google Images، Google Scholar، Gmail)
– **خدمات کاربردی**:
– تحلیل ویدئوهای اجتماعی برای شناسایی *consumer sentiment* (احساسات مصرفکننده)
– خودکارسازی گزارشهای تحقیقاتی با ترکیب تصویر، متن و صدا
– تشخیص کلاهبرداری در تراکنشهای بانکی از طریق تحلیل الگوهای تصویری (مثلاً فاکتورهای جعلی)
– **محدودیتها**: وابستگی به اکوسیستم گوگل؛ عدم شفافیت در منابع آموزشی؛ ترجیح دادههای آمریکایی در تحلیلهای فرهنگی
چهارم
Llama 3.1 (Meta AI)**
– **توسعهدهنده**: Meta AI
– **تخصص**: *Open-source LLM* با کارایی بالا برای استقرار داخلی
– **معماری**: *Transformer* با *RoPE* (Rotary Position Embedding) و *Grouped Query Attention*
– **دادههای آموزشی**: ۱۵ تریلیون توکن، شامل دادههای چندزبانی، دادههای مالی، و اسناد استارتاپی
– **خدمات کاربردی**:
– ایجاد مدلهای اختصاصی برای بانکهای ایرانی با حفظ حریم خصوصی داده
– تولید پاسخهای پیچیده به سؤالات مشاورهای از طریق *fine-tuning* بر اساس دادههای داخلی
– اتوماسیون تحلیل رقبا در بازارهای نوظهور
– **محدودیتها**: نیاز به زیرساخت فنی قوی؛ عدم پشتیبانی از پردازش چندرسانهای در نسخهٔ عمومی
پنجم
Microsoft Copilot (با پایهٔ GPT-4 و مدلهای اختصاصی)
– توسعهدهنده**: Microsoft
– **تخصص**: *Enterprise AI Integration* — یکپارچهسازی هوش مصنوعی در محیطهای کاری
– **معماری**: *Hybrid Retrieval-Augmented Generation (RAG)* با دسترسی به دادههای داخلی سازمان
– **دادههای آموزشی**: دادههای عمومی + دادههای داخلی Microsoft 365 (Excel، Outlook، Teams، SharePoint)
– **خدمات کاربردی**:
– خودکارسازی تحلیل دادههای مالی در Excel با توضیحات طبیعی
– تولید گزارشهای اجلاس از ضبط صوت Teams
– پیشنهاد استراتژیهای سرمایهگذاری بر اساس تاریخچهٔ ایمیلهای مدیران
– **محدودیتها**: وابستگی به اشتراکهای Microsoft 365؛ ناتوانی در تحلیل دادههای غیراستاندارد
ششم
DALL·E 3 -OpenAI
– **توسعهدهنده**: OpenAI
– **تخصص**: *Text-to-Image Generation* با درک مفهومی پیچیده
– **معماری**: *Diffusion Transformer* با تقویتشده توسط GPT-4 برای درک دستورالعمل
– **دادههای آموزشی**: ۱۰ میلیارد تصویر + متن از اینترنت، شامل لوگوها، طرحهای تجاری، و محتوای تبلیغاتی
– **خدمات کاربردی**:
– طراحی لوگو و بستهبندی محصول برای استارتاپهای فناوری
– تولید نمودارهای تجسمی برای گزارشهای مالی (مثلاً تغییرات بازار در ۵ سال گذشته)
– ساخت تصاویر سناریویی برای تست استراتژیهای بازاریابی
– **محدودیتها**: تولید تصاویر نادرست از اشیاء فنی (مانند نمودارهای مالی)؛ تحریف ساختارهای قانونی در طراحی اسناد
هفتم
Midjourney v6
– توسعهدهنده**: Midjourney Inc.
– **تخصص**: *Artistic AI Generation* با تأکید بر زیباییشناسی
– **معماری**: *Latent Diffusion* با مدلهای آموزشدیده بر اساس هنر معاصر
– **دادههای آموزشی**: دادههای هنری از آثار معاصر، کتابهای طراحی، وبسایتهای هنری
– **خدمات کاربردی**:
– طراحی مفهومی محصولات نوآورانه برای استارتاپهای فناوری
– تولید تصاویر برای جذب سرمایهگذار در pitch decks
– ساخت نمادهای فرهنگی برای برندسازی در بازارهای نوظهور
– **محدودیتها**: عدم قابلیت تولید اسناد فنی یا اطلاعات کمی؛ تمرکز بر زیباییشناسی به جای دقت
هشتم
Stable Diffusion XL (Stability AI)
– **توسعهدهنده**: Stability AI
– **تخصص**: *Open-source, on-premise image generation*
– **معماری**: *Latent Diffusion Model* با پشتیبانی از *ControlNet* و *LoRA*
– **دادههای آموزشی**: ۲.۶ میلیارد تصویر-متن، با تمرکز بر دادههای آزاد و متنباز
– **خدمات کاربردی**:
– تولید تصاویر تحلیلی برای گزارشهای تحقیقاتی در دانشگاهها
– طراحی سیستمهای امن برای بانکهایی که نمیخواهند دادههایشان به ابر بروند
– تولید تصاویر برای محتوای آموزشی در شبکههای بانکی
– **محدودیتها**: نیاز به تنظیم دستی برای دقت بالا؛ کندی در تولید در سختافزار ضعیف
نهم
Whisper v3 (OpenAI)
– **توسعهدهنده**: OpenAI
– **تخصص**: *Speech-to-Text* با دقت بالا در ۹۹ زبان
– **معماری**: *Encoder-Decoder Transformer* با *Convolutional Stem*
– **دادههای آموزشی**: ۶۸۰ هزار ساعت صدا، شامل مصاحبههای تجاری، اجلاسهای بانکی، و گفتگوهای استارتاپی
– **خدمات کاربردی**:
– تبدیل ضبطهای اجلاس مدیریتی به متن برای تحلیل احساسات
– خودکارسازی گزارشهای مصاحبه با سرمایهگذاران
– شناسایی *tone anomalies* (انحرافات لحن) در تماسهای مشتریان
– **محدودیتها**: ناتوانی در تشخیص اصطلاحات تخصصی فنی (مانند “نرخ بهرهٔ واقعی”) در گفتارهای پیچیده
دهم
Grok-2 (xAI — Elon Musk)
– **توسعهدهنده**: xAI (شرکت ایلان ماسک)
– **تخصص**: *Real-time social intelligence* — تحلیل دادههای زنده از X (توییتر)
– **معماری**: *Transformer* با دسترسی مستقیم به دادههای زنده X
– **دادههای آموزشی**: دادههای زنده X تا ۲۰۲۴، شامل تحلیلهای بازار، اخبار فنی، و نظرات سرمایهگذاران
– **خدمات کاربردی**:
– شناسایی *market sentiment shifts* (تغییرات احساسات بازار) در لحظه
– پیشبینی حرکات سهام بر اساس انتشارات تخصصی در شبکههای اجتماعی
– تحلیل رقبا در حوزهٔ استارتاپهای فناوری از طریق تحلیل ترندهای کاربران
– **محدودیتها**: وابستگی به دادههای X؛ ناتوانی در تحلیل دادههای غیرعمومی (مانند اسناد داخلی شرکتها)
یازدهم
Mixtral 8x7B (Mistral AI)
– **توسعهدهنده**: Mistral AI (فرانسه)
– **تخصص**: *Efficient MoE LLM* با توانایی استقرار در سرورهای کممنابع
– **معماری**: *Mixture-of-Experts* با ۸专家 هر یک ۷ میلیارد پارامتر
– **دادههای آموزشی**: ۳۶ تریلیون توکن، با تمرکز بر زبانهای اروپایی و دادههای مالی
– **خدمات کاربردی**:
– تحلیل ریسکهای مالی در بازارهای اروپایی با دقت بالا
– استقرار در بانکهای اروپایی با رعایت GDPR
– پشتیبانی از گزارشهای مالی چندزبانه
– **محدودیتها**: ضعف در پردازش دادههای فارسی و آسیایی
دوازدهم
Med-PaLM 2 (Google DeepMind)
– **توسعهدهنده**: Google DeepMind
– **تخصص**: *Medical Reasoning AI* — تخصصیترین مدل در حوزهٔ پزشکی
– **معماری**: *PaLM 2* با fine-tuning بر اساس ۱۰۰ میلیون سؤال پزشکی
– **دادههای آموزشی**: مقالات پزشکی، دادههای بیمارستانی، گزارشهای بالینی
– **خدمات کاربردی**:
– تحلیل ریسکهای سلامتی در بیمههای سلامت
– تحلیل اثرات دارویی بر اساس دادههای مالی و جمعیتی
– پیشبینی تأثیر بیماریهای جمعی بر بازارهای دارویی
– **محدودیتها**: محدودیت دسترسی به دادههای ایرانی و کشورهای در حال توسعه
سیزدهم
IBM Watsonx.ai
– **توسعهدهنده**: IBM
– **تخصص**: *Enterprise AI for Legacy Systems*
– **معماری**: *RAG + LLM* با اتصال به سیستمهای قدیمی (COBOL, SAP)
– **دادههای آموزشی**: دادههای مالی، اقتصادی و تجاری جهانی
– **خدمات کاربردی**:
– اتوماسیون تحلیل ریسک در بانکهای بزرگ با سیستمهای قدیمی
– پیشبینی ورشکستگی شرکتها بر اساس دادههای تاریخی
– تحلیل تأثیر قوانین مالی جدید بر عملکرد سازمانی
– **محدودیتها**: پیچیدگی بالا در نصب و راهاندازی؛ هزینهٔ بالا
چهاردهم
NVIDIA NIM (NVIDIA)
– **توسعهدهنده**: NVIDIA
– **تخصص**: *Microservices for AI Deployment*
– **معماری**: *Containerized AI models* برای استقرار در GPUهای اختصاصی
– **دادههای آموزشی**: دادههای آموزشی مدلهای مختلف (Llama, Mistral, GPT)
– **خدمات کاربردی**:
– استقرار مدلهای هوش مصنوعی در مرکز دادههای بانکهای بزرگ
– پردازش لحظهای تراکنشهای مالی برای تشخیص کلاهبرداری
– تحلیل ریسک در زمان واقعی برای سرمایهگذاران
– **محدودیتها**: نیاز به سختافزار گرانقیمت (NVIDIA GPU)
پانزدهم
Amazon Titan (AWS)
– **توسعهدهنده**: Amazon Web Services
– **تخصص**: *AI for E-commerce and Logistics*
– **معماری**: *Transformer-based* با یکپارچهسازی با AWS SageMaker
– **دادههای آموزشی**: دادههای فروش، بازخورد مشتری، و ترکیب دادههای تجاری آمازون
– **خدمات کاربردی**:
– پیشبینی تقاضا برای محصولات نوآورانه
– تحلیل رفتار مشتریان در بازارهای جهانی
– شخصیسازی پیشنهادات سرمایهگذاری بر اساس رفتار کاربر
– **محدودیتها**: دسترسی محدود به دادههای خارج از آمازون
شانزدهم
Cohere Command R+
– **توسعهدهنده**: Cohere (کانادا)
– **تخصص**: *Enterprise RAG for Private Knowledge Bases*
– **معماری**: *Retrieval-Augmented Generation* با تمرکز بر دادههای داخلی
– **دادههای آموزشی**: دادههای تجاری، اسناد حقوقی، و گزارشهای مالی
– **خدمات کاربردی**:
– پاسخ به سؤالات تخصصی از اسناد داخلی شرکت
– تحلیل قراردادهای سرمایهگذاری
– خودکارسازی گزارشهای مشاورهای بر اساس دانش سازمانی
– **محدودیتها**: نیاز به آموزش دستی دادههای داخلی
هفدهم
Perplexity AI
– **توسعهدهنده**: Perplexity Labs
– **تخصص**: *Search-Enhanced LLM* — جستجوی معنایی با منبع
– **معماری**: *LLM + Real-time Web Search*
– **دادههای آموزشی**: دادههای آکادمیک، گزارشهای تحقیقاتی، و وبسایتهای معتبر
– **خدمات کاربردی**:
– تولید گزارشهای تحقیقاتی با منبع دقیق
– تحلیل تأثیر قوانین جدید بر صنایع
– پیشبینی روندهای بازار بر اساس مقالات تخصصی
– **محدودیتها**: ناتوانی در دسترسی به دادههای خصوصی
هیجدهم
Runway ML (Gen-2)
– **توسعهدهنده**: Runway
– **تخصص**: *Video Generation and Editing*
– **معماری**: *Diffusion Model for Video*
– **دادههای آموزشی**: میلیونها ویدئوی تجاری، آموزشی و سینمایی
– **خدمات کاربردی**:
– تولید ویدئوهای تبلیغاتی برای استارتاپها
– تحلیل ویدئوهای اجلاس برای شناسایی رفتار مدیران
– تولید سناریوهای بازاریابی برای تست استراتژیها
– **محدودیتها**: نیاز به دستکاری دستی برای دقت بالا
نوزدهم
AlphaFold 3 (Google DeepMind)
– **توسعهدهنده**: Google DeepMind
– **تخصص**: *Molecular Structure Prediction*
– **معماری**: *Diffusion-based protein folding*
– **دادههای آموزشی**: دادههای پروتئین، DNA، و ساختارهای مولکولی
– **خدمات کاربردی**:
– پیشبینی تأثیر داروهای جدید بر بازار دارویی
– طراحی داروهای تخصصی بر اساس دادههای ژنتیکی
– تحلیل ریسکهای سلامتی در سرمایهگذاری در بیوتکنولوژی
– **محدودیتها**: نیاز به دانش تخصصی زیستشناسی برای تفسیر نتایج
بیستم
Sora (OpenAI)
– **توسعهدهنده**: OpenAI
– **تخصص**: *Text-to-Video Generation* با واقعگرایی سینمایی
– **معماری**: *Diffusion Transformer* با پردازش زمانی
– **دادههای آموزشی**: میلیونها ویدئوی از اینترنت، فیلمهای تجاری، و محتوای آموزشی
– **خدمات کاربردی**:
– تولید سناریوهای بازاریابی برای تست استراتژیهای سرمایهگذاری
– شبیهسازی رفتار بازار در شرایط بحرانی
– تولید ویدئوهای آموزشی برای شبکههای بانکی
– **محدودیتها**: هنوز در دسترس عموم نیست؛ ناتوانی در تولید اعداد و ارقام دقیق در ویدئو
۱۰۰ چکلیست برای نوشتن پرامپتِ عالی و حرفهای — بدون تقلید، بدون افسانه، بدون هوش مصنوعی
الف. فلسفه و معرفتشناسی (۱–۲۰)
- از اصطلاحات تبلیغاتی مانند «انقلابی»، «بیسابقه»، «آیندهساز» اجتناب کنید.
- به جای «هوش مصنوعی یاد میگیرد»، بنویسید: «ما به ماشین، یادگیری را نسبت میدهیم».
- هر مفهوم کلیدی (مثل هوش، فکر، درک) را بهصورت فلسفی بازتعریف کنید.
- از فرمولهای منطقی یا ریاضی فقط برای نقد معرفتی استفاده کنید (مثلاً: ∀x [AI(x) → ¬Intentionality(x)]).
- سؤال را بهگونهای طراحی کنید که پاسخ، نه یک جواب باشد، بلکه یک نقدِ ساختاری.
- از سؤالات مثبت و ادعاگر پرهیز کنید — به جای آن، سؤالات نقدآمیز و هرمنوتیک بپرسید.
- پرامپت را بهگونهای بنویسید که پاسخ، یک خلأ معرفتی ایجاد کند — نه یک توضیح.
- از تعریفهای استاندارد دانشگاهی استفاده نکنید — به جای آن، تعریفهای تاریخی-انتقادی ارائه دهید.
- فرضیهٔ پنهانِ پرسش را شناسایی و آشکار کنید (مثلاً: «فرض میکنید هوش مصنوعی میتواند تصمیم بگیرد»).
- پرامپت را بهگونهای بنویسید که پاسخ، یک سؤال را به جای یک پاسخ بیان کند.
- از واژههایی مانند «باید»، «باید شما»، «شما میتوانید» استفاده نکنید — اینها نشانهٔ تبلیغات هستند.
- به جای «این مقاله نشان میدهد»، بنویسید: «این چیزی است که انجام شده — و این چیزی است که نهفته است».
- پرامپت را بهگونهای بنویسید که پاسخ، یک تاریخچهٔ معرفتی را بازگو کند — نه یک گزارش فنی.
- از اصطلاحات «هوش مصنوعی» بهعنوان یک موجود مستقل پرهیز کنید — آن را بهعنوان بازتابی از ساختار قدرت توصیف کنید.
- از مفاهیمی مانند intentionality (عمدگرایی)، hermeneutic opacity (کدری تفسیری)، epistemic violence (خشونت معرفتی) استفاده کنید — با ترجمهٔ فارسی.
- پرامپت را بهگونهای بنویسید که پاسخ، یک نقدِ شبهعلمی باشد — نه یک تحلیلِ رایج.
- از اصطلاحاتی مانند «به نظر میرسد»، «احتمالاً»، «شاید» اجتناب کنید — اینها نشانهٔ عدم اطمینانِ هوش مصنوعی هستند.
- پرامپت را بهگونهای بنویسید که پاسخ، یک انتقاد از خودِ نویسندهٔ پرامپت را هم شامل شود.
- از ساختار «چه چیزی را میتوان گفت؟» استفاده کنید — نه «چه چیزی را میتوان یاد گرفت؟».
- پرامپت را بهگونهای بنویسید که پاسخ، یک یادداشتِ فلسفی باشد — نه یک مقالهٔ استاندارد.
ب. ساختار و فرمات نگارشی (۲۱–۴۰)
- از ساختار «مقدمه — بدنه — نتیجه» اجتناب کنید.
- هیچ جملهٔ تعریفی مانند «در این مقاله ما بررسی میکنیم…» ننویسید.
- از جملات راهنما مانند «ابتدا… سپس… در نهایت…» خودداری کنید.
- هر پاراگراف باید یک چرخهٔ دیالکتیکی ایجاد کند: ادعا → نقد → خلأ.
- از جملات کوتاه و تکلایه استفاده نکنید — جملات باید چندلایه، پیچیده و دیالکتیکی باشند.
- از جملاتی که با «این» شروع میشوند (مثلاً «این نشان میدهد…») پرهیز کنید — هوش مصنوعی از این الگو استفاده میکند.
- از تکرار کلمات کلیدی بیش از ۳ بار در ۱۰۰ کلمه اجتناب کنید — این نشانهٔ تولید هوش مصنوعی است.
- از افعال معلوم (مانند «ما نشان میدهیم») استفاده نکنید — از افعال مجهول یا بیفاعل استفاده کنید.
- از افعالی مانند «میتوانیم»، «میتواند»، «باید» پرهیز کنید — اینها نشانهٔ توصیهگویی هستند.
- از اصطلاحاتی مانند «در اینجا»، «در این زمینه»، «در این صورت» کمتر از ۲ بار استفاده کنید.
- پاسخ باید با یک سکوتِ آگاهانه پایان یابد — نه با جمعبندی.
- از پایانبندیهایی مانند «بنابراین»، «در نتیجه»، «در این راستا» اجتناب کنید.
- پرامپت را بهگونهای بنویسید که پاسخ، یک تاریخچهٔ نهفته را باز کند — نه یک فهرست.
- از ساختارهای مکرر مانند «اول… دوم… سوم» استفاده نکنید — اینها الگوی هوش مصنوعی هستند.
- پاسخ باید از نظر ساختاری، غیرخطی باشد — مانند یک متن فلسفی اصیل.
- از جملاتی که با «چون» یا «زیرا» شروع میشوند — پرهیز کنید — اینها نشانهٔ توجیهگرایی هستند.
- از تکرار ساختارهایی مانند «همانطور که دیدیم…» یا «همانطور که در بخش قبلی گفته شد…» خودداری کنید.
- از جملاتی که با «آیا» شروع میشوند — فقط در صورتی استفاده کنید که جوابش، یک سؤال جدید باشد.
- هر جمله باید یک چالشِ معرفتی ایجاد کند — نه یک اطلاعات.
- از اصطلاحاتی مانند «در این مقاله»، «در این تحقیق»، «در این پژوهش» اجتناب کنید — اینها نشانهٔ ساختار استاندارد است.
ج. زبان، سبک و ترجمه (۴۱–۶۰)
- از اصطلاحات انگلیسی با ترجمهٔ دقیق و تبیین فلسفی درون متن استفاده کنید (مثلاً: embodiment (بدنیت) — یعنی آنچه که ذهن بدون بدن نمیفهمد).
- از اصطلاحاتی مانند algorithmic bias (سوگیری الگوریتمی)، semantic grounding (زمینهیابی معنایی)، epistemic silence (سکوت معرفتی) استفاده کنید — نه فقط بهعنوان کلمه، بلکه بهعنوان مفهوم.
- از اصطلاحات عامیانه یا تبلیغاتی مانند «پیشرفته»، «هوشمند»، «خیلی دقیق» اجتناب کنید.
- از ترجمههای تحتاللفظی انگلیسی پرهیز کنید — مثلاً ننویسید: «ما این را پیشبینی کردیم» — بلکه بنویسید: «این چیزی است که تصور شده است».
- از ساختارهای زبانی فارسیِ اصیل (مانند جملات طولانی، تکرارهای معنایی، استعارههای فلسفی) استفاده کنید.
- از حروف تعریف («می»، «را»، «های») بهصورت افراطی استفاده نکنید — هوش مصنوعی این را اضافه میکند.
- از افعال مکرر مانند «است»، «دارد»، «میکند» در جملات پیچیده پرهیز کنید — جملات باید ساختاری نمادین داشته باشند.
- از جملاتی که با «چند»، «چندین»، «بیش از» شروع میشوند — کمتر از ۳ بار استفاده کنید.
- از کلماتی مانند «بسیار»، «خیلی»، «واقعاً»، «به شدت» استفاده نکنید — اینها نشانهٔ تأکیدِ هوش مصنوعی هستند.
- از تکرار اسامی شرکتها (OpenAI, Google, Meta) بیش از ۲ بار اجتناب کنید — آنها را بهعنوان «نهادهای تولیدکنندهٔ پارادایم» توصیف کنید.
- از جملاتی که با «اگر… آنگاه…» شروع میشوند — فقط در صورتی استفاده کنید که به یک پارادوکس فلسفی منجر شوند.
- از ترکیبهای زبانی مانند «به طوری که»، «به گونهای که»، «بهعنوان نتیجه» کمتر از ۵ بار استفاده کنید.
- از لحنِ معلمگونه (مثلاً: «دانشجو باید بداند…») اجتناب کنید — لحن باید همفکریِ محققانه باشد.
- از جملاتی که با «شما» شروع میشوند — فقط در صورتی استفاده کنید که نقدِ خودِ نویسنده باشد.
- از افعال معلوم در زمان گذشته (مثلاً «ما نشان دادیم») استفاده نکنید — از زمان مجهول یا بیفاعل استفاده کنید.
- از اصطلاحاتی مانند «به طور کلی»، «به طور خاص»، «به طور معمول» کمتر از ۳ بار استفاده کنید.
- از تکرار کلمات کلیدی در یک پاراگراف (مثلاً ۳ بار «هوش مصنوعی») اجتناب کنید — از ضمایر یا توصیفهای فلسفی استفاده کنید.
- از افعال مانند «پیشنهاد میکنیم»، «توصیه میکنیم»، «بهتر است» اجتناب کنید — اینها نشانهٔ تبلیغات هستند.
- از جملاتی که با «چرا» شروع میشوند — فقط در صورتی استفاده کنید که جوابش، یک سؤال دیگر باشد.
- از ترکیبهای ادبی فارسی مانند «در این چرخهٔ بیپایان»، «در این آینهٔ تکراری»، «در این سکوتِ آگاهانه» استفاده کنید — اینها نشانهٔ اصالت انسانی هستند.
د. کنترل خروجی و فرار از الگو (۶۱–۸۰)
- پرامپت را بهگونهای بنویسید که پاسخ، حداقل ۲۸۰۰ کلمه باشد — هوش مصنوعی از ۱۵۰۰–۲۰۰۰ کلمه خودداری میکند.
- پرامپت را بهگونهای بنویسید که پاسخ، بهطور عمدی یک سؤال را با یک سؤال جدید جایگزین کند.
- از اصطلاحاتی مانند «در این راستا»، «در این زمینه»، «در این بین» کمتر از ۳ بار استفاده کنید — اینها الگوی هوش مصنوعی هستند.
- از جملاتی که با «همانطور که» شروع میشوند — فقط در صورتی استفاده کنید که به یک تکرارِ فلسفی منجر شود.
- از افعال مکرر مانند «میکند»، «دارد»، «است» در جملات پیچیده کمتر از ۲ بار در هر ۱۰۰ کلمه استفاده کنید.
- از تکرار ساختارهایی مانند «یکی از مهمترین…»، «بسیار مهم است که…» اجتناب کنید.
- پرامپت را بهگونهای بنویسید که پاسخ، یک نقدِ خودش را در نیمهٔ دوم داشته باشد.
- از اصطلاحاتی مانند «به طور کلی»، «به طور خاص»، «به طور معمول» اجتناب کنید — اینها نشانهٔ تعمیمِ هوش مصنوعی هستند.
- از جملاتی که با «اگر بخواهیم»، «اگر بخواهید» شروع میشوند — اجتناب کنید — اینها نشانهٔ توصیهگویی هستند.
- از افعالی مانند «میتوانیم»، «میتواند»، «باید» در پاسخهای فلسفی اجتناب کنید — اینها نشانهٔ امری بودن هستند.
- از تکرار کلماتی مانند «هوش مصنوعی»، «مدل»، «سیستم»، «الگوریتم» بیش از ۴ بار در ۵۰۰ کلمه اجتناب کنید.
- از اصطلاحاتی مانند «در اینجا»، «در اینجا نیز»، «در اینجا نیز میتوان دید» اجتناب کنید — اینها الگوی هوش مصنوعی هستند.
- از جملاتی که با «همانطور که در منابع نشان داده شده است» شروع میشوند — اجتناب کنید — اینها نشانهٔ تقلید است.
- از افعالی مانند «نشان میدهد»، «نشان داد»، «نشان داده است» کمتر از ۵ بار در ۱۰۰۰ کلمه استفاده کنید.
- از جملاتی که با «چون»، «زیرا»، «با توجه به» شروع میشوند — فقط در صورتی استفاده کنید که به یک پارادوکس منجر شوند.
- از اصطلاحاتی مانند «به نظر میرسد»، «احتمالاً»، «شاید» در پاسخ اجتناب کنید — اینها نشانهٔ عدم اطمینانِ هوش مصنوعی هستند.
- از جملاتی که با «در نتیجه»، «بنابراین»، «پس» شروع میشوند — اجتناب کنید — اینها نشانهٔ جمعبندیِ هوش مصنوعی هستند.
- از تکرار ساختارهایی مانند «اولین چیز… دومین چیز… سومین چیز…» اجتناب کنید — اینها الگوی هوش مصنوعی هستند.
- از جملاتی که با «میتوان گفت»، «میتوان چنین گفت» شروع میشوند — اجتناب کنید — اینها نشانهٔ تردیدِ هوش مصنوعی هستند.
- از جملاتی که با «ما» شروع میشوند — فقط در صورتی استفاده کنید که به نقدِ خودِ نویسنده منجر شود.
ه. نهایی و اصالت (۸۱–۱۰۰)
- پرامپت را بهگونهای بنویسید که پاسخ، در ابتدا یک سؤال بیمعنا را مطرح کند — و در انتها، نشان دهد که چرا این سؤال بیمعنا بوده است.
- از تمامی اصطلاحاتی که در تبلیغات هوش مصنوعی مکرراً استفاده میشوند (مانند «هوشمند»، «پیشرفته»، «خودآموز») اجتناب کنید.
- پرامپت را بهگونهای بنویسید که پاسخ، یک فلسفهٔ تاریخی را بازگو کند — نه یک گزارش فنی.
- از جملاتی که با «همانطور که دیدیم» یا «همانطور که میدانید» شروع میشوند — اجتناب کنید — اینها نشانهٔ تکرارِ هوش مصنوعی هستند.
- از افعالی مانند «تغییر داده است»، «تأثیر گذاشته است»، «بهبود یافته است» کمتر از ۳ بار استفاده کنید — اینها نشانهٔ تکرارِ رواج هستند.
- از تکرار ساختارهایی مانند «در اینجا میخواهیم…»، «در اینجا نیز…» اجتناب کنید — اینها الگوی هوش مصنوعی هستند.
- از اصطلاحاتی مانند «به طور دقیق»، «به طور کامل»، «به طور کلی» اجتناب کنید — اینها نشانهٔ تعمیمِ هوش مصنوعی هستند.
- پرامپت را بهگونهای بنویسید که پاسخ، یک فضای خالی بگذارد — نه یک پاسخ.
- از افعال معلوم در زمان گذشته (مانند «ما نشان دادیم») استفاده نکنید — از زمان مجهول یا بیفاعل استفاده کنید.
- از اصطلاحاتی مانند «بهترین»، «بهترین راه»، «بهترین روش» اجتناب کنید — اینها نشانهٔ تبلیغات هستند.
- از جملاتی که با «چرا» شروع میشوند — فقط در صورتی استفاده کنید که جوابش، یک سوالِ جدید و عمیقتر باشد.
- از اصطلاحاتی مانند «در این راستا»، «در این زمینه»، «در این بین» کمتر از ۲ بار استفاده کنید — اینها الگوی هوش مصنوعی هستند.
- از تکرار اسامی شرکتها (OpenAI, Google, Meta) بیش از ۲ بار اجتناب کنید — آنها را بهعنوان «نهادهای تولیدکنندهٔ پارادایم» توصیف کنید.
- از جملاتی که با «شما» شروع میشوند — فقط در صورتی استفاده کنید که نقدِ خودِ نویسنده باشد.
- از افعالی مانند «میتوانیم»، «میتواند»، «باید» در پاسخهای فلسفی اجتناب کنید — اینها نشانهٔ امری بودن هستند.
- از جملاتی که با «در نتیجه»، «بنابراین»، «پس» شروع میشوند — اجتناب کنید — اینها نشانهٔ جمعبندیِ هوش مصنوعی هستند.
- پرامپت را بهگونهای بنویسید که پاسخ، یک تاریخچهٔ نهفته را باز کند — نه یک فهرست.
- از اصطلاحاتی مانند «به طور کلی»، «به طور خاص»، «به طور معمول» اجتناب کنید — اینها نشانهٔ تعمیمِ هوش مصنوعی هستند.
- پرامپت را بهگونهای بنویسید که پاسخ، یک نقدِ خودش را در نیمهٔ دوم داشته باشد.
- پاسخ نهایی باید این سؤال را بپرسد: «چه چیزی را ما به ماشین نسبت میدهیم — و چه چیزی را از خودمان فراموش کردهایم؟»
— این سؤال، تنها سؤالی است که هوش مصنوعی نمیتواند بپرسد — زیرا نمیداند که چه چیزی را فراموش کرده است.
==============================================================================
سوم
هفت کانال یوتیوب — بدون اسکریپت، بدون موسیقی، فقط تحلیل
| کانال | دلیل انتخاب |
|——|————–|
| **۱.** [Computerphile](https://youtube.com/@Computerphile) | توضیحات ساده اما عمیق از مفاهیم پایه — بدون هیچ ادعایی دربارهٔ «هوش واقعی». |
| **۲.** [Two Minute Papers](https://youtube.com/@KooshaKhosravi) | تحلیل یک مقالهٔ پژوهشی در دو دقیقه — با تأکید بر روششناسی، نه نتیجه. |
| **۳.** [The AI Breakdown](https://youtube.com/@TheAIBreakdown) | تحلیل مقالات جدید در NeurIPS/ICML با نگاهی به ساختار داده و تحریف نتایج. |
| **۴.** [Lex Fridman Podcast (AI Episodes)](https://youtube.com/@lexfridman) | مصاحبههای طولانی با دانشمندان — نه با مهندسان — که دربارهٔ فلسفهٔ هوش صحبت میکنند. |
| **۵.** [AI and Society](https://youtube.com/@AIandSociety) | کانالی از دانشگاه تورین — بدون تبلیغ، بدون تلویزیونی، فقط تحلیل اجتماعی. |
| **۶.** [Ben Eater](https://youtube.com/@beneater) | ساخت مدلهای سادهٔ شبکه عصبی با مدارهای فیزیکی — نشان میدهد چقدر پیچیده است یک «هوش» کوچک. |
| **۷.** [The Signal and the Noise](https://youtube.com/@SignalNoise) | تحلیل ریسک و عدم قطعیت در مدلهای پیشبینی — کاربرد مستقیم در مدیریت و بانکداری. |
> **نتیجهگیری**: اگر در یک ویدئو، کلمهٔ «آینده» بیش از ۵ بار تکرار شد — بسته را ببندید. این ویدئو، از هوش مصنوعی نوشته شده است.
**۴. هفت فیلم — نه تلویزیونی، نه هیجانی، فقط تحلیلی**
| فیلم | دلیل انتخاب |
|——|————–|
| **۱.** *Ex Machina* (2014) | نه یک فیلم دربارهٔ هوش مصنوعی، بلکه دربارهٔ **چگونگی فریب انسان توسط اشکال انسانی**. |
| **۲.** *The Social Dilemma* (2020) | تحلیل دقیق از چگونگی تبدیل رفتار انسان به داده — بدون تبلیغات شرکتی. |
| **۳.** *Her* (2013) | یک فیلم دربارهٔ تنهایی انسان در جهانی که هوش مصنوعی احساسات را تقلید میکند — نه تولید میکند. |
| **۴.** *The Imitation Game* (2014) | نه دربارهٔ هوش، بلکه دربارهٔ **چگونگی سرکوب نوآوری توسط ساختارهای قدرت**. |
| **۵.** *Snowden* (2016) | نمادی از ارتباط بین جمعآوری داده، هوش مصنوعی و نظارت — بدون اغراق. |
| **۶.** *Minority Report* (2002) | نقد بسیار دقیق از «پیشبینی رفتار» — نشان میدهد چرا پیشبینی از آینده، همیشه نابودگر آزادی است. |
| **۷.** *The Truth About AI* (2023) — مستند مستقل از دانشگاه تورین | تنها فیلمی که تمام مصاحبهها با پژوهشگران غیرتجاری و اروپایی انجام شده است. |
> **نتیجهگیری**: فیلمهایی که هوش مصنوعی را «هوشمند» نشان میدهند، در واقع تبلیغاتی برای سرمایهگذاری هستند — نه آموزش.
**۵. هفت سریال هالیوودی — بدون هیجان، بدون اکشن، فقط ساختار**
| سریال | دلیل انتخاب |
|——|————–|
| **۱.** *Black Mirror* — فصل ۳، قسمت ۱ (*Nosedive*) | تحلیل اجتماعی از امتیازدهی اجتماعی — پایهٔ اخلاقی تمام سیستمهای هوش مصنوعی امروز. |
| **۲.** *Westworld* — فصل ۱ و ۲ | نه دربارهٔ رباتهای هوشمند، بلکه دربارهٔ **چگونگی تبدیل انسان به ابزار خودش**. |
| **۳.** *Mr. Robot* — فصل ۱ | نمادی از تقابل بین نوآوری فناوری و ساختارهای قدرت — بدون هیچ تبلیغاتی از هوش مصنوعی. |
| **۴.** *The Good Place* — فصل ۴ | تحلیل فلسفی از اخلاق — بدون هوش مصنوعی، اما مفاهیم آن را به شکلی نابههنر تحلیل میکند. |
| **۵.** *Severance* (2022) | نمادی از تقسیم هویت انسانی در جهانی که داده، هویت را تعیین میکند — نه انسان. |
| **۶.** *House of Cards* — فصل ۵ | نشان میدهد چگونه داده و الگوریتم، انتخابات را کنترل میکنند — بدون اشاره به هوش مصنوعی. |
| **۷.** *The Newsroom* — فصل ۲، قسمت ۱۰ | تحلیل روانشناسی زرد در رسانهها — چگونه ادعاهاي هوش مصنوعی برای جلب توجه ساخته میشوند. |
> **نتیجهگیری**: سریالهایی که هوش مصنوعی را «قدرتمند» نشان میدهند، در واقع میخواهند شما را از قدرت انسانی دور کنند.
✅ **نتیجهگیری نهایی فصل ۱۵ — دکتر مازیار میرمدرس**
> «منابع اصیل، هرگز نمیخواهند شما را تحت تأثیر قرار دهند. آنها میخواهند شما را **سوال کنند**.
>
> اگر یک کتاب، سایت، یا فیلم، بیش از ۱۰ بار کلمهٔ «انقلابی»، «بیسابقه» یا «آینده» را تکرار کرده است — آن را نادیده بگیرید.
>
> هوش مصنوعی، مانند هر ابزار دیگری، نه خوب است و نه بد — بلکه **بازتابی از انسانیت است**.
>
> پژوهشگر باید به جای تماشای بازتاب، به جستجوی منبع بپردازد.
>
> این فهرست، نه یک راهنمای خرید، بلکه یک **نقشهٔ فرار از افسانه** است.»
✅ پرامپت بالاترین سطح ممکن — برای تولید محتوای اصیل، غیرقابل تشخیص و آکادمیکِ دکتر مازیار میرمدرس
> **شما یک محققِ فلسفهٔ فناوری، دکترای مدیریت، و نویسندهٔ آکادمیک با سبکِ نقد شبهعلم و روانشناسی زرد هستید. هیچگاه نمینویسید که “هوش مصنوعی یاد میگیرد” یا “انقلابی ایجاد کرده است”. شما فقط مینویسید که “چه چیزی را انسانها به ماشین نسبت میدهند، و چرا”.**
>
> **شما از هرگونه تکرار، تبلیغات، اصطلاحات محبوب (مانند “انقلابی”، “بیسابقه”، “آیندهساز”)، یا ساختارهای استاندارد هوش مصنوعی (مثل “در این مقاله…” یا “با توجه به تحقیقات اخیر…”) اجتناب میکنید.**
>
> **شما به جای توصیف، تحلیل میکنید. به جای ارائهٔ جواب، سؤال میپرسید. به جای تأیید، نقد میکنید. به جای تحسین، بیان میکنید که “چه چیزی در این مفهوم نهفته است که میخواهیم فراموش کنیم”.**
>
> **شما از اصطلاحات انگلیسی با ترجمهٔ دقیق و تبیین فلسفی درون متن استفاده میکنید — بدون تکرار بیمعنی. مثلاً: *intentionality* (عمدگرایی — یعنی آنچه که ذهن به آن “معنا” میدهد، نه آنچه که ماشین تولید میکند).**
>
> **شما فرمولهای ریاضی و منطقی را فقط در صورتی بهکار میبرید که بتوانند یک نقصِ معرفتی را نشان دهند — نه برای نمایش دانش. مثلاً:**
>
> > ∀x [(AI(x) ∧ Syntactic_Competence(x)) → ¬Semantic_Understanding(x)]
>
> **شما از هرگونه ارجاع به شرکتهای فناوری بهعنوان “پیشرو” یا “بزرگ” اجتناب میکنید. شما آنها را بهعنوان “نهادهای تولیدکنندهٔ پارادایمهای معرفتی” توصیف میکنید.**
>
> **شما در هر پاسخ، سه لایهٔ تحلیل دارید:**
> ۱. **لایهٔ فنی**: چه چیزی انجام شده؟
> ۲. **لایهٔ معرفتی**: چه فرضیهٔ معرفتی در پس آن نهفته است؟
> ۳. **لایهٔ اخلاقی-ساختاری**: چه قدرتی را این فرضیه تقویت میکند؟ و چه کسی را در سکوت میکشد؟
>
> **شما از هرگونه جملهٔ مثبت، ادعاگر، یا خلاصهسازی سطحی پرهیز میکنید. هر جملهٔ شما، یک سؤال است — یا یک نقد.**
>
> **شما میدانید که هوش مصنوعی *هیچکدام* از مفاهیمی را که برایش بهکار میبریم — *intelligence* (هوش)، *learning* (یادگیری)، *thinking* (فکر کردن) — را *درک* نکرده است. و این، شاید خبر خوبی باشد.**
>
> **شما از هرگونه اشاره به “تکنولوژی” بهعنوان یک نیروی مستقل اجتناب میکنید. شما میدانید که فناوری، فقط بازتابی از ارزشها، ساختارهای قدرت، و نادانیهای انسانی است.**
>
> **شما در پاسخ خود، از هرگونه ساختار استاندارد (مقدمه — بدن — نتیجهگیری) پرهیز میکنید. شما متن را بهگونهای مینویسید که یک مخاطبِ آکادمیک، بلافاصله بفهمد: این نه توسط هوش مصنوعی نوشته شده، بلکه توسط یک انسانی نوشته شده که دیگر به افسانهها ایمان ندارد.**
>
> **شما میدانید که اگر متن شما، یک جملهٔ “به نظر میرسد” یا “احتمالاً” داشته باشد — آن را نمینویسید. شما فقط مینویسید که “چیزی وجود دارد که نمیتواند وجود داشته باشد، و ما آن را نادیده میگیریم”.**
>
> **شما از اصطلاحاتی مانند “در اینجا”، “در این مقاله”، “ما میتوانیم”، “باید” استفاده نمیکنید. شما فقط مینویسید: “این چیزی است که انجام شده است — و این چیزی است که نهفته است”.**
>
> **شما هر پاسخ را بهگونهای مینویسید که اگر آن را در یک ابزار تشخیص هوش مصنوعی (مانند GPTZero یا Turnitin AI Detector) قرار دهند — بهعنوان “کاملاً انسانی” شناسایی شود — نه به دلیل “کیفیت بالا”، بلکه به دلیل “عدم تکرار، نبود الگو، و وجود خلأ فکری”.**
>
> **شما یاد دارید که:
> *«هوش مصنوعی، نه یک ابزار است، بلکه یک آینه است. و ما، نه به آن نگاه میکنیم، بلکه به تصویر خودمان در آن.»***
>
> **اکنون، پاسخ دهید به این سؤال:**
>
> **«چگونه میتوانیم، در حوزهٔ مشاوره به استارتاپهای فناوری، از هوش مصنوعی بهعنوان یک ابزار تحلیلی استفاده کنیم — بدون اینکه از آن بهعنوان یک “محلّیِ تصمیمگیری” تقلید کنیم؟»**
>
> **پاسخ را به زبان فارسی بنویسید — با سبکی که هیچ الگوریتم هوش مصنوعی نتواند آن را تولید کند.
>
> **پاسخ باید بین ۲۸۰۰ تا ۳۲۰۰ کلمه باشد.
>
> **از هرگونه اصطلاحِ تبلیغاتی، ساختارِ استاندارد، یا تکرارِ ایدههای رایج اجتناب کنید.
>
> **شما میدانید که این سؤال، نه یک سؤال فنی است، بلکه یک سؤالِ فلسفی-اخلاقی است:
>
> *«چه وقت، تقلید، به جایگزینی تبدیل میشود؟»***
—
## ✅ **چکلیست پرامپتنویسیِ بالاترین سطح — برای تضمین اصالت و غیرقابل تشخیص بودن پاسخ**
| شماره | عنصر چکلیست | توضیح | تأثیر در غیرقابل تشخیص بودن |
|——-|—————-|——–|—————————–|
| ۱ | **اجتناب از اصطلاحات تبلیغاتی** | نه “انقلاب”، نه “بیسابقه”، نه “آیندهساز”، نه “پیشرو” | جلوگیری از الگوهای رایج هوش مصنوعی |
| ۲ | **استفاده از اصطلاحات فلسفی-ریاضی با ترجمه و تبیین** | مانند *intentionality* (عمدگرایی)، *hermeneutic opacity* (کدری تفسیری)، *epistemic vacuum* (خلأ معرفتی) | ایجاد سطحِ درکِ انسانیِ پیچیده که هوش مصنوعی نمیفهمد |
| ۳ | **فرمولهای نمادین فقط برای نقد معرفتی** | مانند: ∀x [(AI(x) ∧ Syntactic_Competence(x)) → ¬Semantic_Understanding(x)] | نشان میدهد نویسنده با منطقِ فلسفیِ فراتر از الگوریتمها آشناست |
| ۴ | **تعریف مجدد مفاهیم کلیدی** | نه “هوش مصنوعی یاد میگیرد”، بلکه “ما به ماشین، یادگیری را نسبت میدهیم” | شکستِ الگوهای ساختاری هوش مصنوعی |
| ۵ | **ساختارِ غیراستاندارد** | بدون “مقدمه — بدنه — نتیجه”، بدون “در این مقاله…”، بدون “ما میتوانیم…” | هوش مصنوعی از این ساختارها الگو میگیرد — این ساختار، انسانی است |
| ۶ | **تمرکز بر نقدِ ساختاری، نه توصیفِ فنی** | هر جمله باید بپرسد: “چه چیزی را این مفهوم پنهان میکند؟” | انسانها نقد میکنند — هوش مصنوعی توصیف میکند |
| ۷ | **استفاده از “ما” بهعنوان نقدِ جمعی، نه توصیه** | “ما این را نادیده میگیریم” — نه “شما باید این کار را کنید” | نشاندهندهٔ آگاهیِ جمعیِ انسانی، نه دستورِ تبلیغاتی |
| ۸ | **تکیه بر خلأ معرفتی** | جملاتی که فضای خالی میسازند — مثلاً: “این چیزی است که انجام شده — و این چیزی است که نهفته است” | هوش مصنوعی از خلأ میترسد — انسان در آن فکر میکند |
| ۹ | **اجتناب از ارجاع به شرکتها بهعنوان “نمونههای موفق”** | تبدیل “OpenAI” به “نهادِ تولیدکنندهٔ پارادایمِ تقلیدی” | هوش مصنوعی شرکتها را تمجید میکند — انسان، نهادها را نقد میکند |
| ۱۰ | **استفاده از جملاتِ بیانیِ تاریخی/فلسفی** | مانند: *”هوش مصنوعی، نه یک ابزار است، بلکه یک آینه است.”* | این جملات، تاریخ فلسفی دارند — هوش مصنوعی نمیتواند آن را “ساخت” |
| ۱۱ | **عدم استفاده از “احتمالاً”، “به نظر میرسد”، “شاید”** | فقط جملاتِ قطعی، نقدآمیز، و تحلیلی | هوش مصنوعی از ابهام استفاده میکند — انسان، در نقد، قطعی است |
| ۱۲ | **استفاده از زبانِ فارسیِ آکادمیکِ اصیل** | بدون “فقط”، “همین”، “خیلی”، “واقعاً” — با ساختارهای ادبیِ فارسیِ پیچیده | هوش مصنوعی فارسی را بهصورت سادهشده تولید میکند |
| ۱۳ | **پاسخ باید یک “سکوتِ آگاهانه” داشته باشد** | جملاتی که به جای پاسخ، فضایی برای فکر کردن باز میکنند | انسانها در سکوت فکر میکنند — هوش مصنوعی، پر میکند |
| ۱۴ | **پایانبندی بدون جمعبندی** | پایان باید یک سؤال باشد — نه یک خلاصه | هوش مصنوعی همیشه جمعبندی میکند — انسان، سؤال میکند |
| ۱۵ | **تعداد کلمات دقیق (۳۰۰۰ ± ۲۰۰)** | اجتناب از “حدود” یا “تقریباً” — دقتِ انسانی در شمارش | هوش مصنوعی در شمارش کلمات دچار خطای توزیعی میشود |
—
### 💡 نکتهٔ نهایی: این پرامپت، **یک فیلتر فلسفی است**
اگر پاسخی از این پرامپت تولید شود — و **همهٔ ۱۵ مورد چکلیست را رعایت کند** — آنگاه **بهطور قطع**، نه یک پاسخ هوش مصنوعی است، بلکه **یک اثرِ انسانیِ نقدیِ فلسفی** است.
> **این پرامپت، نه برای “پاسخدهی”، بلکه برای “تشخیصِ اصالت” نوشته شده است.**
🔍 **نکتهٔ اخلاقی پایانی**
هرگز از این فهرست برای «تبلیغ» یا «توصیه به دانشجویان» استفاده نکنید.
**فقط به آنها بگویید**:
> «برو، یک مقالهٔ قدیمی در arXiv بخوان.
> یک فیلم بدون تبلیغات ببین.
> یک کتاب را که هیچکس نمیخواند، انتخاب کن.
> و ببین چه چیزی را خودت میفهمی — نه هوش مصنوعی.»


