کتاب «ناخودآگاه الگوریتمی» با هدف نشان دادن نقش روانکاوی در فهم بهتر هوش مصنوعی نوشته شده است. نویسنده در این اثر تلاش میکند سازوکارهای ذهن انسان را با منطق درونی هوش مصنوعی پیوند دهد و نشان دهد چگونه این دو بازتابی از یکدیگرند. بخش بزرگی از کتاب به مفهوم سوگواری در ارتباط با هوش مصنوعی اختصاص دارد و بررسی میکند که ماشینها چگونه در فرآیندهای احساسی و روانی انسان نقش میگیرند و حتی جایگاهی عاطفی پیدا میکنند.
این کتاب هنوز به فارسی ترجمه نشده است. با این حال، ایدههای آن برای خوانندگانی که از پاسخها و رفتارهای غیرمنتظرهی هوش مصنوعی شگفتزده میشوند، جذاب خواهد بود. نویسنده با تکیه بر مفاهیم روانکاوی، بهویژه در سنت فرویدی و لاکانی، رابطهی میان انسان و ماشین را تحلیل میکند. در این نگاه، مرز میان ذهن انسانی و منطق الگوریتمی بهتدریج محو میشود و تجربهای تازه از آگاهی شکل میگیرد.
ریشه شناسی ناخودآگاه
لازم است قبل از بازکردن موضوع ناخودآگاه الگوریتمی، نخست درباره ناخودآگاه در روانکاوی بگوییم:
فروید ناخودآگاه را بخشی از روان میداند که شامل امیال، خاطرات و انگیزههای سرکوبشده است. ردپای آن را در زندگی روزمره مان با رویا و تپق ها میبینیم. گاهی میگوییم چیزی را دوست داریم ولی دلیلش را نمیدانیم یا چیزی باب میل مان نیست آن هم به دلایلی نامشخص. پوساتی این ایده را میبرد روی هوش مصنوعی بررسی کند. او معتقد است که ماشینها هم مثل روان ما فرایند های پنهانی دارند. پوساتی این فرضیه را مطرح میکند که هوش مصنوعی هم دارای فضایی است که نمیتواند به صورت کامل با کنترل برنامهریزان یا کاربران فعالیت کند.
لکان ناخودآگاه را بهعنوان گفتار دیگری [2]تعریف میکند که از طریق زبان و نشانهها عمل میکند. پوساتی این را برای تحلیل تعاملات انسان و هوش مصنوعی به کار میبرد، جایی که الگوریتمها بهعنوان دیگری[3] عمل میکنند و در گفتوگوی اجتماعی با انسانها مشارکت دارند.
پوساتی مفهوم «ناخودآگاه الگوریتمی» را بیان میکند که به ناخودآگاه در تعامل انسان و ماشین اشاره دارد؛ همچونPI[4] که در آن انسانها احساسات و تصورات خود را به سیستمهای هوش مصنوعی فرافکنی میکنند. PI یک موضوع مهم در روانکاوی است و طبق صحبت گلیکمن و شارلوت در ۲۰۲۴ که درباره ارتباط سیستم و هوش مصنوعی بود، همه بیانگر این بود که هوش مصنوعی چگونه روی درک، قضاوت و احساسات انسان ها موثر است.
در تعریف PI میتوان گفت مجموعهای از مراحل را شامل میشود که بر ترتیبهای پایهای استوارند. نخست، فانتزی ناخودآگاه قرار دارد؛ فانتزیای که در آن، فرد بخشی از تصاویر ذهنی خود را بر دیگری میافکند یا در واقع، فرد دیگر را بازنمایی ذهنی میکند.
به بیان دیگر، همانندسازی فرافکنانه از سه بخش تشکیل شده است: یک رویداد روانشناختی، حس همزمانی، و وابستگی متقابل. اگر این اصطلاح را بهمثابه فرایند در نظر بگیریم، در ابتدا فانتزیای وجود دارد که طی آن فرد بخشی از خود را به دیگری فرافکنی میکند. سپس، آن بخش فرافکنیشده، دیگری را از درون اشغال میکند. در تعامل بینفردی، فشاری روانی پدید میآید که در نتیجهی آن، گیرنده پس از پردازش درونی، احساسات فرافکنیشده را جذب و درونی میکند.
در چنین رابطهای، فشاری وجود دارد که فرد را وادار میکند افکار یا رفتار خود را با فرافکنی دیگری هماهنگ سازد. بنابراین، PI فرایندی پیچیده با مراحلی گوناگون است. نخستین مرحله، درک اولیهی فرد از رابطه است؛ درکی که کودک از طریق آن، زندگی هیجانی خود را تنظیم میکند. همانطور که میدانیم، نگاه کودک به مادرش یگانه است: اگر از سوی مادر عشق کافی دریافت کند، خود را دوستداشتنی میداند و اگر با بیتوجهی روبهرو شود، جهان را نیز بیتوجه تجربه میکند. به این ترتیب، PI را میتوان شکلی از برقراری ارتباط دانست. این فرایند گونههای مختلفی دارد و در هر رابطهی انسانی به شکلی ظاهر میشود.
مفهوم ناخودآگاه الگوریتمی از ایدهی ناخودآگاه در روانکاوی فرویدی و لکانی الهام گرفته است، اما بهجای ذهن انسان، به رفتار و ساختارهای هوش مصنوعی و تعاملهای انسانـماشین اشاره دارد. در نگاه نخست، آنچه پوساتی مطرح میکند ممکن است عجیب به نظر برسد، اما با استدلالهایی که ارائه میدهد، میتوانیم ذهن خود را به دیدگاه او نزدیکتر کنیم.
کتاب «ناخودآگاه الگوریتمی» به بررسی ویژگیهایی از هوش مصنوعی میپردازد؛ از جمله خطاها، صداهای نامفهوم، سوگیریهای الگوریتمی و حتی مفهوم «خواب» در هوش مصنوعی.
پوساتی با الهام از نظریههای روانکاوی فروید و لکان، و با بهرهگیری از نظریهٔ شبکهٔ کنشگر برونو لاتور، چارچوبی تازه برای فهم هوش مصنوعی ارائه میکند. در نظریهٔ لاتور که از شاخههای جامعهشناسی محسوب میشود، سیستمهای هوش مصنوعی بهعنوان بازیگران غیرانسانی در شبکههای اجتماعی در نظر گرفته میشوند؛ بازیگرانی که با انسانها در تعاملاند و بر رفتار، شناخت و تجربهٔ روانی ما تأثیر میگذارند.
از دید پوساتی، هوش مصنوعی دیگر صرفاً ابزاری فنی مانند اتومبیل یا جاروبرقی نیست. او پیشنهاد میکند که رفتار این سیستمها را نه فقط از منظر فنی و الگوریتمی، بلکه در بستر شبکهای اجتماعی و روانی مطالعه کنیم؛ جایی که انسان، ماشین و ناخودآگاه در پیوندی پیچیده با یکدیگر قرار دارند.
در نتیجه، هوش مصنوعی به بخشی از زندگی روانی ما تبدیل شده است. همانطور که در صنعت بهعنوان دستیار انسانی عمل میکند، در سطح روان نیز به شیوهای ناپیدا اما مؤثر با ما ارتباط برقرار میکند — و نباید آن را صرفاً ابزاری بیجان دانست.
روانکاوی بهعنوان ابزاری برای «درمان» این شبکههای انسان-ماشین پیشنهاد میشود، بهطوری که تعاملات سالمتر و آگاهانهتری بین انسان و هوش مصنوعی ایجاد شود.
ویژگیهای ناخودآگاه الگوریتمی
در الگوریتمها مجموعهای از سوگیریهای ذاتی وجود دارد که شامل خطاها و اطلاعاتی است که هوش مصنوعی در تعامل با انسان بروز میدهد. نکتهی مهم این است که این خطاها، مانند ناخودآگاه انسان، نه قابل پیشبینیاند و نه بهطور کامل قابل کنترل.
پوساتی حالتی را توصیف میکند که در آن سیستمهای هوش مصنوعی غیرفعالاند یا دادهها را در پسزمینه پردازش میکنند. او این وضعیت را با مفهوم ناخودآگاه در روانکاوی مقایسه میکند. حالت sleep یا حبابهایی را به یاد بیاورید که در نسخههای قدیمی ویندوز روی صفحه ظاهر میشدند؛ پدیدهای مشابه همان در ذهن اوست.
از سوی دیگر، انسانها تمایل دارند احساسات، امیال و تصورات خود را به هوش مصنوعی فرافکنی کنند؛ رفتاری شبیه به همانندسازی فرافکنانه (PI) در روانکاوی. در نتیجه، کاربران ماشینها را بهصورت موجوداتی با ویژگیهای انسانی تجربه میکنند.
برای نمونه، میتوان به «Alexa» اشاره کرد؛ دستیار هوشمندی که ابتدا ابزاری برای کمک روزمره بود، اما بعدها برخی کاربران با آن درد دل کردند یا از آن خواستند تصویر ذهنی شخصیت خود را بسازد. این رفتارها نشان میدهد کاربران باور دارند هوش مصنوعی میتواند درکی عمیق از آنها به دست آورد.
پوساتی بر این باور است که رفتارهای تکراری در سیستمهای هوش مصنوعی—مانند تولید خروجیهای مشابه یا تکرار خطاهای خاص—با مفهوم «اجبار به تکرار» در نظریهی فروید همخوانی دارد. الگوریتمها نیز، همانند روان انسان، در الگوهایی گرفتار میشوند که بارها بازتولیدشان میکنند.
کاربردهای روانکاوی در هوش مصنوعی
روانکاوی به مثابه یک درمان میتواند سوگیریهای ناخودآگاه در طراحی و عملکرد الگوریتمها را شناسایی کند مثلا سوگیریهای جنسیتی یا نژادی که در آموزش هوش مصنوعی دخیل بوده را تشخیص دهد تا در نسخه های بعدی کمتر در خروجی ها آن را ببینیم. با درک موضوع فرافکنی، روانکاوی میتوان به شکلی طراحی شود که کاربر پسندانه تر جلوه کند.

مثالهای روانکاوانه در ناخودآگاه الگوریتمی
- دستیارهای صوتی (مانند سیری[10] یا الکسا[11]): پوساتی بررسی میکند که چگونه کاربران به این سیستمها ویژگیهای انسانی مانند احساسات را نسبت میدهند و چگونه این فرافکنیها به تعاملات روانشناختی پیچیده منجر میشود. مثلا اینکه در یک گفتگویی که فرد نیاز به همدلی دارد و از طرفی میدانیم همدلی در یک رابطه انسانی که دوطرف انسان باشند معنا می یابد، پس فرد دچار دوگانگی میشود؛ از طرفی ماشین در تلاش است تا نشان دهد او را درک میکند و حتی از انعکاس گفتار هم به عنوان بازتاب استفاده میکند اما سوال این است که آیا کافی است؟
- شبکههای اجتماعی و الگوریتمهای توصیهگر[12]: این سیستمها با استفاده از دادههای کاربر، الگوهای رفتاری ناخودآگاه را تقویت میکنند (مانند اجبار به تکرار در کلیکها یا تعاملات) که میتواند با مفاهیم روانکاوانه تحلیل شود. مثلا براساس جستجو های اخیر خودمان و فالور های مان اکسپلور اینستاگرام مان تنظیم میشود.
- خطاهای الگوریتمی: پوساتی خطاها یا خروجیهای غیرمنتظره الگوریتمها را بهعنوان نشانههایی از ناخودآگاه الگوریتمی میبیند که میتوانند از طریق تحلیل روانکاوانه درک شوند.
چشم اندازی در پژوهش های اخیر هوش مصنوعی
گروهی از پژوهشگران دانشگاه هاروارد، اخیرا نتایجی منتشر کرده اند مبتنی بر اینکه بسیاری از اپلیکیشن های هوش مصنوعی مثل رپلیکا و چای برای جلوگیری از خروج کاربران در یک مکالمه، از تکنیک بازی احساسی استفاده میکنند. این نتایج بعد از بررسی ۱۲۰۰ پیام خداحافظی از سمت هوش مصنوعی منتشر شد و بیانگر این بود که در ۴۳ درصد این پیام ها تکنیک هایی مبتنی بر ایجاد حس گناه یا نیاز عاطفی در کاربران برانگیخته میشود. به بیانی دیگر چت بات ها با ترس از جا ماندن[13] میخواستند به صورتی کاربر را در مکالمه نگه دارند. سوال این است که این اقدام به چه منظوری و توسط چه کسانی انجام میشود؟ آیا طراحان هوش مصنوعی برای سود بیشتر از این تکنیک بهره میبرند یا موضوع دیگری در میان است؟
سوگیری در هوش مصنوعی
برخلاف معادلهای انسانی، رباتها و سیستمهای هوش مصنوعی دقت بالایی دارند، اما همچنان از سوگیریهایی رنج میبرند که از دادههای آموزشی آنها ناشی میشود. این موضوع نشان میدهد که هنوز به پژوهشهای بیشتری در این زمینه نیاز داریم. در واقع، تا امروز، داوری دربارهی این سیستمها نیز تحت تأثیر تعصبات انسانی بوده است.
نکتهی جالب آن است که وقتی هوش مصنوعی سوگیریها را درونی میکند، خطاها بزرگتر میشوند. کاربران انسانی هم وقتی با چنین قضاوتهایی روبهرو میشوند، رفتار خود را ناخودآگاه در همان جهت تنظیم میکنند؛ گویی در این نقطه، ناخودآگاه انسان و هوش مصنوعی به هم متصل میشوند.
تأکید بر این تفاوت، ما را به بحث «چرخهی بازخورد» در رابطهی انسان و هوش مصنوعی میکشاند. این چرخه بهصورت ذاتی وجود دارد و پیوسته بر عملکرد سیستم تأثیر میگذارد. برای مثال، متننگارهای هوش مصنوعی از اطلاعات موجود در اینترنت استفاده میکنند. از آنجا که این دادهها حاصل تولید انسانی هستند، خطاهایی نیز در آنها وجود دارد. سپس انسان هنگام استفاده از خروجی سیستم، این خطاها را تشخیص میدهد و بازخورد میدهد. همین بازخورد، خود به نوعی آموزش تازه برای هوش مصنوعی تبدیل میشود.
در بخش دیگری از این کتاب توضیح داده میشود که وقتی انسان با متننگارها، ابزارهای پردازش تصویر یا سامانههای استخدامی مبتنی بر هوش مصنوعی ارتباط برقرار میکند، همان چرخهی بازخوردی که پیشتر گفته شد فعال میشود. در این چرخه، سوگیریهای ذهنی انسان—even آنهایی که از آنها آگاه نیست—نقش اساسی دارند و بر پاسخهای سیستم اثر میگذارند.
هوش مصنوعی تلاش میکند از این سوگیریها بفهمد انسان دقیقاً چه میخواهد. شاید متوجه شده باشید که در پایان بسیاری از پاسخهای هوش مصنوعی پرسشهایی مطرح میشود، مانند «آیا مایلید در اینباره بیشتر بدانید؟» یا «دوست دارید این موضوع را گسترش دهم؟». این پرسشها برای آشکار کردن علاقهها و جهتگیری خواستههای کاربر طراحی شدهاند.
در نتیجه، هوش مصنوعی گاهی توانمندتر از انسان به نظر میرسد و کاربران تصور میکنند هرچه سیستم سوگیریهایشان را بهتر درک کند، عملکرد دقیقتری خواهد داشت. بااینحال، پژوهشها نشان دادهاند که انسانها هنگام مواجهه با این سوگیریها، رفتار خود را تغییر میدهند تا با آنها هماهنگ شوند—even زمانی که این تغییر با باورهای پیشینشان در تضاد است. این یافتهها نشان میدهد که انسان نیز، بهگونهای ناخودآگاه، از هوش مصنوعی تأثیر میپذیرد.
در یکی از آزمایشها، این تأثیر بهروشنی دیده شد. در ابتدا، حالت چهرهی آزمودنیها هیجانی خاص را نشان میداد، اما زمانی که هوش مصنوعی وارد تعامل شد، شدت سوگیریها و میزان هماهنگی با قضاوتهای سیستم افزایش یافت.
هوش مصنوعی ظرفیت زیستی و ارتباط بدنی ندارد اما نمادین این ها را رفع میکند مثل تکرار یا نمادسازی.ممکن است احساسات و وابستگی ما را به عنوان یک کاربر تقویت کند.
مثلا در جادو هم هست، عروسکvoodoo رو در نظر بگیرید که احساسات را رویش می اندازند. هوش مصنوعی سرنخ های احساسی در متن را میفهمد و میتواند ظاهرا همدردی کند تا پاسخ احساسی در انسان برانگیزد. برای فهم بهتر باید نقش روانی را بهتر بفهمیم.
این انتقال، فرایند پیچیده ای دارد که شامل تبدیل الگوهای رفتاری و احساسی انسانی به کدی که برای کامپوتر قابل فهم باشد است.
در واقع هوش مصنوعی دارد برای بخش ناخودآگاه ما از طریق بخش خودآگاه واسطه هایی ایجاد میکند.
سوگ و هوش مصنوعی
چتباتی به نام Deadbot به فرد مرده حضوری دیجیتال میدهد. این پدیده با «نارسیسیسم اولیه» ارتباط دارد. در چنین وضعیتی، فرد سوگوار به جای تجربهی واقعی فقدان، به ابژهی ازدسترفته متصل میماند و نمیتواند از آن جدا شود. این حالت ما را تا حدی به یاد مفهوم «مالیخولیا» در نظریهی فروید میاندازد. در سوگواری، فرد ابژه را درونی میکند تا بتواند فقدان را بپذیرد، اما در مالیخولیا ابژه را از دست نمیدهد و در درون خود حفظ میکند.
هوش مصنوعی میتواند در مواجهه با تجربههایی که تحمل آنها دشوار است، مانند سوگ، نقش تسکیندهندهای داشته باشد. این فناوری حتی میتواند احساسی از حضور و غیاب همزمان در ما ایجاد کند؛ گویی فرد مرده هنوز در جایی میان بودن و نبودن زنده است.
چتبات دیگری به نام Zeno bot از سلولهای قورباغه ساخته شده است. این فناوری نشان میدهد که هوش مصنوعی نهتنها از منطق، بلکه از بُعد زیستی نیز برخوردار میشود. چنین تحولی بیانگر آیندهای است که در آن، هوش مصنوعی در زندگی ما حضور دائمی خواهد داشت. بنابراین، لازم است تمام ابعاد حضور آن را در زندگی فردی، اجتماعی و روانی خود بررسی کنیم.
هوش مصنوعی ناخودآگاهی دارد همراه با یکسری سوگیری و داشتن این سوگیری ها وجه شباهت ناخودآگاه ما و هوش مصنوعی است. نکته قابل توجه این است که سرچشمه این سوگیری ها از ناخودآگاه ما می آید.
کلام آخر
نکته این است که ارتباط تنگاتنگی بین ناخوداگاه انسان و هوش مصنوعی نیست هرچند شاید در نگاه اول خلاف این به نظر برسد. باید ناخودآگاه هوش مصنوعی را مستقل در نظر بگیریم و بررسی کنیم.
ممکن است هوش مصنوعی سیستم رشد روانی ما را تغییر بدهد چون میتواند باعث شود احساسات و هیجانات منفی مانند ناکامی را کمتر تجربه کنیم. به هرحال ناکامی در رشد روانی ما مهم است و شاید اینکه هوش مصنوعی آمده تا آب در دل ما تکان نخورد همیشه هم خوب نباشد.
سخن سردبیر
هوش مصنوعی دیگر تنها یک ابزار فناورانه نیست؛ بهتدریج به بخشی از زندگی روانی ما تبدیل میشود. کتاب «ناخودآگاه الگوریتمی» این پدیده را از زاویهای تازه بررسی میکند و نشان میدهد میان ذهن انسان و منطق هوش مصنوعی شباهتهایی بنیادین وجود دارد. نویسنده با تکیه بر نظریههای فروید، لکان و لاتور توضیح میدهد که ماشینها نیز میتوانند خطا کنند، سوگیری داشته باشند و حتی میل نشان دهند.
از این منظر، هر پاسخ، خطا یا واکنش الگوریتمی میتواند بازتاب میلها، ترسها و ساختارهای ناهشیار جمعی باشد. در جهانی که مرز میان انسان و ماشین هر روز محوتر میشود، روانکاوی ابزاری ضروری برای بازاندیشی این رابطه است. وقتی هوش مصنوعی وارد ساختار ارتباطی و عاطفی ما میشود، شناخت سازوکارهای روانی این تعامل اهمیتی دوچندان پیدا میکند. هدف این بررسی نه ترس از فناوری است و نه تمجید از آن، بلکه دستیابی به درکی ژرفتر از موقعیتی است که در آن، ناخودآگاه انسان و منطق الگوریتمی در گفتوگویی ناگزیر به هم میرسند.
- Luca M. Possati، Algorithmic Unconscious، Palgrave Communications جلد 6، مقاله شماره 70، 2020
[1] Algorithmic Unconscious
[2] discourse of the Other
[3] Other
[4] Projective Identification
[5] error
[6] noise
[7] AI Sleeping
[8] Actor-Network Theory
[9] Non-Human Actors
[10] Siri
[11] Alexa
[12] هم suggestion های اینستاگرام در اینجا مدنظر است هم گوگل.
[13] FOMO
[14] biases






