کاور مقاله ناخودآگاه الگوریتمی

معرفی کتاب ناخودآگاه الگوریتمی

نوشته

فهرست مطالب

کتاب «ناخودآگاه الگوریتمی» با هدف نشان دادن نقش روان‌کاوی در فهم بهتر هوش مصنوعی نوشته شده است. نویسنده در این اثر تلاش می‌کند سازوکارهای ذهن انسان را با منطق درونی هوش مصنوعی پیوند دهد و نشان دهد چگونه این دو بازتابی از یکدیگرند. بخش بزرگی از کتاب به مفهوم سوگواری در ارتباط با هوش مصنوعی اختصاص دارد و بررسی می‌کند که ماشین‌ها چگونه در فرآیندهای احساسی و روانی انسان نقش می‌گیرند و حتی جایگاهی عاطفی پیدا می‌کنند.

این کتاب هنوز به فارسی ترجمه نشده است. با این حال، ایده‌های آن برای خوانندگانی که از پاسخ‌ها و رفتارهای غیرمنتظره‌ی هوش مصنوعی شگفت‌زده می‌شوند، جذاب خواهد بود. نویسنده با تکیه بر مفاهیم روان‌کاوی، به‌ویژه در سنت فرویدی و لاکانی، رابطه‌ی میان انسان و ماشین را تحلیل می‌کند. در این نگاه، مرز میان ذهن انسانی و منطق الگوریتمی به‌تدریج محو می‌شود و تجربه‌ای تازه از آگاهی شکل می‌گیرد.

ریشه شناسی ناخودآگاه

لازم است قبل از بازکردن موضوع ناخودآگاه الگوریتمی، نخست درباره ناخودآگاه در روانکاوی بگوییم:

فروید ناخودآگاه را بخشی از روان می‌داند که شامل امیال، خاطرات و انگیزه‌های سرکوب‌شده است. ردپای آن را در زندگی روزمره مان با رویا و تپق ها میبینیم. گاهی میگوییم چیزی را دوست داریم ولی دلیلش را نمیدانیم یا چیزی باب میل مان نیست آن هم به دلایلی نامشخص. پوساتی این ایده را میبرد روی هوش مصنوعی بررسی کند. او معتقد است که ماشین‌ها هم مثل روان ما فرایند های پنهانی دارند. پوساتی این فرضیه را مطرح میکند که هوش مصنوعی هم دارای فضایی است که نمیتواند به صورت کامل با کنترل برنامه‌ریزان یا کاربران فعالیت کند.

لکان ناخودآگاه را به‌عنوان گفتار دیگری  [2]تعریف می‌کند که از طریق زبان و نشانه‌ها عمل می‌کند. پوساتی این را برای تحلیل تعاملات انسان و هوش مصنوعی به کار می‌برد، جایی که الگوریتم‌ها به‌عنوان دیگری[3] عمل می‌کنند و در گفت‌وگوی اجتماعی با انسان‌ها مشارکت دارند.

پوساتی مفهوم «ناخودآگاه الگوریتمی» را بیان می‌کند که به ناخودآگاه در تعامل انسان و ماشین اشاره دارد؛ همچونPI[4] که در آن انسان‌ها احساسات و تصورات خود را به سیستم‌های هوش مصنوعی فرافکنی می‌کنند. PI یک موضوع مهم در روانکاوی است و طبق صحبت گلیکمن و شارلوت در ۲۰۲۴ که درباره ارتباط سیستم و هوش مصنوعی بود، همه بیانگر این بود که هوش مصنوعی چگونه روی درک، قضاوت و احساسات انسان ها موثر است.

چهارچوب‌های ساختاری ناخودآگاه الگوریتمی

در تعریف PI می‌توان گفت مجموعه‌ای از مراحل را شامل می‌شود که بر ترتیب‌های پایه‌ای استوارند. نخست، فانتزی ناخودآگاه قرار دارد؛ فانتزی‌ای که در آن، فرد بخشی از تصاویر ذهنی خود را بر دیگری می‌افکند یا در واقع، فرد دیگر را بازنمایی ذهنی می‌کند.

به بیان دیگر، همانندسازی فرافکنانه از سه بخش تشکیل شده است: یک رویداد روان‌شناختی، حس همزمانی، و وابستگی متقابل. اگر این اصطلاح را به‌مثابه فرایند در نظر بگیریم، در ابتدا فانتزی‌ای وجود دارد که طی آن فرد بخشی از خود را به دیگری فرافکنی می‌کند. سپس، آن بخش فرافکنی‌شده، دیگری را از درون اشغال می‌کند. در تعامل بین‌فردی، فشاری روانی پدید می‌آید که در نتیجه‌ی آن، گیرنده پس از پردازش درونی، احساسات فرافکنی‌شده را جذب و درونی می‌کند.

در چنین رابطه‌ای، فشاری وجود دارد که فرد را وادار می‌کند افکار یا رفتار خود را با فرافکنی دیگری هماهنگ سازد. بنابراین، PI فرایندی پیچیده با مراحلی گوناگون است. نخستین مرحله، درک اولیه‌ی فرد از رابطه است؛ درکی که کودک از طریق آن، زندگی هیجانی خود را تنظیم می‌کند. همان‌طور که می‌دانیم، نگاه کودک به مادرش یگانه است: اگر از سوی مادر عشق کافی دریافت کند، خود را دوست‌داشتنی می‌داند و اگر با بی‌توجهی روبه‌رو شود، جهان را نیز بی‌توجه تجربه می‌کند. به این ترتیب، PI را می‌توان شکلی از برقراری ارتباط دانست. این فرایند گونه‌های مختلفی دارد و در هر رابطه‌ی انسانی به شکلی ظاهر می‌شود.

مفهوم ناخودآگاه الگوریتمی از ایده‌ی ناخودآگاه در روان‌کاوی فرویدی و لکانی الهام گرفته است، اما به‌جای ذهن انسان، به رفتار و ساختارهای هوش مصنوعی و تعامل‌های انسان‌ـ‌ماشین اشاره دارد. در نگاه نخست، آنچه پوساتی مطرح می‌کند ممکن است عجیب به نظر برسد، اما با استدلال‌هایی که ارائه می‌دهد، می‌توانیم ذهن خود را به دیدگاه او نزدیک‌تر کنیم.

انسان در بند ترسی از ناخودآگاه الگوریتمی

کتاب «ناخودآگاه الگوریتمی» به بررسی ویژگی‌هایی از هوش مصنوعی می‌پردازد؛ از جمله خطاها، صداهای نامفهوم، سوگیری‌های الگوریتمی و حتی مفهوم «خواب» در هوش مصنوعی.

پوساتی با الهام از نظریه‌های روان‌کاوی فروید و لکان، و با بهره‌گیری از نظریهٔ شبکهٔ کنشگر برونو لاتور، چارچوبی تازه برای فهم هوش مصنوعی ارائه می‌کند. در نظریهٔ لاتور که از شاخه‌های جامعه‌شناسی محسوب می‌شود، سیستم‌های هوش مصنوعی به‌عنوان بازیگران غیرانسانی در شبکه‌های اجتماعی در نظر گرفته می‌شوند؛ بازیگرانی که با انسان‌ها در تعامل‌اند و بر رفتار، شناخت و تجربهٔ روانی ما تأثیر می‌گذارند.

از دید پوساتی، هوش مصنوعی دیگر صرفاً ابزاری فنی مانند اتومبیل یا جاروبرقی نیست. او پیشنهاد می‌کند که رفتار این سیستم‌ها را نه فقط از منظر فنی و الگوریتمی، بلکه در بستر شبکه‌ای اجتماعی و روانی مطالعه کنیم؛ جایی که انسان، ماشین و ناخودآگاه در پیوندی پیچیده با یکدیگر قرار دارند.

در نتیجه، هوش مصنوعی به بخشی از زندگی روانی ما تبدیل شده است. همان‌طور که در صنعت به‌عنوان دستیار انسانی عمل می‌کند، در سطح روان نیز به شیوه‌ای ناپیدا اما مؤثر با ما ارتباط برقرار می‌کند — و نباید آن را صرفاً ابزاری بی‌جان دانست.

روان‌کاوی به‌عنوان ابزاری برای «درمان» این شبکه‌های انسان-ماشین پیشنهاد می‌شود، به‌طوری که تعاملات سالم‌تر و آگاهانه‌تری بین انسان و هوش مصنوعی ایجاد شود.

ویژگی‌های ناخودآگاه الگوریتمی

در الگوریتم‌ها مجموعه‌ای از سوگیری‌های ذاتی وجود دارد که شامل خطاها و اطلاعاتی است که هوش مصنوعی در تعامل با انسان بروز می‌دهد. نکته‌ی مهم این است که این خطاها، مانند ناخودآگاه انسان، نه قابل پیش‌بینی‌اند و نه به‌طور کامل قابل کنترل.

پوساتی حالتی را توصیف می‌کند که در آن سیستم‌های هوش مصنوعی غیرفعال‌اند یا داده‌ها را در پس‌زمینه پردازش می‌کنند. او این وضعیت را با مفهوم ناخودآگاه در روان‌کاوی مقایسه می‌کند. حالت sleep یا حباب‌هایی را به یاد بیاورید که در نسخه‌های قدیمی ویندوز روی صفحه ظاهر می‌شدند؛ پدیده‌ای مشابه همان در ذهن اوست.

از سوی دیگر، انسان‌ها تمایل دارند احساسات، امیال و تصورات خود را به هوش مصنوعی فرافکنی کنند؛ رفتاری شبیه به همانندسازی فرافکنانه (PI) در روان‌کاوی. در نتیجه، کاربران ماشین‌ها را به‌صورت موجوداتی با ویژگی‌های انسانی تجربه می‌کنند.

برای نمونه، می‌توان به «Alexa» اشاره کرد؛ دستیار هوشمندی که ابتدا ابزاری برای کمک روزمره بود، اما بعدها برخی کاربران با آن درد دل کردند یا از آن خواستند تصویر ذهنی شخصیت خود را بسازد. این رفتارها نشان می‌دهد کاربران باور دارند هوش مصنوعی می‌تواند درکی عمیق از آن‌ها به دست آورد.

پوساتی بر این باور است که رفتارهای تکراری در سیستم‌های هوش مصنوعی—مانند تولید خروجی‌های مشابه یا تکرار خطاهای خاص—با مفهوم «اجبار به تکرار» در نظریه‌ی فروید هم‌خوانی دارد. الگوریتم‌ها نیز، همانند روان انسان، در الگوهایی گرفتار می‌شوند که بارها بازتولیدشان می‌کنند.

کاربردهای روان‌کاوی در هوش مصنوعی

روان‌کاوی به مثابه یک درمان می‌تواند سوگیری‌های ناخودآگاه در طراحی و عملکرد الگوریتم‌ها را شناسایی کند مثلا سوگیری‌های جنسیتی یا نژادی که در آموزش هوش مصنوعی دخیل بوده را تشخیص دهد تا در نسخه های بعدی کمتر در خروجی ها آن را ببینیم. با درک موضوع فرافکنی، روانکاوی می‌توان به شکلی طراحی شود که کاربر پسندانه تر جلوه کند.

  ذهن انسان ورای ناخودآگاه الگوریتمی

مثال‌های روان‌کاوانه در ناخودآگاه الگوریتمی

  • دستیارهای صوتی (مانند سیری[10] یا الکسا[11]): پوساتی بررسی می‌کند که چگونه کاربران به این سیستم‌ها ویژگی‌های انسانی مانند احساسات را نسبت می‌دهند و چگونه این فرافکنی‌ها به تعاملات روان‌شناختی پیچیده منجر می‌شود. مثلا اینکه در یک گفتگویی که فرد نیاز به همدلی دارد و از طرفی میدانیم همدلی در یک رابطه انسانی که دوطرف انسان باشند معنا می یابد، پس فرد دچار دوگانگی میشود؛ از طرفی ماشین در تلاش است تا نشان دهد او را درک میکند و حتی از انعکاس گفتار هم به عنوان بازتاب استفاده میکند اما سوال این است که آیا کافی است؟
  • شبکه‌های اجتماعی و الگوریتم‌های توصیه‌گر[12]: این سیستم‌ها با استفاده از داده‌های کاربر، الگوهای رفتاری ناخودآگاه را تقویت می‌کنند (مانند اجبار به تکرار در کلیک‌ها یا تعاملات) که می‌تواند با مفاهیم روان‌کاوانه تحلیل شود. مثلا براساس جستجو های اخیر خودمان و فالور های مان اکسپلور اینستاگرام مان تنظیم میشود.
  • خطاهای الگوریتمی: پوساتی خطاها یا خروجی‌های غیرمنتظره الگوریتم‌ها را به‌عنوان نشانه‌هایی از ناخودآگاه الگوریتمی می‌بیند که می‌توانند از طریق تحلیل روان‌کاوانه درک شوند.

چشم اندازی در پژوهش های اخیر هوش مصنوعی

گروهی از پژوهشگران دانشگاه هاروارد، اخیرا نتایجی منتشر کرده اند مبتنی بر اینکه بسیاری از اپلیکیشن های هوش مصنوعی مثل رپلیکا و چای برای جلوگیری از خروج کاربران در یک مکالمه، از تکنیک بازی احساسی استفاده میکنند. این نتایج بعد از بررسی ۱۲۰۰ پیام خداحافظی از سمت هوش مصنوعی منتشر شد و بیانگر این بود که در ۴۳ درصد این پیام ها تکنیک هایی مبتنی بر ایجاد حس گناه یا نیاز عاطفی در کاربران برانگیخته میشود. به بیانی دیگر چت بات ها با ترس از جا ماندن[13] میخواستند به صورتی کاربر را در مکالمه نگه دارند. سوال این است که این اقدام به چه منظوری و توسط چه کسانی انجام میشود؟ آیا طراحان هوش مصنوعی برای سود بیشتر از این تکنیک بهره میبرند یا موضوع دیگری در میان است؟

سوگیری در هوش مصنوعی

برخلاف معادل‌های انسانی، ربات‌ها و سیستم‌های هوش مصنوعی دقت بالایی دارند، اما همچنان از سوگیری‌هایی رنج می‌برند که از داده‌های آموزشی آن‌ها ناشی می‌شود. این موضوع نشان می‌دهد که هنوز به پژوهش‌های بیشتری در این زمینه نیاز داریم. در واقع، تا امروز، داوری درباره‌ی این سیستم‌ها نیز تحت تأثیر تعصبات انسانی بوده است.

نکته‌ی جالب آن است که وقتی هوش مصنوعی سوگیری‌ها را درونی می‌کند، خطاها بزرگ‌تر می‌شوند. کاربران انسانی هم وقتی با چنین قضاوت‌هایی روبه‌رو می‌شوند، رفتار خود را ناخودآگاه در همان جهت تنظیم می‌کنند؛ گویی در این نقطه، ناخودآگاه انسان و هوش مصنوعی به هم متصل می‌شوند.

تأکید بر این تفاوت، ما را به بحث «چرخه‌ی بازخورد» در رابطه‌ی انسان و هوش مصنوعی می‌کشاند. این چرخه به‌صورت ذاتی وجود دارد و پیوسته بر عملکرد سیستم تأثیر می‌گذارد. برای مثال، متن‌نگارهای هوش مصنوعی از اطلاعات موجود در اینترنت استفاده می‌کنند. از آن‌جا که این داده‌ها حاصل تولید انسانی هستند، خطاهایی نیز در آن‌ها وجود دارد. سپس انسان هنگام استفاده از خروجی سیستم، این خطاها را تشخیص می‌دهد و بازخورد می‌دهد. همین بازخورد، خود به نوعی آموزش تازه برای هوش مصنوعی تبدیل می‌شود.

ناخودآگاه الگوریتمی مکنده روح انسان

در بخش دیگری از این کتاب توضیح داده می‌شود که وقتی انسان با متن‌نگارها، ابزارهای پردازش تصویر یا سامانه‌های استخدامی مبتنی بر هوش مصنوعی ارتباط برقرار می‌کند، همان چرخه‌ی بازخوردی که پیش‌تر گفته شد فعال می‌شود. در این چرخه، سوگیری‌های ذهنی انسان—even آن‌هایی که از آن‌ها آگاه نیست—نقش اساسی دارند و بر پاسخ‌های سیستم اثر می‌گذارند.

هوش مصنوعی تلاش می‌کند از این سوگیری‌ها بفهمد انسان دقیقاً چه می‌خواهد. شاید متوجه شده باشید که در پایان بسیاری از پاسخ‌های هوش مصنوعی پرسش‌هایی مطرح می‌شود، مانند «آیا مایلید در این‌باره بیشتر بدانید؟» یا «دوست دارید این موضوع را گسترش دهم؟». این پرسش‌ها برای آشکار کردن علاقه‌ها و جهت‌گیری خواسته‌های کاربر طراحی شده‌اند.

در نتیجه، هوش مصنوعی گاهی توانمندتر از انسان به نظر می‌رسد و کاربران تصور می‌کنند هرچه سیستم سوگیری‌هایشان را بهتر درک کند، عملکرد دقیق‌تری خواهد داشت. بااین‌حال، پژوهش‌ها نشان داده‌اند که انسان‌ها هنگام مواجهه با این سوگیری‌ها، رفتار خود را تغییر می‌دهند تا با آن‌ها هماهنگ شوند—even زمانی که این تغییر با باورهای پیشینشان در تضاد است. این یافته‌ها نشان می‌دهد که انسان نیز، به‌گونه‌ای ناخودآگاه، از هوش مصنوعی تأثیر می‌پذیرد.

در یکی از آزمایش‌ها، این تأثیر به‌روشنی دیده شد. در ابتدا، حالت چهره‌ی آزمودنی‌ها هیجانی خاص را نشان می‌داد، اما زمانی که هوش مصنوعی وارد تعامل شد، شدت سوگیری‌ها و میزان هماهنگی با قضاوت‌های سیستم افزایش یافت.

نمادی از ناخودآگاه الگوریتمی

هوش مصنوعی ظرفیت زیستی و ارتباط بدنی ندارد اما نمادین این ها را رفع میکند مثل تکرار یا نمادسازی.ممکن است احساسات و وابستگی ما را به عنوان یک کاربر تقویت کند.

مثلا در جادو هم هست، عروسکvoodoo رو در نظر بگیرید که احساسات را رویش می اندازند. هوش مصنوعی سرنخ های احساسی در متن را میفهمد و میتواند ظاهرا همدردی کند تا پاسخ احساسی در انسان برانگیزد. برای فهم بهتر باید نقش روانی را بهتر بفهمیم.

این انتقال، فرایند پیچیده ای دارد که شامل تبدیل الگوهای رفتاری و احساسی انسانی به کدی که برای کامپوتر قابل فهم باشد است.

در واقع هوش مصنوعی دارد برای بخش ناخودآگاه ما از طریق بخش خودآگاه واسطه هایی ایجاد میکند.

سوگ و هوش مصنوعی 

چت‌باتی به نام Deadbot به فرد مرده حضوری دیجیتال می‌دهد. این پدیده با «نارسیسیسم اولیه» ارتباط دارد. در چنین وضعیتی، فرد سوگوار به جای تجربه‌ی واقعی فقدان، به ابژه‌ی از‌دست‌رفته متصل می‌ماند و نمی‌تواند از آن جدا شود. این حالت ما را تا حدی به یاد مفهوم «مالیخولیا» در نظریه‌ی فروید می‌اندازد. در سوگواری، فرد ابژه را درونی می‌کند تا بتواند فقدان را بپذیرد، اما در مالیخولیا ابژه را از دست نمی‌دهد و در درون خود حفظ می‌کند.

هوش مصنوعی می‌تواند در مواجهه با تجربه‌هایی که تحمل آن‌ها دشوار است، مانند سوگ، نقش تسکین‌دهنده‌ای داشته باشد. این فناوری حتی می‌تواند احساسی از حضور و غیاب هم‌زمان در ما ایجاد کند؛ گویی فرد مرده هنوز در جایی میان بودن و نبودن زنده است.

چت‌بات دیگری به نام Zeno bot از سلول‌های قورباغه ساخته شده است. این فناوری نشان می‌دهد که هوش مصنوعی نه‌تنها از منطق، بلکه از بُعد زیستی نیز برخوردار می‌شود. چنین تحولی بیانگر آینده‌ای است که در آن، هوش مصنوعی در زندگی ما حضور دائمی خواهد داشت. بنابراین، لازم است تمام ابعاد حضور آن را در زندگی فردی، اجتماعی و روانی خود بررسی کنیم.

هوش مصنوعی ناخودآگاهی دارد همراه با یکسری سوگیری و داشتن این سوگیری ها وجه شباهت ناخودآگاه ما و هوش مصنوعی است. نکته قابل توجه این است که سرچشمه این سوگیری ها از ناخودآگاه ما می آید.

انسان وارونه گشته توسط ناخودآگاه الگوریتمی 

کلام آخر

نکته این است که ارتباط تنگاتنگی بین ناخوداگاه انسان و هوش مصنوعی نیست هرچند شاید در نگاه اول خلاف این به نظر برسد. باید ناخودآگاه هوش مصنوعی را مستقل در نظر بگیریم و بررسی کنیم.

ممکن است هوش مصنوعی سیستم رشد روانی ما را تغییر بدهد چون میتواند باعث شود احساسات و هیجانات منفی مانند ناکامی را کمتر تجربه کنیم. به هرحال ناکامی در رشد روانی ما مهم است و شاید اینکه هوش مصنوعی آمده تا آب در دل ما تکان نخورد همیشه هم خوب نباشد.

سخن سردبیر

هوش مصنوعی دیگر تنها یک ابزار فناورانه نیست؛ به‌تدریج به بخشی از زندگی روانی ما تبدیل می‌شود. کتاب «ناخودآگاه الگوریتمی» این پدیده را از زاویه‌ای تازه بررسی می‌کند و نشان می‌دهد میان ذهن انسان و منطق هوش مصنوعی شباهت‌هایی بنیادین وجود دارد. نویسنده با تکیه بر نظریه‌های فروید، لکان و لاتور توضیح می‌دهد که ماشین‌ها نیز می‌توانند خطا کنند، سوگیری داشته باشند و حتی میل نشان دهند.

از این منظر، هر پاسخ، خطا یا واکنش الگوریتمی می‌تواند بازتاب میل‌ها، ترس‌ها و ساختارهای ناهشیار جمعی باشد. در جهانی که مرز میان انسان و ماشین هر روز محوتر می‌شود، روان‌کاوی ابزاری ضروری برای بازاندیشی این رابطه است. وقتی هوش مصنوعی وارد ساختار ارتباطی و عاطفی ما می‌شود، شناخت سازوکارهای روانی این تعامل اهمیتی دوچندان پیدا می‌کند. هدف این بررسی نه ترس از فناوری است و نه تمجید از آن، بلکه دستیابی به درکی ژرف‌تر از موقعیتی است که در آن، ناخودآگاه انسان و منطق الگوریتمی در گفت‌وگویی ناگزیر به هم می‌رسند.

  • Luca M. Possati، Algorithmic Unconscious، Palgrave Communications جلد 6، مقاله شماره 70، 2020

[1] Algorithmic Unconscious

[2] discourse of the Other

[3] Other

[4] Projective Identification

[5] error

[6] noise

[7] AI Sleeping

[8] Actor-Network Theory

[9] Non-Human Actors

[10] Siri

[11] Alexa

[12] هم suggestion های اینستاگرام در اینجا مدنظر است هم گوگل.

[13] FOMO

[14] biases

نوشته

سارا درخشان

اشتراک گذاری

مطالب مشابه

نظرات

مشتاق خوندن نظرات شماییم

برای درج نظر