جمعه ۱۰ فروردین ۱۴۰۳

جمعه ۱۰ فروردین ۱۴۰۳

چرا اربابان فئودال دیجیتال کنونی ما از هوش مصنوعی ترسیده اند – اسلاوی ژیژک، برگردان: بابک احمدی

وحشت بازتاب یافته در نامه ی سرگشاده در باره ی هوش مصنوعی ناشی از این ترس است که حتی کسانی که در “قطار پیشرفت” نشسته اند نگران آن هستند که نتوانند هدایت آن را کنترل کنند. اربابان فئودال دیجیتال کنونی ما ترسیده‌اند. با این وجود، آن چه آنان می‌خواهند بحث عمومی جامعه نیست بلکه توافقی است بین دولت‌ها و شرکت‌های فناوری در مورد حفظ قدرت در جایی که متعلق به آنان می‌باشد

برخلاف نوآوری‌های گذشته در عرصه ی فناوری، هوش مصنوعی در مورد تسلط بشر بر طبیعت نیست، بلکه به معنای واگذاشتن کامل کنترل است. چه متوجه باشیم و یا نه، غرور انسان‌محور قدیمی که فناوری آن را امکانپذیر کرد، ممکن است به زودی جای خود را به بی‌ربطی و بی‌معنایی انسان بدهد.

نامه سرگشاده موسسه آینده زندگی که خواستار توقف شش ماهه محتاطانه در توسعه هوش مصنوعی شده، پیش‌تر توسط هزاران شخصیت برجسته از جمله ایلان ماسک به امضا رسیده است، امضاکنندگان نگران هستند که آزمایشگاه‌های هوش مصنوعی برای توسعه و استقرار سیستم‌های قدرتمندی که هیچ کس از جمله سازندگان آن قادر به درک، پیش بینی یا کنترل‌شان نباشد در مسابقه‌ای خارج از کنترل گرفتار شوند.

چه چیزی قادر به توضیح این حجم از فوران وحشت در میان گروه خاصی از نخبگان است؟ کنترل و تنظیم آشکارا در کانون ماجرا قرار دارد، اما توسط چه کسی؟ در طول زمان تعلیق نیم ساله پیشنهادی، فرصتی که بشریت می‌تواند خطرات را ارزیابی کند قرار است چه کسی از انسانیت حمایت کند؟ از آنجایی که آزمایشگاه‌های هوش مصنوعی در چین، هند و روسیه به کار خود (احتمالا در خفا) ادامه خواهند داد، امکان تحقق بحث عمومی جهانی در مورد این موضوع غیرقابل تصور است.

با این حال، ما باید در نظر بگیریم که در اینجا چه چیزی در خطر است. یووال هراری، مورخ در سال ۲۰۱۵ در کتاب خود به نام انسان دیو، پیش‌بینی کرد که محتمل‌ترین نتیجه هوش مصنوعی یک شکاف رادیکال – بسیار قوی‌تر از شکاف طبقاتی – در جامعه بشری خواهد بود. به زودی بیوتکنولوژی (فن آوری زیستی) و الگوریتم‌های رایانه‌ای قدرت خود را در هم می آمیزند تا «بدن، مغز و ذهن» تولید کنند، روندی که به «بزرگ و عمیق تر شدن شکاف بین کسانی که می‌دانند چگونه بدن و مغز را مهندسی کنند و آنانی که نمی‌دانند منجر خواهد شد». در چنین دنیایی «کسانی که سوار قطار پیشرفت می‌شوند توانایی‌های الهی در خلقت و نابودی را به دست می‌آورند در حالی که آنانی که پشت سر باقی می‌مانند با انقراض مواجه خواهند شد».

وحشت بازتاب یافته در نامه ی سرگشاده در باره ی هوش مصنوعی ناشی از این ترس است که حتی کسانی که در “قطار پیشرفت” نشسته اند نگران آن هستند که نتوانند هدایت آن را کنترل کنند. اربابان فئودال دیجیتال کنونی ما ترسیده‌اند. با این وجود، آن چه آنان می‌خواهند بحث عمومی جامعه نیست بلکه توافقی است بین دولت‌ها و شرکت‌های فناوری در مورد حفظ قدرت در جایی که متعلق به آنان می‌باشد.

گسترش گسترده قابلیت‌های هوش مصنوعی یک تهدید جدی برای صاحبان قدرت محسوب می‌شود، به انضمام کسانی که هوش مصنوعی را توسعه می‌دهند، مالک و کنترل کننده ی آن هستند. این به چیزی کم‌تر از پایان سرمایه داری آن گونه که ما می‌شناسیم اشاره می‌کند و در چشم انداز یک سیستم هوش مصنوعی خود بازتولید کننده که به ورودی کمتری از سوی عوامل انسانی نیاز خواهد داشت را جا می اندازد. (تجارت الگوریتمی بازار صرفا اولین گام در این مسیر است). آنچه ما باید انجام دهیم انتخاب بین شکل جدیدی از کمونیسم و هرج و مرج غیرقابل کنترل خواهد بود.

چت بات‌های هوشمند جدید به بسیاری از افراد تنها (یا نه چندان تنها) شب‌های بی پایان گفتگوی دوستانه درباره فیلم، کتاب، آشپزی یا سیاست را ارائه می‌دهند. با استفاده از یک استعاره قدیمی باید بگویم چیزی که مردم به دست خواهند آورد نسخه ای از هوش مصنوعی مثل قهوه بدون کافئین یا نوشابه بدون قند است: یک همسایه که در کمد خانه اش جسدی پنهان نکرده و با رفتار دوستانه که به سادگی خود را با نیاز‌های شما سازگار می‌کند. در اینجا ساختاری از انکار فتیشیستی وجود دارد: «من به خوبی می دانم که با یک شخص واقعی صحبت نمی کنم، اما به نظر می رسد که من جای او هستم – و بدون هیچ یک از خطرات ناشی از آن»

در هر صورت، بررسی دقیق نامه ی سرگشاده ی هوش مصنوعی نشان می‌دهد این نامه تلاش دیگری برای منع غیرممکن است. این یک پارادوکس (تناقض) قدیمی است: برای ما به عنوان انسان غیرممکن است که در آینده پسا انسان شرکت کنیم بنابراین، باید توسعه آن را ممنوع کنیم. برای این که حول این فناوری‌ها متمرکز شویم باید سوال قدیمی لنین را بپرسیم: آزادی برای چه کسی و برای انجام چه کاری؟ در گذشته تا چه اندازه آزاد بودیم؟ آیا ما خیلی بیش‌تر از آن چه که تصور می‌کردیم کنترل نشده بودیم؟ به جای هشدار درباره تهدید آزادی و حیثیت‌مان در آینده شاید ابتدا باید به این فکر کنیم که آزادی فعلی به چه معناست. تا زمانی که این کار را انجام ندهیم مانند افراد هیستریکی عمل می‌کنیم که به گفته “ژاک لکان” روانکاو فرانسوی با ناامیدی به دنبال استادی می گردیم، اما تنها استادی که بتوانیم بر آن مسلط شویم.

“رای کورزویل” آینده پژوه پیش بینی می‌کند که به دلیل ماهیت تصاعدی پیشرفت فناوری ما به زودی با ماشین‌های “معنوی” روبرو خواهیم شد که نه تنها همه نشانه‌های خودآگاهی را نشان می‌دهند بلکه از هوش انسانی نیز بسیار فراتر می‌روند. با این وجود، نباید این موضع “پسا بشری” را با مشغله پارادایمی مدرن برای دستیابی به تسلط کامل تکنولوژیکی بر طبیعت اشتباه گرفت. در عوض آن چه ما تجربه می کنیم بازگشت دیالکتیکی این روند است.

علوم “پسا بشری” امروزی دیگر در مورد سلطه نیست. باور آن شگفت انگیز است: مدل‌های هوش مصنوعی “جعبه سیاه” چه نوع ویژگی‌های احتمالی و برنامه ریزی نشده‌ای را ممکن است برای خود به دست آورند؟ هیچ کس نمی‌داند، سادگی و هیجان خاصی در این باره نهفته است.

از این رو، در اوایل قرن حاضر “ژان پیر دوپوی” فیلسوف – مهندس فرانسوی در عرصه رباتیک، ژنتیک، فناوری نانو، حیات مصنوعی و هوش مصنوعی جدید وارونگی عجیبی از غرور سنتی انسان محور را تشخیص داد که فناوری آن را قادر می‌سازد.

او می‌گوید: “چگونه می‌توانیم توضیح دهیم که علم به یک فعالیت خطرناک تبدیل شده که به گفته برخی از دانشمندان برجسته امروزه تهدید اصلی برای بقای بشریت است؟ برخی از فیلسوفان در پاسخ به این پرسش می‌گویند که رویای دکارت یعنی ارباب و مالک طبیعت شدن اشتباه بوده و باید فورا به وضعیت “تسلط بر تسلط” بازگردیم. آنان چیزی نفهمیده اند. آنان نمی‌بینند که فناوری که از طریق همگرایی همه رشته‌ها در افق ما نمایان می‌شود و دقیقا هدف آن عدم تسلط است. مهندس فردا نه به سبب سهل انگاری یا نادانی بلکه از روی اختیار شاگرد جادوگر خواهد بود”.

بشریت در حال خلق خدا یا شیطان خود است. در حالی که نمی‌توان نتیجه را پیش بینی کرد یک چیز قطعی است: اگر چیزی شبیه “پسا انسانیت” به عنوان یک واقعیت جمعی پدیدار شود جهان بینی ما هر سه موضوع تعیین کننده و همپوش خود را از دست خواهد داد: انسانیت، طبیعت، و الوهیت. هویت ما به عنوان انسان تنها در برابر پس زمینه طبیعت غیر قابل نفوذ می‌تواند وجود داشته باشد، اما اگر زندگی به چیزی تبدیل شود که بتوان آن را به طور کامل توسط فناوری دستکاری کرد ویژگی “طبیعی” خود را از دست خواهد داد. هستی کاملا کنترل شده فاقد معناست، چه برسد به معجزه و خوشبختی.

البته همین امر برای هر حس الهی صادق است. تجربه انسان از «خدا» تنها از منظر محدودیت و فناپذیری انسان معنا دارد. به محض اینکه تبدیل به “انسان خداگونه” homo deus شدیم و ویژگی‌هایی را ایجاد کردیم که از دیدگاه انسانی قدیمی‌مان «ماوراء طبیعی» به نظر می‌رسند، «خدایان» همانطور که می‌دانستیم ناپدید می‌شوند. سوال این است که اگر چیزی باقی بماند چه چیزی باقی خواهد ماند. آیا ما هوش مصنوعی هایی را که ایجاد کرده ایم پرستش خواهیم کرد؟

دلایل زیادی برای نگرانی وجود دارد که بینش‌های فنی – شناختی جهان پسا بشری، خیال پردازی‌های ایدئولوژیکی هستند که ورطه‌ای را که در انتظار ماست مبهم می‌سازند. نیازی به گفتن نیست که بیش از شش ماه وقت لازم است تا اطمینان حاصل شود که انسان ها در آینده ای نه چندان دور بی ربط و زندگی آنها بی معنا نخواهد شد.

***

منبع: این مقاله در “پروژه سندیکایی” با عنوان اصلی بیابان پسا انسانی The Post-Human Desert منتشر شده است

https://akhbar-rooz.com/?p=199354 لينک کوتاه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

2 نظرات
تازه‌ترین
قدیمی‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
habib
habib
11 ماه قبل

مسئله ترس از دست دادن کنترل ثروت هاست اگر قرار باشد هوش مصنوعی بی طرفانه قضاوت و عمل کند

کیا
کیا
11 ماه قبل

“آن چه آنان می‌خواهند بحث عمومی جامعه نیست بلکه توافقی است بین دولت‌ها و شرکت‌های فناوری در مورد حفظ قدرت در جایی که متعلق به آنان می‌باشد”

دقیقا
مسئله تعیین “پاتنت” حق استفاده از این پیشرفت هاست ، نه خطر آن برای بشریت!
چون در تولید آن افراد و شرکت ها آزاد شرکت کرده اند.

هوش مصنویی هم مانند بقیه دست آورد های بشریت به طرز استفاده آن بستگی دارد ، اگر در خدمت طبقه خاصی قرار گیرد و نه در خدمت جامعه و همگان نتیجه منفی خواهد داشت ،در غیر اینصورت مثبت است.

صرف نظر از اینکه ،این احتمال هم موجود است که هوش مصنوعی خود مستقل شود و به دشمن انسان تبدیل گردد .

خبر اول سايت

آخرين مطالب سايت

مطالب پربيننده روز


2
0
افکار شما را دوست داریم، لطفا نظر دهید.x