تارنگاشت عدالت – دورۀ سوم

منبع: دمکراسی مردم
نویسنده: باپا سینها
۲ آوریل ۲۰۲۳

مدل‌های هوش مصنوعی: طوطی‌های تصادفی که تماشا می‌کنند؟

 

محبوبیت بی‌سابقه «چت جی.پی.تی» (ChatGPT)، سرعت ماشین تبلیغات مبالغه‌آمیز هوش مصنوعی را بالا برده است. ما روزانه با مقالات خبری بمباران می‌شویم که هوش مصنوعی (AI) را بزرگ‌ترین اختراع بشر اعلام می‌کنند. آن‌ها می‌گویند هوش مصنوعی «از لحاظ کیفی متفاوت است»، «دگرگون کننده»، «انقلابی» است. «همه چیز را تغییر خواهد داد». «هوش مصنوعی باز» (OpenAI)، شرکت پشت «چت جی.پی.تی»، بهبود عمده فناوری پشت «چت جی.پی.تی» را به نام «GPT4 » اعلام کرد. در حال حاضر، پژوهشگران «مایکروسافت» ادعا می‌کنند که «چت جی.پی.تی»، «جرقه‌های هوش عمومی مصنوعی» یا هوش شبیه انسان – جام مقدس پژوهش هوش مصنوعی را نشان می‌دهد. ادعاهای خارق‌العاده‌ای درباره رسیدن به نقطه «استثنایی هوش مصنوعی» وجود دارد که ماشین‌ها با هوش انسانی برابری می‌کنند و سپس از آن پیشی می‌گیرند. مطبوعات تجاری درباره از دست رفتن صدها میلیون شغل صحبت می ‌کنند، زیرا هوش مصنوعی در بسیاری از حرفه‌ها جایگزین انسان می‌شود. دیگران نگران یک آینده ‌علمی-تخیلی نزدیک هستند که در آن هوش مصنوعی ابر- هوشمند یاغی می‌شود و نوع بشر را نابود می‌کند یا به بردگی می‌کشد‌. آیا همه این پیش‌بینی‌ها مبتنی بر واقعیت می‌باشند یا این صرفاً تبلیغات مبالغه‌ آمیز صنعت فناوری و ماشین سرمایه خطرپذیر است که در فروش تبحر دارند؟

نسل کنونی مدل‌های هوش مصنوعی بر نوع خاصی از ابزارهای آماری به نام «شبکه‌های عصبی» (Neural Networks) مبتنی است. در حالی‌که اصطلاح «عصبی» تصاویری از یک مغز مصنوعی شبیه‌سازی شده با استفاده از تراشه‌های کامپیوتری را تداعی می‌کند، واقعیت هوش مصنوعی این است که شبکه‌های عصبی هیچ شباهتی به چگونگی کار واقعی مغز انسان ندارند. این به‌اصطلاح شبکه‌های عصبی هیچ شباهتی به شبکه نورون‌های مغز ندارند. با این حال، این اصطلاح یک دلیل اصلی برای رواج و استفاده گسترده از «شبکه‌های عصبی» مصنوعی علی‌رغم محدودیت‌ها و نقص‌های جدی آن بود.

الگوریتم‌های «آموختن ماشینی» که در حال حاضر مورد استفاده قرار می‌گیرند، بسط روش‌های آماری هستند که فاقد توجیه نظری برای بسط آن‌ها به این روش هستند. روش‌های آماری از مزیت سادگی برخوردارند. به راحتی می‌توان فهمید که چه کاری انجام می‌دهند و چه زمان و چرا کار می‌کنند. ‌آن‌ها با اطمینان‌‌دهی های ‌ریاضی، دال بر این‌که نتایج تجزیه و تحلیل آن‌ها با مجموعه‌ای از متغیرها و با فرض شرایط بسیار مشخص معنادار می‌باشند ارائه می‌شوند. از آن‌جا که جهان واقعی پیچیده است، آن شرایط هرگز وجود ندارند و در نتیجه پیش‌بینی‌های آماری به ندرت دقیق هستند. اقتصاددانان، اپیدمیولوژیست‌ها و آمارگران به این اذعان می‌نمایند و سپس از شهود یا استدلال غیررسمی برای کاربست آمار برای دریافت راهنمایی تقریبی برای اهداف مشخص در بسترهای بسیار مشخص استفاده می کنند. این هم‌چنین به نظارت منظم نیاز دارد، تا بررسی شود که آیا روش‌ها در طول زمان در شرایط متغیر به خوبی کار می‌کنند یا نه. این هشدارها اغلب نادیده گرفته شده و به استفاده نادرست از روش‌های آماری سنتی با عواقب فاجعه‌بار منجر می‌شوند، مانند بحران مالی بزرگ سال ۲۰۰۸ یا انفجار شرکت «مدیریت بلند مدت سرمایه» (Long-Term Capital Management) در سال ۱۹۹۸ که نظام مالی جهانی را تقریباً نابود گرد. نقل‌قول معروف مارک تواین «دروغ‌ها، دروغ‌ها و آمار لعنتی» را به یاد آورید.

یادگیری ماشینی متکی بر کنار گذاشتن کامل احتیاطی است که باید با استفاده خردمندانه از روش‌های آماری همراه باشد. جهان واقعی آشفته و پر هرج‌ومرج است و از این رو نمی‌توان با استفاده از روش‌های آماری سنتی از آن مدل‌ ساخت. بنابراین، پاسخ جهان هوش مصنوعی این است که هرگونه تلاش برای توجیه نظری پیرامون چرایی و چگونگی کارکرد این مدل‌های هوش مصنوعی را که بسیار پیچیده‌تر از روش‌های آماری سنتی هستند، کنار بگذاریم. رهایی از این محدودیت‌های اصولی، مدل هوش مصنوعی را «قدرتمندتر» می‌کند. آنها به طور موثر کاربست‌های ماهرانه و پیجیده برازش منحنی (Curve-Fitting) هستند که به طور تجربی با داده‌های مشاهده شده منطبق می‌شوند بدون این‌که ما روابط در پشت چرایی منطبق شدن آن‌ها با داده‌ها را درک کنیم.

اجازه بدهید موضوع بالا را با یک مثال ملموس اما ساده توصیح بدهیم. اگر ما در یک ظرف در حال گرم شدن حجم آب را اندازه بگیریم خواهیم دید که با افزایش دما حجم افزایش می‌یابد. اگر حجم را در هر ۱۰ درجه سانتیگراد افزایش دما، از مثلاً ۲۰ تا ۱۰۰ درجه سانتیگراد اندازه بگیریم، می‌توان حجم در دمایی که اندازه‌ نگرفته‌ایم ، مثلاً در ۳۵ درجه سانتیگراد را حدس زد. این روند درون‌یابی () نامیده می‌شود. یک آمارگر ممکن است فرض کند که حجم آب به صورت خطی با دما منبسط می‌شود و نتیجتاً حدس بزند که حجم آن در دمای ۳۵ درجه در میان حجم‌ در ۳۰ و در ۴۰ درجه سانتی‌گراد است. مشخص است که آب به صورت خطی منبسط نمی‌شود و بنابراین آمارگر ما ممکن است مجبور بشود منحنی بهتری برای برازش پیدا کند. یادگیری ماشینی این روند یافتن «منحنی‌های بهتر» را خودکار می‌کند. اگر درون‌یابی‌ها درباره داده‌ها تقریباً نزدیک به داده‌های آموزشی انجام شوند، پیش‌بینی‌ها بسیار خوب هستند. مشکل این است که جهان واقعی به طریق ریاضی «خوش رفتار» نیست. حتا در مثال ساده ما، اگر بخواهیم بر اساس مشاهدات گذشته حجم آب را نزدیک به نقطه انجماد آب، در صفر درجه سانتی‌گراد، پیش‌بینی کنیم، چه اتفاق می‌افتد؟ پیش‌بینی غلط خواهد بود زیرا گرچه حجم آب معمولاً با افزایش دما منبسط می‌شود، اما آب در دمای کم‌تر از ۴ درجه سانتی‌گراد با کاهش دما منبسط می‌شود. حدس‌هایی که فراتر از محدوده آموزشی هستند، برون‌یابی (Extrapolation) [تخمین مجهول از معلوم – عدالت] نامیده می‌شوند و می‌توانند بسیار فریبنده باشند. همانطور که دیده‌ایم پیش‌بینی در یک فضای مشخص براساس مشاهدات تجربی یا «داده‌های آموزشی»، بدون درک این‌که چرا کارها آنطور که می‌بینیم صورت می‌پذیرند، فریبنده است. مدل‌های هوش مصنوعی سعی می‌کنند آن‌را با نمونه‌برداری متراکم از فضا جبران کنند. مشکل در کارهایی مانند تشخیص تصاویر یا نوشتن جملات است، کل سپهر تبدیلات به طرز غیرقابل تصوری عظیم و عجیب است. و فضا به شدت غیرخطی است. به همین دلیل است که این مدل‌ها بر روی میلیون‌ها تصویر یا پتابایت از داده‌های حرفی و عددی که تقریباً کل اینترنت و کتاب‌های در دسترس عموم را پوشش می‌دهند، و بسیار بیش‌تر از چیزی که یک کودک مستلزم به آموختن آن است، آموزش داده می‌شوند.

بدون هیچ تئوری درباره این‌که چرا آن‌ها زمانی که کار می‌کنند کار می‌کنند، دانستن این که آیا برای وظائف مشخص مناسب خواهند بود و چه زمان و چگونه بطرز چشمگیری از کار خواهند ماند، غیرممکن است. هم‌چنین، با توجه به وظایف پیچیده‌ای که انجام می‌دهند، تشخیص این‌که آیا آن‌ها درست کار می‌کنند، یا برای تحمیق ناظران به اندازه کافی خوب هستند، بسیار دشوار است. و زمانی که به نظر می‌رسد کار می‌کنند، آیا این به دلیل همبستگی‌های جعلی در داده‌های آموزشی گسترده آن‌هاست.

اما، این نیز درست است که این مدل‌های هوش مصنوعی گاهی اوقات می‌توانند کارهایی را انجام دهند که هیچ فناوری دیگری قادر به انچام آن نیست. برخی نتایج ، به عنوان مثال، نوشته‌هایی که «چت جی.پی.تی» می‌تواند تولید کنند یا تصاویری که «دال-ئی» (DALL-E) می‌تواند بیافریند، شگفت آورند. این در شگفتی در مردم و ایجاد هیاهو فوق‌العاده است. دلیل این‌که آن‌ها «خیلی خوب» کار می‌کنند، مقادیر اعجاب انگیز داده‌های آموزشی است – به اندازه‌ای که تقریباً تمام متن‌ها و تصاویر آفریده شده بوسیله انسان را در بر می‌گیرد. حتا با این مقیاس از داده‌های آموزشی و میلیاردها پارامتر، مدل‌های هوش مصنوعی خود به خود کار نمی‌کنند، اما برای ایجاد نتایج مطلوب، به راه‌حل‌های موقتی با استفاده از هر آنچه که هست، نیاز دارند. این مدل‌ها را می‌توان با چرخاندن دستگیره‌هایی به نام هایپر-پارامتر،که هیچ توجیه تئوریکی ندارند و تأثیرات آن‌ها به خوبی شناخته نشده است، تنظیم کرد.

حتا با وجود همه سروصداها، مدل‌های هوش مصنوعی اغلب همبستگی‌های (Correlations) جعلی ایجاد می‌کنند، یعنی، آن‌ها به دلایل اشتباه کار می‌کنند. به عنوان مثال، گزارش شده است که بسیاری از مدل‌های بینایی با بهره‌برداری از همبستگی‌های مربوط به بافت، بستر، و زاویه تصویر و ویژگی‌های خاص کار می‌کنند. این مدل‌های هوش مصنوعی بینایی در موقعیت‌های کنترل‌نشده نتایج بدی به دست می‌دهند. به عنوان مثال، یک مبل دارای طرح پلنگ، به عنوان یک پلنگ شناسایی می‌شود، مدل‌ها زمانی‌که مقدار اندکی پارازیت غیرقابل تشخیص بوسیله انسان به تصویر یا تصاویر اضافه شود، مثلاً درمورد چرخاندن تصویر یک خودروی وارونه شده در اثر تصادف، کار نمی‌کنند. از سوی دیگر، تصاویر سفید شده در داخل، در حالی‍‌که مرزها و پس زمینه اشیاء دست نخورده باقی می‌مانند به درستی شناسایی می شوند. «چت جی.پی.تی» با وجود تمام نثرها، شعرها و مقالات تاثیرگذارش، حتا اکنون پس از تمام تغییراتی که بر کنش متقابل با میلیون‌ها مشترک روی آن انجام شده است، هنوز نمی‌تواند ضرب ساده دو عدد بزرگ را انجام که در حد توانایی یک دانش‌آموز دوره متوسطه یا یک ماشین حساب از دهه ۱۹۷۰ است، انجام دهد.

مدل‌های هوش مصنوعی واقعاً هیچ سطحی از شناخت انسان‌-وار را ندارند، اما ، با تکرار طوطی‌وار گنجینه وسیعی از متن‌هایی که بلعیده‌اند، در تقلید و در تحمیق مردم به این باور که باهوشند، عالی هستند. به همین دلیل است که امیلی بندر، زبان‌شناس محاسباتی، در مقاله‌ای در سال ۲۰۲۱، «مدل‌های بزرگ زبان» مانند «چت جی.پی.تی»، «بارت» (BART) و «برت» (BERT) گوگل را «طوطی‌های تصادفی» نامید. از نویسندگان همکار او در گوگل – تیمنیت گبرو و مارگارت میچل – خواسته شد تا نام خود را از مقاله بردارند. هنگامی که آن‌ها امتناع کردند، گوگل آن‌ها را اخراج کرد.

انتقاد فقط نسبت به مدل‌های بزرگ کنونی زبان نیست، بلکه به کل پارادایم تلاش برای توسعه هوش مصنوعی از طریق همبستگی‌های آماری موقتی است. ما فقط با دانستن متبحر نمی‌شویم، تبحر با عمل، با دیدن این‌که چه چیز کار می‌کند و چه چیز کار نمی‌کند، بدست می‌آید. این حتا برای کارهای صرفاً فکری مانند خواندن و نوشتن،حتا برای رشته‌های رسمی مانند ریاضیات نیز صادق است، شخص نمی‌تواند بدون تمرین ریاضیات در آن موفق شود. این مدل‌های هوش مصنوعی از خود هیچ هدفی ندارند. بنابراین آن‌ها نمی‌توانند معنی را درک کنند یا متن یا تصاویر معنی‌دار تولید نمایند. بسیاری از منتقدان هوش مصنوعی استدلال کرده‌اند که هوش واقعی مستلزم «قرار داشتن در موقعیت» اجتماعی است.

‌ انجام کارهای فیزیکی در جهان واقعی مستلزم سر و کار داشتن با پیچیدگی، غیرخطی بودن و هرج‌و‌مرج است. این هم‌چنین مستلزم عمل واقعی به آن کارها است. به همین دلیل است که پیشرفت در رباتیک بسیار کند بوده است: ربات‌های کنونی فقط می‌توانند کارهای تکراری ثابتی را انجام دهند که در برگیرنده اجسام سفت و سخت یکسان، مانند خط مونتاژ است. حتا پس از سرو صدا درباره خودروهای بدون راننده و بودجه‌های هنگفت برای تحقیقات در آن زمینه، رانندگی کاملاً خودکار هنوز در آینده نزدیک امکان‌پذیر به نظر نمی‌رسد. شاید عجیب به نظر برسد که به جای جایگزین شدن مشاغل یقه آبی، آنطور که به طور گسترده انتظار می‌رفت، مشاغل یقه سفید خاصی مانند پیاده کردن گفتار به نوشتار، انجام ترجمه قابل قبول زبان یا مراکز کاریابی تلفنی به احتمال زیاد با هوش مصنوعی جایگزین ‌شوند.

توسعه کنونی هوش مصنوعی مبتنی بر تشخیص همبستگی‌های آماری با استفاده از «شبکه‌های عصبی» که بمثابه جعبه‌های سیاه در نظر گرفته می‌شوند، به یک افسانه شبه-عملی آفرینش هوش به هزینه توسعه یک شناخت علمی از چگونگی و چرایی کار این شبکه‌ها و ملاحظات مهندسی پیرامون چگونگی ایمن، قابل اعتماد و محفوظ نمودن آن‌ها در برابر حماقت، دامن می‌زند.‌ به جای این، آن‌ها بر روی عینک‌هایی مانند آفرینش نمایش‌های گیرا و امتیازدهی در آزمون‌های استاندارد شده بر اساس داده‌های حفظ شده تاکید می‌کنند.

آگهی‌های تجاری، هدف قرار دادن خریداران برای رسانه‌های اجتماعی و پلاتفرم های پخش ویدئو، تنها موارد قابل‌توجه استفاده تجاری از نسخه‌های کنونی هوش مصنوعی است. این به یک درجه بالای اطمینانی که از دیگر راه‌حل‌های مهندسی انتظار می‌رود، نیاز ندارد، آن‌ها فقط باید «بقدر کافی خوب» باشند. و با وجود این‌که تخریبی را که الگوریتم‌های رسانه‌های اجتماعی از طریق انتشار اخبار جعلی و ایجاد حباب‌های فیلتری پر از نفرت ایجاد کرده‌اند می‌شناسیم، تولید بد را نمی‌توان در چهارچوب قانونی موجود مجازات کرد.

در کل این چشم‌انداز تیره استثنایی بودن هوش مصنوعی، ترس از هوش مصنوعی اَبر- هوشمند کینه‌توزی که بشریت را نابود می‌کند، یک نکته امیدوار کننده وجود داشتیه باشد. اگرچه این برای فقرا، اقلیت‌های قومی و مذهبی، برای قربانیان «سیستم‌های تصمیم‌گیری هوش مصنوعی» مایه تسلی نیست. ما در حال حاضر نمونه‌های متعددی از سیستم‌های تصمیم‌گیری هوش مصنوعی در سرتاسر جهان داریم که مطالبه قانونی خسارت از شرکت‌های بیمه، مزایای پزشکی و بستری و مزایای رفاه دولتی را رد می‌کنند. سیستم‌های هوش مصنوعی در ایالات متحده در حبس اقلیت‌ها تا مدت‌های طولانی‌تر دخیل بوده‌اند. حتا گزارش‌هایی مبنی بر سلب حقوق حضانت از والدین در اقلیت‌های نژادی بر اساس همبستگی‌های آماری جعلی که اغلب به نداشتن پول کافی برای تغذیه و مراقبت از فرزندانشان خلاصه می‌شود،و البته در مورد ترویج سخنان نفرت‌انگیز در رسانه های اجتماعی، گزارش شده است. نوام چامسکی، زبان‌شناس معروف، اخیراً در مقاله‌‌ای نوشت: ««چت جی.پی.تی. چیزی شبیه ابتذال شیطان را به نمایش می‌گذارد: سرقت ادبی و بی‌تفاوتی و از سر راه برداشتن.»

https://peoplesdemocracy.in/2023/0402_pd/ai-models-stochastic-parrots-doing-tamasha