تارنگاشت عدالت – دورۀ سوم
منبع: دمکراسی مردم
نویسنده: باپا سینها
۲ آوریل ۲۰۲۳
مدلهای هوش مصنوعی: طوطیهای تصادفی که تماشا میکنند؟
محبوبیت بیسابقه «چت جی.پی.تی» (ChatGPT)، سرعت ماشین تبلیغات مبالغهآمیز هوش مصنوعی را بالا برده است. ما روزانه با مقالات خبری بمباران میشویم که هوش مصنوعی (AI) را بزرگترین اختراع بشر اعلام میکنند. آنها میگویند هوش مصنوعی «از لحاظ کیفی متفاوت است»، «دگرگون کننده»، «انقلابی» است. «همه چیز را تغییر خواهد داد». «هوش مصنوعی باز» (OpenAI)، شرکت پشت «چت جی.پی.تی»، بهبود عمده فناوری پشت «چت جی.پی.تی» را به نام «GPT4 » اعلام کرد. در حال حاضر، پژوهشگران «مایکروسافت» ادعا میکنند که «چت جی.پی.تی»، «جرقههای هوش عمومی مصنوعی» یا هوش شبیه انسان – جام مقدس پژوهش هوش مصنوعی را نشان میدهد. ادعاهای خارقالعادهای درباره رسیدن به نقطه «استثنایی هوش مصنوعی» وجود دارد که ماشینها با هوش انسانی برابری میکنند و سپس از آن پیشی میگیرند. مطبوعات تجاری درباره از دست رفتن صدها میلیون شغل صحبت می کنند، زیرا هوش مصنوعی در بسیاری از حرفهها جایگزین انسان میشود. دیگران نگران یک آینده علمی-تخیلی نزدیک هستند که در آن هوش مصنوعی ابر- هوشمند یاغی میشود و نوع بشر را نابود میکند یا به بردگی میکشد. آیا همه این پیشبینیها مبتنی بر واقعیت میباشند یا این صرفاً تبلیغات مبالغه آمیز صنعت فناوری و ماشین سرمایه خطرپذیر است که در فروش تبحر دارند؟
نسل کنونی مدلهای هوش مصنوعی بر نوع خاصی از ابزارهای آماری به نام «شبکههای عصبی» (Neural Networks) مبتنی است. در حالیکه اصطلاح «عصبی» تصاویری از یک مغز مصنوعی شبیهسازی شده با استفاده از تراشههای کامپیوتری را تداعی میکند، واقعیت هوش مصنوعی این است که شبکههای عصبی هیچ شباهتی به چگونگی کار واقعی مغز انسان ندارند. این بهاصطلاح شبکههای عصبی هیچ شباهتی به شبکه نورونهای مغز ندارند. با این حال، این اصطلاح یک دلیل اصلی برای رواج و استفاده گسترده از «شبکههای عصبی» مصنوعی علیرغم محدودیتها و نقصهای جدی آن بود.
الگوریتمهای «آموختن ماشینی» که در حال حاضر مورد استفاده قرار میگیرند، بسط روشهای آماری هستند که فاقد توجیه نظری برای بسط آنها به این روش هستند. روشهای آماری از مزیت سادگی برخوردارند. به راحتی میتوان فهمید که چه کاری انجام میدهند و چه زمان و چرا کار میکنند. آنها با اطمیناندهی های ریاضی، دال بر اینکه نتایج تجزیه و تحلیل آنها با مجموعهای از متغیرها و با فرض شرایط بسیار مشخص معنادار میباشند ارائه میشوند. از آنجا که جهان واقعی پیچیده است، آن شرایط هرگز وجود ندارند و در نتیجه پیشبینیهای آماری به ندرت دقیق هستند. اقتصاددانان، اپیدمیولوژیستها و آمارگران به این اذعان مینمایند و سپس از شهود یا استدلال غیررسمی برای کاربست آمار برای دریافت راهنمایی تقریبی برای اهداف مشخص در بسترهای بسیار مشخص استفاده می کنند. این همچنین به نظارت منظم نیاز دارد، تا بررسی شود که آیا روشها در طول زمان در شرایط متغیر به خوبی کار میکنند یا نه. این هشدارها اغلب نادیده گرفته شده و به استفاده نادرست از روشهای آماری سنتی با عواقب فاجعهبار منجر میشوند، مانند بحران مالی بزرگ سال ۲۰۰۸ یا انفجار شرکت «مدیریت بلند مدت سرمایه» (Long-Term Capital Management) در سال ۱۹۹۸ که نظام مالی جهانی را تقریباً نابود گرد. نقلقول معروف مارک تواین «دروغها، دروغها و آمار لعنتی» را به یاد آورید.
یادگیری ماشینی متکی بر کنار گذاشتن کامل احتیاطی است که باید با استفاده خردمندانه از روشهای آماری همراه باشد. جهان واقعی آشفته و پر هرجومرج است و از این رو نمیتوان با استفاده از روشهای آماری سنتی از آن مدل ساخت. بنابراین، پاسخ جهان هوش مصنوعی این است که هرگونه تلاش برای توجیه نظری پیرامون چرایی و چگونگی کارکرد این مدلهای هوش مصنوعی را که بسیار پیچیدهتر از روشهای آماری سنتی هستند، کنار بگذاریم. رهایی از این محدودیتهای اصولی، مدل هوش مصنوعی را «قدرتمندتر» میکند. آنها به طور موثر کاربستهای ماهرانه و پیجیده برازش منحنی (Curve-Fitting) هستند که به طور تجربی با دادههای مشاهده شده منطبق میشوند بدون اینکه ما روابط در پشت چرایی منطبق شدن آنها با دادهها را درک کنیم.
اجازه بدهید موضوع بالا را با یک مثال ملموس اما ساده توصیح بدهیم. اگر ما در یک ظرف در حال گرم شدن حجم آب را اندازه بگیریم خواهیم دید که با افزایش دما حجم افزایش مییابد. اگر حجم را در هر ۱۰ درجه سانتیگراد افزایش دما، از مثلاً ۲۰ تا ۱۰۰ درجه سانتیگراد اندازه بگیریم، میتوان حجم در دمایی که اندازه نگرفتهایم ، مثلاً در ۳۵ درجه سانتیگراد را حدس زد. این روند درونیابی () نامیده میشود. یک آمارگر ممکن است فرض کند که حجم آب به صورت خطی با دما منبسط میشود و نتیجتاً حدس بزند که حجم آن در دمای ۳۵ درجه در میان حجم در ۳۰ و در ۴۰ درجه سانتیگراد است. مشخص است که آب به صورت خطی منبسط نمیشود و بنابراین آمارگر ما ممکن است مجبور بشود منحنی بهتری برای برازش پیدا کند. یادگیری ماشینی این روند یافتن «منحنیهای بهتر» را خودکار میکند. اگر درونیابیها درباره دادهها تقریباً نزدیک به دادههای آموزشی انجام شوند، پیشبینیها بسیار خوب هستند. مشکل این است که جهان واقعی به طریق ریاضی «خوش رفتار» نیست. حتا در مثال ساده ما، اگر بخواهیم بر اساس مشاهدات گذشته حجم آب را نزدیک به نقطه انجماد آب، در صفر درجه سانتیگراد، پیشبینی کنیم، چه اتفاق میافتد؟ پیشبینی غلط خواهد بود زیرا گرچه حجم آب معمولاً با افزایش دما منبسط میشود، اما آب در دمای کمتر از ۴ درجه سانتیگراد با کاهش دما منبسط میشود. حدسهایی که فراتر از محدوده آموزشی هستند، برونیابی (Extrapolation) [تخمین مجهول از معلوم – عدالت] نامیده میشوند و میتوانند بسیار فریبنده باشند. همانطور که دیدهایم پیشبینی در یک فضای مشخص براساس مشاهدات تجربی یا «دادههای آموزشی»، بدون درک اینکه چرا کارها آنطور که میبینیم صورت میپذیرند، فریبنده است. مدلهای هوش مصنوعی سعی میکنند آنرا با نمونهبرداری متراکم از فضا جبران کنند. مشکل در کارهایی مانند تشخیص تصاویر یا نوشتن جملات است، کل سپهر تبدیلات به طرز غیرقابل تصوری عظیم و عجیب است. و فضا به شدت غیرخطی است. به همین دلیل است که این مدلها بر روی میلیونها تصویر یا پتابایت از دادههای حرفی و عددی که تقریباً کل اینترنت و کتابهای در دسترس عموم را پوشش میدهند، و بسیار بیشتر از چیزی که یک کودک مستلزم به آموختن آن است، آموزش داده میشوند.
بدون هیچ تئوری درباره اینکه چرا آنها زمانی که کار میکنند کار میکنند، دانستن این که آیا برای وظائف مشخص مناسب خواهند بود و چه زمان و چگونه بطرز چشمگیری از کار خواهند ماند، غیرممکن است. همچنین، با توجه به وظایف پیچیدهای که انجام میدهند، تشخیص اینکه آیا آنها درست کار میکنند، یا برای تحمیق ناظران به اندازه کافی خوب هستند، بسیار دشوار است. و زمانی که به نظر میرسد کار میکنند، آیا این به دلیل همبستگیهای جعلی در دادههای آموزشی گسترده آنهاست.
اما، این نیز درست است که این مدلهای هوش مصنوعی گاهی اوقات میتوانند کارهایی را انجام دهند که هیچ فناوری دیگری قادر به انچام آن نیست. برخی نتایج ، به عنوان مثال، نوشتههایی که «چت جی.پی.تی» میتواند تولید کنند یا تصاویری که «دال-ئی» (DALL-E) میتواند بیافریند، شگفت آورند. این در شگفتی در مردم و ایجاد هیاهو فوقالعاده است. دلیل اینکه آنها «خیلی خوب» کار میکنند، مقادیر اعجاب انگیز دادههای آموزشی است – به اندازهای که تقریباً تمام متنها و تصاویر آفریده شده بوسیله انسان را در بر میگیرد. حتا با این مقیاس از دادههای آموزشی و میلیاردها پارامتر، مدلهای هوش مصنوعی خود به خود کار نمیکنند، اما برای ایجاد نتایج مطلوب، به راهحلهای موقتی با استفاده از هر آنچه که هست، نیاز دارند. این مدلها را میتوان با چرخاندن دستگیرههایی به نام هایپر-پارامتر،که هیچ توجیه تئوریکی ندارند و تأثیرات آنها به خوبی شناخته نشده است، تنظیم کرد.
حتا با وجود همه سروصداها، مدلهای هوش مصنوعی اغلب همبستگیهای (Correlations) جعلی ایجاد میکنند، یعنی، آنها به دلایل اشتباه کار میکنند. به عنوان مثال، گزارش شده است که بسیاری از مدلهای بینایی با بهرهبرداری از همبستگیهای مربوط به بافت، بستر، و زاویه تصویر و ویژگیهای خاص کار میکنند. این مدلهای هوش مصنوعی بینایی در موقعیتهای کنترلنشده نتایج بدی به دست میدهند. به عنوان مثال، یک مبل دارای طرح پلنگ، به عنوان یک پلنگ شناسایی میشود، مدلها زمانیکه مقدار اندکی پارازیت غیرقابل تشخیص بوسیله انسان به تصویر یا تصاویر اضافه شود، مثلاً درمورد چرخاندن تصویر یک خودروی وارونه شده در اثر تصادف، کار نمیکنند. از سوی دیگر، تصاویر سفید شده در داخل، در حالیکه مرزها و پس زمینه اشیاء دست نخورده باقی میمانند به درستی شناسایی می شوند. «چت جی.پی.تی» با وجود تمام نثرها، شعرها و مقالات تاثیرگذارش، حتا اکنون پس از تمام تغییراتی که بر کنش متقابل با میلیونها مشترک روی آن انجام شده است، هنوز نمیتواند ضرب ساده دو عدد بزرگ را انجام که در حد توانایی یک دانشآموز دوره متوسطه یا یک ماشین حساب از دهه ۱۹۷۰ است، انجام دهد.
مدلهای هوش مصنوعی واقعاً هیچ سطحی از شناخت انسان-وار را ندارند، اما ، با تکرار طوطیوار گنجینه وسیعی از متنهایی که بلعیدهاند، در تقلید و در تحمیق مردم به این باور که باهوشند، عالی هستند. به همین دلیل است که امیلی بندر، زبانشناس محاسباتی، در مقالهای در سال ۲۰۲۱، «مدلهای بزرگ زبان» مانند «چت جی.پی.تی»، «بارت» (BART) و «برت» (BERT) گوگل را «طوطیهای تصادفی» نامید. از نویسندگان همکار او در گوگل – تیمنیت گبرو و مارگارت میچل – خواسته شد تا نام خود را از مقاله بردارند. هنگامی که آنها امتناع کردند، گوگل آنها را اخراج کرد.
انتقاد فقط نسبت به مدلهای بزرگ کنونی زبان نیست، بلکه به کل پارادایم تلاش برای توسعه هوش مصنوعی از طریق همبستگیهای آماری موقتی است. ما فقط با دانستن متبحر نمیشویم، تبحر با عمل، با دیدن اینکه چه چیز کار میکند و چه چیز کار نمیکند، بدست میآید. این حتا برای کارهای صرفاً فکری مانند خواندن و نوشتن،حتا برای رشتههای رسمی مانند ریاضیات نیز صادق است، شخص نمیتواند بدون تمرین ریاضیات در آن موفق شود. این مدلهای هوش مصنوعی از خود هیچ هدفی ندارند. بنابراین آنها نمیتوانند معنی را درک کنند یا متن یا تصاویر معنیدار تولید نمایند. بسیاری از منتقدان هوش مصنوعی استدلال کردهاند که هوش واقعی مستلزم «قرار داشتن در موقعیت» اجتماعی است.
انجام کارهای فیزیکی در جهان واقعی مستلزم سر و کار داشتن با پیچیدگی، غیرخطی بودن و هرجومرج است. این همچنین مستلزم عمل واقعی به آن کارها است. به همین دلیل است که پیشرفت در رباتیک بسیار کند بوده است: رباتهای کنونی فقط میتوانند کارهای تکراری ثابتی را انجام دهند که در برگیرنده اجسام سفت و سخت یکسان، مانند خط مونتاژ است. حتا پس از سرو صدا درباره خودروهای بدون راننده و بودجههای هنگفت برای تحقیقات در آن زمینه، رانندگی کاملاً خودکار هنوز در آینده نزدیک امکانپذیر به نظر نمیرسد. شاید عجیب به نظر برسد که به جای جایگزین شدن مشاغل یقه آبی، آنطور که به طور گسترده انتظار میرفت، مشاغل یقه سفید خاصی مانند پیاده کردن گفتار به نوشتار، انجام ترجمه قابل قبول زبان یا مراکز کاریابی تلفنی به احتمال زیاد با هوش مصنوعی جایگزین شوند.
توسعه کنونی هوش مصنوعی مبتنی بر تشخیص همبستگیهای آماری با استفاده از «شبکههای عصبی» که بمثابه جعبههای سیاه در نظر گرفته میشوند، به یک افسانه شبه-عملی آفرینش هوش به هزینه توسعه یک شناخت علمی از چگونگی و چرایی کار این شبکهها و ملاحظات مهندسی پیرامون چگونگی ایمن، قابل اعتماد و محفوظ نمودن آنها در برابر حماقت، دامن میزند. به جای این، آنها بر روی عینکهایی مانند آفرینش نمایشهای گیرا و امتیازدهی در آزمونهای استاندارد شده بر اساس دادههای حفظ شده تاکید میکنند.
آگهیهای تجاری، هدف قرار دادن خریداران برای رسانههای اجتماعی و پلاتفرم های پخش ویدئو، تنها موارد قابلتوجه استفاده تجاری از نسخههای کنونی هوش مصنوعی است. این به یک درجه بالای اطمینانی که از دیگر راهحلهای مهندسی انتظار میرود، نیاز ندارد، آنها فقط باید «بقدر کافی خوب» باشند. و با وجود اینکه تخریبی را که الگوریتمهای رسانههای اجتماعی از طریق انتشار اخبار جعلی و ایجاد حبابهای فیلتری پر از نفرت ایجاد کردهاند میشناسیم، تولید بد را نمیتوان در چهارچوب قانونی موجود مجازات کرد.
در کل این چشمانداز تیره استثنایی بودن هوش مصنوعی، ترس از هوش مصنوعی اَبر- هوشمند کینهتوزی که بشریت را نابود میکند، یک نکته امیدوار کننده وجود داشتیه باشد. اگرچه این برای فقرا، اقلیتهای قومی و مذهبی، برای قربانیان «سیستمهای تصمیمگیری هوش مصنوعی» مایه تسلی نیست. ما در حال حاضر نمونههای متعددی از سیستمهای تصمیمگیری هوش مصنوعی در سرتاسر جهان داریم که مطالبه قانونی خسارت از شرکتهای بیمه، مزایای پزشکی و بستری و مزایای رفاه دولتی را رد میکنند. سیستمهای هوش مصنوعی در ایالات متحده در حبس اقلیتها تا مدتهای طولانیتر دخیل بودهاند. حتا گزارشهایی مبنی بر سلب حقوق حضانت از والدین در اقلیتهای نژادی بر اساس همبستگیهای آماری جعلی که اغلب به نداشتن پول کافی برای تغذیه و مراقبت از فرزندانشان خلاصه میشود،و البته در مورد ترویج سخنان نفرتانگیز در رسانه های اجتماعی، گزارش شده است. نوام چامسکی، زبانشناس معروف، اخیراً در مقالهای نوشت: ««چت جی.پی.تی. چیزی شبیه ابتذال شیطان را به نمایش میگذارد: سرقت ادبی و بیتفاوتی و از سر راه برداشتن.»
https://peoplesdemocracy.in/2023/0402_pd/ai-models-stochastic-parrots-doing-tamasha