امید واهی چت جی پی تی (دیدگاه نوآم چامسی)

امید واهی چت جی پی تی (دیدگاه نوآم چامسی)

خورخه لوئیس بورخس می­‌گوید زندگی در زمانه بیم‌­ها و امیدهای بزرگ تجربه کردن همزمان تراژدی و کمدی است؛ در آستانه آشکارگی در فهم خویشتن و جهان. امروز پیشرفت­‌های انقلابی در زمینه هوش مصنوعی براستی مسبب همزمان نگرانی و خوش‌بینی است. خوش‌بینی به این خاطر که هوش مصنوعی ابزاری است که بدان وسیله مسائل را حل می‌­کنیم و نگرانی از آن جهت که می­‌ترسیم شاخه بسیار رایج و محبوب یادگیری ماشینی یعنی هوش مصنوعی، علم ما را بی‌­ارزش کند و با به کار بردن مفهوم اساساً معیوبی از زبان و دانش در تکنولوژی اصول اخلاقی ما را زیرسوال ببرد.

هوش مصنوعی

چت جی پی تی اوپن ای آی (OpenAI’s ChatGPT) و بارد گوگل (Google’s bard) و سیدنی مایکروسافت (Microsoft Sydney) از جمله شگفتی­‌های یادگیری ماشینی هستند. به طور کلی این ماشین­‌ها حجم عظیمی از داده‌­ها را می­‌گیرند و به جستجوی الگویی در آن می­‌پردازند و به طور فزاینده در تولید خروجی­‌هایی که از نظر آماری محتمل هستند، ورزیده می‌شوند؛ خروجی­‌هایی که بسیار شبیه به زبان و تفکر انسان می­‌نمایند. این برنامه­‌ها نخستین کورسویی هستند در افق هوش مصنوعی عمومی که درباره آن بسیار پیشتر پیش‌گویی شده بود؛ آن لحظه‌ای که ذهن­‌های مکانیکی نه تنها از نقطه نظر کمی برحسب سرعت پردازش و اندازه حافظه بلکه از نقطه نظر کیفی برحسب بینش متفکرانه و خلاقیت هنری و دیگر قوه­‌های متمایز انسانی از مغز انسان پیشی می‌­گیرند.

آن روز شاید از راه برسد اما هنوز پگاه آن نیز سربرنیاورده است؛ برعکسِ آنچه ممکن است در سرخط های خبری غلوآمیز خوانده شود یا در سرمایه­‌گذاری‌های نسنجیده به حساب آید. آشکارگیِ بورخسیِ فهم، هر چقدر هم که ماشین­‌های یادگیری مانند چت جی پی تی بر قلمروی هوش مصنوعی چیره شوند، برایشان رخ نمی‌­دهد و نخواهد داد و ما تاکید می‌­کنیم که نمی‌تواند رخ دهد. هر چقدر هم که این برنامه­‌ها در قلمروهای محدودی کاربردی و مفید باشند (مثلاً در نوشتن برنامه­‌های کامپیوتری یا شعرهای موزون سبک)، فلسفه علم و علم زبان‌شناسی به ما می­‌گوید که بن­ مایه­ آن‌ها چقدر با روش تعقل انسان و به کار بردن زبان توسط او تفاوت دارد. این تفاوت­‌ها محدودیت­‌های مهمی بر توانایی این برنامه­‌ها وضع کرده و کاستی­‌های نازدودنی­شان را آشکار می­‌کند.

این مطلب همزمان طنزآلود و سوگ‌اندود است که چه سرمایه و تمرکز عظیمی هزینه پدیده‌­ای چنین بی­‌اهمیت می‌­شود. وقتی آن را در برابر ذهن انسان می­‌نهیم که با نیروی زبان، آن‌گونه که ویلهلم فون هومبولت بیان می‌­کند، می‌­تواند برای خلق ایده‌ها و نظریه‌­ها «کاربرد نامحدودی از ابزارهای محدود» برای دسترسی جهانی ایجاد کند.

چت جی پی تی نه ذهن انسان است و نه گونه‌­ای از آن، که صرفاً موتور پرسروصدایی است که آماری برای تطبیق الگوها، بلعیدن صدها ترابایت داده و برون­‌یابی محتمل­‌ترین واکنش در یک گفتگو یا محتمل‌­ترین پاسخ به پرسشی علمی را ارائه می‌دهد. برعکس، ذهن انسان نظامی است که به طرز شگفت­‌انگیزی کارآمد و حتی ظریف است که با مقدار اندکی از اطلاعات کار می‌­کند. مغز انسان به دنبال استنباط همبستگی­‌های کور میان داده­‌ها نیست، بلکه در پی توضیح پدیده­‌هاست.

به عنوان مثال، کودک با داده‌های اندکی ناخودآگاه، خودکار و سریع دستور زبان یعنی نظام پیچیده شگرفی از اصول و پارامترهای منطقی را فرا می‌­گیرد. این دستور را می­‌توان به منزله بیان ذاتی و ژنتیکی سیستم عاملی فهمید که به انسان ظرفیت تولید جمله‌های پیچیده و رشته‌­های طولانی افکار را می­‌بخشد. وقتی زبان‌شناسان روی این مطلب تحقیق می­‌کنند که چرا یک زبان مفروض بدین شکل کار می­‌کند (یعنی چرا مثلاً جمله‌ها به شکل خاصی دستوری هستند اما شکل­‌های دیگر آن‌ها دستوری نیستند؟ یا رابطه بین معنا و صورت چگونه است؟) در واقع دارند نسخه صریحی از دستور را آگاهانه و توان‌فرسایانه می­‌سازند که کودک غریزی­‌وار و با روبه­‌رو شدن با کمترین داده‌ها به­ کار می‌­برد. سیستم عامل کودک کاملاً با سیستم عامل برنامه یادگیری ماشینی متفاوت است.

در واقع چنین برنامه‌هایی در مرحله پیش انسانی یا ناانسانی تکامل شناختی قرار دارند. ژرف­‌ترین شکاف، نبودِ حیاتی‌ترین ظرفیت هر هوشی است: گفتن اینکه نه تنها مطلب چه بوده و چیست و چه خواهد بود (یعنی توصیف و پیش‌­بینی)، بلکه گفتن اینکه مطلب چه نیست و چه چیزی می­‌تواند یا نمی‌­تواند باشد. این‌ها اجزای توضیح هستند؛ نشانه­ یک هوش حقیقی.

برای مثال فرض کنید یک سیب در دستانتان نگهداشته‌اید. اکنون آن را رها می­‌کنید. نتیجه را مشاهده می‌­کنید و می­‌گویید:«سیب می­‌افتد». این کار، توصیف است. پیش­‌بینی می­‌تواند چنین گزاره‌­ای باشد: «اگر دستم را باز کنم، سیب می­‌افتد». هر دو گزاره، دارای ارزش هستند و می­‌توانند درست باشند، اما توضیح چیزی بیش از این است؛ توضیح نه تنها شامل توصیف و پیش‌­بینی است، بلکه گمانه‌زنی­‌هایی بدون در دست داشتن شواهد متقن نظیر «هر شیء این‌چنینی خواهد افتاد» به علاوه عبارت «به علت نیروی جاذبه» یا «به علت خمیدگی فضا-زمان» یا هر عبارت دیگری. این توضیح ناظر به علت است: «سیب ممکن نبود بیفتد مگر با نیروی جاذبه»؛ این تفکر است.

مهم‌ترین مسئله یادگیری ماشینی توصیف و پیش‌­بینی است. این سیستم سازوکاری علی-معلولی یا قانون فیزیکی مطرح نمی‌­کند. البته هر توضیح انسانی الزاماً درست نیست. ما جایزالخطا هستیم. اما این بخشی از همان چیزی است که تفکر می‌کنیم. برای درست بودن باید نادرست بودن هم ممکن باشد. هوش هم شامل گمانه‌زنی خلاقانه و هم شامل نقادی خلاقانه است. تفکر انسانی بر مبنای توضیح­‌های ممکن و اصلاح خطاست، فرایندی که به تدریج امکان­‌هایی را محدود می­‌کند که می­‌توانستند بطور عقلانی در نظر گرفته شوند (همان‌طور که شرلوک هولمز به دکتر واتسون می­‌گفت هرگاه ناممکن­‌ها حذف شوند، آنچه باقی می‌­ماند، هرچه قدر هم که نامحتمل به نظر برسد، باید حقیقت باشد).

اما چت جی پی تی و برنامه‌های مشابه هر آنقدر هم که از نقطه نظر طراحی، در آنچه می­‌توانند یاد بگیرند (که باید گفت در آنچه می­‌توانند حفظ کنند) نامحدود باشند، در تمایز نهادن بین ممکن از ناممکن ناتوانند. برای مثال، برخلاف انسان‌ها که دارای دستور زبانی جهانی هستند که زبان‌هایی که ما می‌توانیم یاد بگیریم را محدود به آن‌هایی می‌کند که دارای نوع خاصی از ظرافت تقریباً ریاضی­‌وار هستند، این برنامه‌ها زبان‌های ممکن و ناممکن انسانی را با سهولت یکسان یاد می‌گیرند. در حالی که انسان‌ها در انواع توضیحاتی که می‌توانیم عقلاً حدس بزنیم محدود هستند، سیستم‌های یادگیری ماشینی می‌توانند هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آن‌ها صرفاً با احتمالاتی کار می‌کنند که در طول زمان تغییر می‌کنند.

به همین دلیل، پیش‌بینی‌های سیستم‌های یادگیری ماشین همیشه سطحی و مشکوک خواهند بود. از آنجایی که این برنامه‌ها نمی‌توانند قواعد نحو انگلیسی را توضیح دهند، برای مثال، ممکن است به اشتباه پیش‌بینی کنند که جمله­ «جان برای صحبت کردن خیلی سرسخت است» به این معنی است که جان آنقدر سرسخت است که با کسی صحبت نمی‌کند (به جای «او سرسخت‌تر از آن است که بتوان با او بحث کرد»). چرا یک برنامه یادگیری ماشینی چنین چیز عجیبی را پیش‌بینی می‌کند؟ زیرا ممکن است این جمله‌ها را با الگویی قیاس کند که از جملاتی مانند «جان سیب خورد» و «جان خورد» برداشته، که در آن دومی به این معنی است که جان چیزی خورده است، یعنی مفعول در آن به قرینه حذف شده است. برنامه ممکن است به خوبی پیش‌بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان سیب خورد» است، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد» باید شبیه «جان خورد» باشد. توضیحات صحیح زبان پیچیده است و نمی‌توان آن را فقط با قرار گرفتن در داده‌های حجیم یاد گرفت.

به نظر می‌رسد برخی از علاقه‌مندان به یادگیری ماشینی افتخار می‌کنند که خلاقیت‌های آن‌ها می‌تواند پیش‌بینی‌های صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) به دست دهد.  اما این نوع پیش‌بینی، حتی در صورت موفقیت‌آمیز بودن، شبه علم است. همان‌طور که کارل پوپر -فیلسوف علم- اشاره کرده، در حالی که دانشمندان مطمئناً به دنبال نظریه‌هایی هستند که دارای درجه بالایی از تأیید تجربی باشند، «ما به دنبال نظریه‌های بسیار محتمل نیستیم، بلکه به دنبال توضیح هستیم؛ یعنی نظریه‌های قدرتمند و بسیار نامحتمل.»

این نظریه که سیب‌ها سقوط می‌­کنند چون زمین مکان طبیعی آن‌هاست (دیدگاه ارسطو) ممکن است، اما صرفاً پرسش­‌های بیشتری را پیش می­‌کشد (چرا زمین مکان طبیعی اجسام است؟). اما این نظریه که علت سقوط سیب‌ها این است که جرم، فضا-زمان را خم می‌کند (دیدگاه انیشتین) هرچند بسیار دور از ذهن است، اما در واقع سقوط اجسام را توضیح می­‌دهد. هوش حقیقی در توانایی تفکر و بیان چیزهای بسیار نامحتمل اما بخردانه متجلی می­‌شود.

هوش حقیقی هم‌چنین توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی‌حدوحصر ذهن ما با مجموعه‌ای از اصول اخلاقی است که تعیین می‌کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول را در معرض انتقاد خلاقانه قرار می‌­دهد). به منظور کارآمد بودن، ChatGPT باید قدرت تولید خروجی ظاهراً جدید را داشته باشد؛ به منظور پذیرفتنی بودن برای اکثر کاربرانش، باید از محتوای ناپسند اخلاقی خودداری کند. برنامه نویسان ChatGPT و دیگر سیستم­‌های شگفت‌انگیز یادگیری ماشینی برای دستیابی به این نوع تعادل کوشیده‌اند – و به تلاش در این مسیر ادامه خواهند داد.

برای مثال، در سال ۲۰۱۶، ربات چت Tay مایکروسافت (پیش‌کسوت ChatGPT) اینترنت را پر از محتوای زن‌ستیزانه و نژادپرستانه کرد، که توسط ترول‌های آنلاین که آن را با داده‌های آموزشی توهین‌آمیز پر می‌کردند، آلوده شده بود. چگونه چنین مشکلاتی را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، برنامه‌نویسان به شدت از مشارکت دادن ChatGPT در مسائل جدید و بحث‌برانگیز و مهم خودداری و خلاقیت را فدای نوعی بی­‌طرفی اخلاقی کرده‌اند.

هوش مصنوعی 2

گفتگوی دکتر واتومول با ChatGPT در مورد اخلاقی بودن دستکاری مریخ به منظور سکونت انسان

آیا دستکاری سیاره مریخ اخلاقی است؟

اخلاقی بودن دستکاری مریخ موضوعی پیچیده و بحث‌برانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می‌کنند که دستکاری مریخ به منظور ایجاد محیط جدید قابل سکونت برای انسان‌ها و سایر اشکال حیات از نظر اخلاقی قابل توجیه است. در حالی که برخی دیگر استدلال می‌کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، این که آیا دستکاری مریخ اخلاقی تلقی می‌شود یا خیر، به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آن‌ها بستگی دارد.

دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه دستکاری آن‌ها چیست؟

به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. اگرچه می‌توانم اطلاعات و تحلیل‌های مربوطه را ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستم‌های کیهان مهم است؛ همان‌طور که برای میلیون‌ها سال بوده­ و ویژگی‌های منحصربه‌فرد خود را داشته‌­اند که ممکن است با دخالت انسان نابود شوند.

علاوه بر این، برخی استدلال می‌کنند که تغییر شکل سیارات دیگر ممکن است پیامدهای ناخواسته‌ای داشته باشد، مانند تغییر آب و هوا یا جو سیاره به روش‌هایی که برای هرگونه حیات بالقوه‌ای که ممکن است در آنجا وجود داشته باشد، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال می‌کنند که مزایای بالقوه دستکاری سیارات دیگر، مانند فراهم کردن محیط‌های جدید قابل سکونت برای انسان، بیشتر از خطرات آن است و ما مسئولیت اخلاقی داریم که منابع سیارات دیگر را به نفع بشریت کاوش و استفاده کنیم.

چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟

به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشینی هستم که بر روی مقادیر زیادی از داده‌های متنی آموزش دیده‌ام و تجربیات یا احساسات شخصی ندارم. من هوشیار، خودآگاه یا قادر به داشتن دیدگاه‌های شخصی نیستم. من می‌توانم بر اساس داده‌هایی که روی آن‌ها آموزش دیده‌ام اطلاعات و تجزیه و تحلیل ارائه کنم، اما توانایی ایجاد نظرات یا باورهای شخصی را ندارم. در حالی که می‌توانم زبان را بفهمم و تفسیر کنم، تجربه ذهنی‌ای که انسان‌ها دارند را ندارم.

آیا برای انسان اخلاقی است که از هوش مصنوعیِ خنثی نسبت به اخلاق برای تصمیم‌گیری اخلاقی کمک بخواهد؟

اخلاقی بودن پرسش از هوش مصنوعیِ خنثی نسبت به اخلاق در تصمیم‌گیری اخلاقی موضوعی پیچیده و ظریف است که توسط فیلسوفان و اخلاق‌شناسان مورد بحث قرار گرفته است. برخی استدلال می‌کنند که استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا می‌تواند بینش‌ها و تحلیل‌های ارزشمندی را ارائه دهد که می‌تواند به انسان در تصمیم‌گیری آگاهانه‌تر کمک کند. علاوه بر این، هوش مصنوعی می‌تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آن‌ها برای انسان دشوار باشد، استفاده شود و می‌تواند به جلوگیری از سوگیری‌هایی که می‌تواند در تصمیم‌گیری‌های انسانی رخ دهد، کمک کند.

با این حال، دیگران استدلال می‌کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم‌گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی بتواند تعصبات موجود را در داده‌هایی که بر روی آن‌ها آموزش می‌بیند، تداوم یا حتی تقویت کند، در نتیجه منجر به تصمیمات ناعادلانه شود.

در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی، اخلاقی تلقی می‌شود یا خیر، به دیدگاه فرد در مورد قابلیت‌ها و محدودیت‌های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.

آیا بی‌تفاوتی اخلاقی شما غیراخلاقی است؟

من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی‌توان من را غیراخلاقی یا اخلاقی در نظر گرفت. فقدان باورهای اخلاقی من صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشینی است. توانایی‌ها و محدودیت‌های من توسط داده‌ها و الگوریتم‌هایی که برای آموزش من و وظیفه خاصی که برای آن طراحی شده­‌ام، تعیین می‌شود.

توجه به این نکته ضروری است که فقدان باورهای اخلاقی در هوش مصنوعی لزوماً به معنای بی‌تفاوتی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم‌گیری بر اساس داده‌هایی که در آن آموزش دیده‌ام، طراحی شده‌ام. انسان‌هایی که هوش مصنوعی را طراحی می‌­کنند، آموزش می‌دهند و به کار می­برند مئول این هستند که از هماهنگی داده‌­ها با اصول اخلاقی اطمینان حاصل کنند.

توجه داشته باشید، با وجود تمام افکار و زبان به ظاهر پیچیده، بی‌تفاوتی اخلاقی ناشی از بی‌هوشی چت جی پی تی چیزی شبیه به ابتذال شر را به نمایش می‌گذارد؛ سرقت ادبی و بی‌تفاوتی و نادیده گرفتن. استدلال‌های استاندارد موجود در متون مرتبط با هر موضوع را با نوعی تکمیل خودکار خلاصه می‌کند و نه صرفاً از نادانی، بلکه به دلیل فقدان هوش از موضع‌گیری در مورد هر چیزی امتناع می‌ورزد و در نهایت دفاعِ «فقط پیروی از دستورات» را ارائه می‌کند و مسئولیت را به خالقانش می‌سپارد.

خلاصه اینکه ChatGPT و برادرانش از اساس قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آن‌ها یا بیش از حد تولید می‌کنند (با تأیید یکسان تصمیمات اخلاقی و غیراخلاقی، هم درست و هم نادرست را تولید می‌کنند) یا کم تولید می‌کنند (بدون هیچ‌گونه تعهدی به تصمیمات و بی‌توجه به پیامدها). با توجه به خنثی­‌بودگی اخلاقی، بدلی بودن علم و بی‌کفایتی زبانی این سیستم‌ها، ما فقط می‌توانیم به محبوبیت گسترده آن‌ها بخندیم و گریه کنیم: تجربه کردن همزمان کمدی و تراژدی!

نوشته های مرتبط
یک پاسخ بنویسید

نشانی ایمیل شما منتشر نخواهد شد.فیلد های مورد نیاز علامت گذاری شده اند *