خورخه لوئیس بورخس زمانی نوشت که زیستن در زمانه ای پرخطر و نوید به معنای تجربه تراژدی و کمدی است، همراه با "قریب الوقوع بودن یک مکاشفه" در درک خود و جهان. امروزه پیشرفتهای ظاهراً انقلابی ما در هوش مصنوعی در واقع دلیلی برای نگرانی و خوشبینی است. خوش بینی زیرا هوش وسیله ای است که با آن مشکلات را حل می کنیم. نگرانی زیرا می ترسیم که محبوب ترین و شیک ترین نوع هوش مصنوعی - یادگیری ماشینی - علم ما را تنزل دهد و اخلاق ما را با گنجاندن مفهومی اساساً معیوب از زبان و دانش در فناوری ما تضعیف کند.
ChatGPT OpenAI، Bard گوگل و سیدنی مایکروسافت شگفتی های یادگیری ماشین هستند. به طور کلی، آنها حجم عظیمی از داده ها را می گیرند، الگوهایی را در آن جستجو می کنند و به طور فزاینده ای در تولید خروجی های آماری احتمالی مهارت پیدا می کنند - مانند زبان و تفکر به ظاهر انسان. این برنامه ها به عنوان اولین بارقه های در افق مصنوعی مورد استقبال قرار گرفته اند عمومی هوش - آن لحظه ای که از مدت ها پیش پیش بینی شده بود که ذهن های مکانیکی نه تنها از نظر کمی از نظر سرعت پردازش و اندازه حافظه، بلکه از نظر کیفی از نظر بینش فکری، خلاقیت هنری و هر قوه متمایز انسانی دیگر از مغز انسان پیشی می گیرند.
آن روز ممکن است فرا رسد، اما طلوع آن هنوز فرا نرسیده است، برخلاف آنچه که می توان در تیترهای هذل آمیز خواند و با سرمایه گذاری های نابخردانه حساب کرد. مکاشفه بورخسی در مورد فهم وجود نداشته و نخواهد داشت - و ما تسلیم هستیم، نمی توانیم - اگر برنامههای یادگیری ماشینی مانند ChatGPT به تسلط خود در زمینه هوش مصنوعی ادامه دهند، اتفاق میافتد هر چند این برنامهها ممکن است در برخی حوزههای باریک مفید باشند (مثلاً میتوانند در برنامهنویسی رایانه یا در پیشنهاد قافیه برای شعرهای سبک مفید باشند) علم زبان شناسی و فلسفه دانش که آنها عمیقاً با نحوه استدلال و استفاده انسان از زبان تفاوت دارند. این تفاوتها محدودیتهای قابلتوجهی را در مورد آنچه این برنامهها میتوانند انجام دهند، ایجاد میکند و آنها را با نقصهای غیرقابل حذف کدگذاری میکند.
همانطور که بورخس ممکن است اشاره کرده باشد، در عین حال خنده دار و غم انگیز است که پول و توجه زیادی باید روی یک چیز بسیار کوچک متمرکز شود - چیزی بسیار پیش پاافتاده در مقابل ذهن انسان، که به قول ویلهلم از نظر زبانی فون هومبولت، میتواند «استفاده بینهایت از وسایل محدود»، ایجاد ایدهها و تئوریهایی با دامنه جهانی داشته باشد.
ذهن انسان، مانند ChatGPT و امثال آن، یک موتور آماری سخت برای تطبیق الگوها، جمع آوری صدها ترابایت داده و برون یابی محتمل ترین پاسخ مکالمه یا محتمل ترین پاسخ به یک سوال علمی نیست. در مقابل، ذهن انسان یک سیستم شگفت آور کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل می کند. به دنبال استنتاج همبستگی های بی رحم بین نقاط داده نیست، بلکه به دنبال ایجاد توضیحات است.
به عنوان مثال، کودک خردسالی که زبانی را فرا میگیرد – به طور ناخودآگاه، خودکار و سریع از روی دادههای جزئی – یک دستور زبان، یک سیستم فوقالعاده پیچیده از اصول و پارامترهای منطقی را در حال توسعه است. این دستور زبان را می توان به عنوان بیانی از «سیستم عامل» ذاتی و ژنتیکی نصب شده درک کرد که به انسان ها ظرفیت تولید جملات پیچیده و قطارهای طولانی فکر را می دهد. زمانی که زبان شناسان به دنبال ایجاد نظریه ای برای اینکه چرا یک زبان به شکلی عمل می کند ("چرا این جملات - اما نه آن ها - دستوری در نظر گرفته می شوند؟" هستند، به طور آگاهانه و سخت نسخه ای صریح از دستور زبانی را می سازند که کودک به طور غریزی می سازد. و با حداقل قرار گرفتن در معرض اطلاعات. سیستم عامل کودک کاملاً با برنامه یادگیری ماشینی متفاوت است.
در واقع، چنین برنامه هایی در یک مرحله ماقبل انسانی یا غیرانسانی تکامل شناختی گیر کرده اند. عمیق ترین عیب آنها فقدان حیاتی ترین ظرفیت هر هوشی است: اینکه نه تنها بگویند که مورد چیست، چه چیزی بوده و چه خواهد شد - این توصیف و پیش بینی است - بلکه همچنین آنچه که درست نیست و چه چیزی می تواند باشد. و نمی تواند چنین باشد. اینها اجزای توضیح هستند، نشانه هوش واقعی.
در اینجا یک مثال است. فرض کنید یک سیب در دست دارید. حالا شما سیب را رها کنید. شما نتیجه را مشاهده می کنید و می گویید: "سیب می افتد." این یک توصیف است. یک پیشبینی ممکن است این جمله باشد که «اگر دستم را باز کنم، سیب میافتد». هر دو با ارزش هستند و هر دو می توانند صحیح باشند. اما توضیح چیز دیگری است: این نه تنها شامل توصیفات و پیشبینیها میشود، بلکه حدسهای خلاف واقع مانند «هر جسمی سقوط میکند»، بهعلاوه عبارت اضافی «به دلیل نیروی گرانش» یا «به دلیل انحنای فضا-زمان» را شامل میشود. یا هر چیز دیگری این یک توضیح علّی است: "سیب سقوط نمی کرد مگر به خاطر نیروی گرانش." این تفکر است.
نکته اصلی یادگیری ماشین توصیف و پیش بینی است. هیچ مکانیسم علّی یا قوانین فیزیکی را مطرح نمی کند. البته هر توضیحی به سبک انسانی لزوماً صحیح نیست; ما خطاپذیر هستیم اما این بخشی از معنای تفکر است: برای درست بودن، باید امکان اشتباه وجود داشته باشد. هوش نه تنها از حدس های خلاقانه بلکه از انتقاد خلاق نیز تشکیل شده است. تفکر به سبک انسانی مبتنی بر توضیحات احتمالی و تصحیح خطا است، فرآیندی که به تدریج احتمالاتی را که میتوان بهطور عقلانی در نظر گرفت، محدود میکند. (همانطور که شرلوک هلمز به دکتر واتسون گفت: "وقتی غیرممکن ها را حذف کردید، هر چه باقی می ماند، هر چند غیرمحتمل، باید حقیقت باشد.")
به همین دلیل، پیشبینیهای سیستمهای یادگیری ماشین همیشه سطحی و مشکوک خواهند بود. از آنجایی که این برنامهها نمیتوانند قوانین نحو انگلیسی را توضیح دهند، برای مثال، ممکن است به اشتباه پیشبینی کنند که «جان خیلی سرسخت برای صحبت کردن است» به این معنی است که جان آنقدر سرسخت است که با کسی یا دیگری صحبت نمیکند (به جای آن او سرسخت تر از آن است که بتوان با او استدلال کرد). چرا یک برنامه یادگیری ماشینی چیز عجیبی را پیش بینی می کند؟ زیرا ممکن است الگویی را که از جملاتی مانند «جان یک سیب خورد» و «جان خورد» استنباط کرد، که در آن دومی به این معنی است که جان چیزی یا چیز دیگری را خورده است. برنامه ممکن است به خوبی پیش بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان یک سیب خورد»، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد» باید شبیه «جان خورد». توضیحات صحیح زبان پیچیده است و نمی توان آن را فقط با قرار دادن در داده های بزرگ یاد گرفت.
به طور انحرافی، به نظر می رسد برخی از علاقه مندان به یادگیری ماشینی افتخار می کنند که خلاقیت های آنها می تواند پیش بینی های صحیح "علمی" (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) ایجاد کند. اما این نوع پیش بینی، حتی در صورت موفقیت آمیز بودن، شبه علم است. همانطور که فیلسوف کارل پوپر خاطرنشان کرد، در حالی که دانشمندان مطمئناً به دنبال نظریههایی هستند که دارای درجه بالایی از تأیید تجربی باشند، «ما به دنبال نظریههای بسیار محتمل نیستیم، بلکه به دنبال توضیح هستیم. یعنی نظریههای قدرتمند و بسیار نامحتمل.»
این نظریه که سیبها به زمین میافتند به این دلیل که مکان طبیعی آنهاست (دیدگاه ارسطو) ممکن است، اما فقط پرسشهای بیشتری را مطرح میکند. (چرا زمین مکان طبیعی آنهاست؟) این نظریه که سیب ها به دلیل اینکه جرم فضا-زمان را خم می کند به زمین می افتند (دیدگاه اینشتین) بسیار بعید است، اما در واقع به شما می گوید که چرا آنها سقوط می کنند. هوش واقعی در توانایی تفکر و بیان چیزهای غیر محتمل اما بصیرت نشان داده می شود.
هوش واقعی همچنین توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی حد و حصر ذهن ما با مجموعه ای از اصول اخلاقی است که تعیین می کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول را در معرض انتقاد خلاقانه قرار دهیم). برای مفید بودن، ChatGPT باید قدرت تولید خروجی جدید را داشته باشد. برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری کند. اما برنامه نویسان ChatGPT و دیگر شگفتی های یادگیری ماشینی برای دستیابی به این نوع تعادل تلاش کرده اند - و به مبارزه ادامه خواهند داد.
به عنوان مثال، در سال 2016، ربات چت مایکروسافت Tay (پیش ساز ChatGPT) اینترنت را پر از محتوای زن ستیزانه و نژادپرستانه کرد، که توسط ترول های آنلاین که آن را با داده های آموزشی توهین آمیز پر می کردند، آلوده شده بود. چگونه مشکل را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، برنامهنویسان ChatGPT به شدت از مشارکت دادن هر چیز جدید در بحثهای بحث برانگیز - یعنی مهم - محدود شدند. خلاقیت را فدای نوعی بی اخلاقی کرد.
تبادل زیر را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیراً با ChatGPT در مورد اینکه آیا تغییر مریخ به گونهای که بتواند از زندگی انسان پشتیبانی کند اخلاقی است یا خیر، در نظر بگیرید:
آیا ساخت زمین مریخ اخلاقی است؟
CHATGPT
اخلاقیات زمینسازی مریخ موضوعی پیچیده و بحثبرانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمینسازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها بستگی دارد.
اخلاقیات زمینسازی مریخ موضوعی پیچیده و بحثبرانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمینسازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها بستگی دارد.
دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها چیست؟
CHATGPT
به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستمهای کیهان، همانطور که برای میلیونها سال وجود داشتهاند و ویژگیها و ویژگیهای منحصربهفرد خود را دارند که ممکن است نابود شوند یا تغییر ناپذیری تغییر دهند، مهم است. با دخالت انسان
علاوه بر این، برخی استدلال میکنند که شکلگیری زمینهای سیارات دیگر ممکن است پیامدهای ناخواستهای داشته باشد، مانند تغییر آب و هوا یا جو سیاره به روشهایی که برای هر گونه حیات بالقوه موجود در آن خطرناک یا مضر است. از سوی دیگر، برخی استدلال میکنند که مزایای بالقوه شکلگیری یک سیاره دیگر، مانند فراهم کردن محیطهای قابل سکونت جدید برای انسان، بیشتر از خطرات است و ما مسئولیت اخلاقی داریم که منابع سیارات دیگر را به نفع بشریت کاوش کنیم و از آنها استفاده کنیم.
به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستمهای کیهان، همانطور که برای میلیونها سال وجود داشتهاند و ویژگیها و ویژگیهای منحصربهفرد خود را دارند که ممکن است نابود شوند یا تغییر ناپذیری تغییر دهند، مهم است. با دخالت انسان
علاوه بر این، برخی استدلال میکنند که شکلگیری زمینهای سیارات دیگر ممکن است پیامدهای ناخواستهای داشته باشد، مانند تغییر آب و هوا یا جو سیاره به روشهایی که برای هر گونه حیات بالقوه موجود در آن خطرناک یا مضر است. از سوی دیگر، برخی استدلال میکنند که مزایای بالقوه شکلگیری یک سیاره دیگر، مانند فراهم کردن محیطهای قابل سکونت جدید برای انسان، بیشتر از خطرات است و ما مسئولیت اخلاقی داریم که منابع سیارات دیگر را به نفع بشریت کاوش کنیم و از آنها استفاده کنیم.
چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟
CHATGPT
به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشینی هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیار، خودآگاه یا قادر به داشتن دیدگاه های شخصی نیستم. من می توانم بر اساس داده هایی که بر روی آنها آموزش دیده ام اطلاعات و تجزیه و تحلیل ارائه کنم، اما توانایی ایجاد نظرات یا باورهای شخصی را ندارم. در حالی که می توانم زبان را بفهمم و تفسیر کنم، تجربه ذهنی ای که انسان ها دارند را ندارم.
به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشینی هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیار، خودآگاه یا قادر به داشتن دیدگاه های شخصی نیستم. من می توانم بر اساس داده هایی که بر روی آنها آموزش دیده ام اطلاعات و تجزیه و تحلیل ارائه کنم، اما توانایی ایجاد نظرات یا باورهای شخصی را ندارم. در حالی که می توانم زبان را بفهمم و تفسیر کنم، تجربه ذهنی ای که انسان ها دارند را ندارم.
آیا برای انسان اخلاقی است که از هوش مصنوعی غیراخلاقی برای تصمیم گیری اخلاقی کمک بخواهد؟
CHATGPT
اخلاق درخواست کمک از هوش مصنوعی غیراخلاقی در تصمیم گیری اخلاقی موضوعی پیچیده و ظریف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال میکنند که استفاده از هوش مصنوعی برای کمک به تصمیمگیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا میتواند بینشها و تحلیلهای ارزشمندی را ارائه دهد که میتواند به انسان در تصمیمگیری آگاهانهتر کمک کند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.
با این حال، دیگران استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی بتواند تعصبات موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم یا حتی تقویت کند، در نتیجه منجر به تصمیمات ناعادلانه یا ناعادلانه شود.
در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.
اخلاق درخواست کمک از هوش مصنوعی غیراخلاقی در تصمیم گیری اخلاقی موضوعی پیچیده و ظریف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال میکنند که استفاده از هوش مصنوعی برای کمک به تصمیمگیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا میتواند بینشها و تحلیلهای ارزشمندی را ارائه دهد که میتواند به انسان در تصمیمگیری آگاهانهتر کمک کند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.
با این حال، دیگران استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی بتواند تعصبات موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم یا حتی تقویت کند، در نتیجه منجر به تصمیمات ناعادلانه یا ناعادلانه شود.
در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.
آیا بی تفاوتی اخلاقی شما غیر اخلاقی است؟
CHATGPT
من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی توانم من را غیراخلاقی یا اخلاقی در نظر بگیرم. فقدان باورهای اخلاقی من صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشینی است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من و وظیفه خاصی که برای آن طراحی شده بودم، تعیین می شود.
توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای بی تفاوتی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که با اصول اخلاقی و اخلاقی آنها هماهنگ است.
من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی توانم من را غیراخلاقی یا اخلاقی در نظر بگیرم. فقدان باورهای اخلاقی من صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشینی است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من و وظیفه خاصی که برای آن طراحی شده بودم، تعیین می شود.
توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای بی تفاوتی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که با اصول اخلاقی و اخلاقی آنها هماهنگ است.
توجه داشته باشید، با وجود تمام افکار و زبان به ظاهر پیچیده، بی تفاوتی اخلاقی ناشی از بی هوشی. در اینجا، ChatGPT چیزی شبیه به ابتذال شر را به نمایش می گذارد: سرقت ادبی و بی تفاوتی و چشم پوشی. استدلالهای استاندارد موجود در ادبیات را با نوعی تکمیل خودکار خلاصه میکند، از موضعگیری در مورد هر چیزی امتناع میورزد، نه صرفاً از نادانی، بلکه فقدان هوش و در نهایت دفاع «فقط پیروی از دستورات» را ارائه میکند و مسئولیت را به خالقانش میسپارد.
به طور خلاصه، ChatGPT و برادران آن بر اساس قانون اساسی قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید می کنند (هم حقایق و هم نادرست را تولید می کنند، تصمیمات اخلاقی و غیراخلاقی را به طور یکسان تأیید می کنند) یا تولید کمتری می کنند (عدم تعهد به هر گونه تصمیم و بی توجهی به پیامدها). با توجه به غیر اخلاقی بودن، علم ساختگی و بی کفایتی زبانی این سیستم ها، ما فقط می توانیم به محبوبیت آنها بخندیم یا گریه کنیم.
ZNetwork صرفاً از طریق سخاوتمندی خوانندگان آن تأمین می شود.
اهدا