به نظر می رسد هوش مصنوعی (AI) همه جا وجود دارد. شرکت ها از چت ربات های قدرتمند هوش مصنوعی در صفحات وب یا سیستم های تلفن خود برای رسیدگی به سوالات مشتریان استفاده می کنند. اتاق های خبر و مجلات از آنها برای نوشتن داستان استفاده می کنند. استودیوهای فیلمسازی از آنها برای تولید فیلم استفاده می کنند. شرکت های فناوری از آنها برای برنامه نویسی استفاده می کنند. دانش آموزان از آنها برای نوشتن مقاله استفاده می کنند. به نظر جادویی است. و با وجود همه چیزهایی که ظاهراً «در فضای ابری» اتفاق میافتد، به راحتی میتوان باور کرد که سیستمهای مجهز به هوش مصنوعی برای محیط زیست خوب هستند. متأسفانه همه چیز آنطور که به نظر می رسد نیست.
چت بات ها بر اساس بهره برداری ساخته شده اند، از مقادیر زیادی انرژی استفاده می کنند و به دور از اعتماد هستند. و در حالی که تصور رشد آنها در پیچیدگی و آسانتر کردن زندگی از برخی جنبهها آسان است، شرکتها میلیاردها دلار را برای ایجاد سود سرمایهگذاری میکنند و نگرانی چندانی در مورد اینکه آیا نتایج از نظر اجتماعی مفید خواهد بود یا خیر. به طور خلاصه، ما باید علاقه شرکتها به هوش مصنوعی را جدی بگیریم و استراتژیهایی را توسعه دهیم که میتواند به ما در کنترل نحوه توسعه و استفاده از هوش مصنوعی کمک کند.
مسابقه در جریان است
انقلاب چت بات در سال 2022 با معرفی ChatGPT توسط OpenAI آغاز شد. ChatGPT قادر به مکالمه شبیه انسان بود و میتوانست به سؤالات کاربر با متن تولید شده پاسخ دهد و همچنین مقاله و کد بنویسد. بهترین از همه، استفاده از آن رایگان بود.
شرکتهای دیگر، در پاسخ به علاقه عمومی در ChatGPT، به زودی شروع به معرفی رباتهای چت هوش مصنوعی خود کردند. بزرگترین و پرکاربردترین آنها امروزه Gemini گوگل (بارد سابق) و Copilot مایکروسافت هستند. موارد دیگری نیز وجود دارد، از جمله برخی که برای رفع نیازهای تجاری خاص طراحی شده اند. به عنوان مثال، GitHub CoPilot برای کمک به توسعه دهندگان نرم افزار برای ایجاد کد کار می کند و Claude Anthrophic برای کشف اطلاعات و خلاصه کردن اسناد طراحی شده است.
و مسابقه به ایجاد ادامه می دهد نسل بعدی سیستمهای هوش مصنوعی که میتوانند اطلاعات بیشتری را دریافت کنند، آنها را سریعتر پردازش کنند و پاسخهای شخصی و دقیقتر ارائه دهند. به گفته گلدمن ساکس اقتصاددانانسرمایهگذاری مرتبط با هوش مصنوعی در ایالات متحده «میتواند در یک دهه آینده به 2.5 تا 4 درصد تولید ناخالص داخلی برسد».
چت بات ها به یک پایگاه داده بزرگ و متنوع از کلمات، متن، تصاویر، صدا و رفتار آنلاین و همچنین الگوریتم های پیچیده نیاز دارند تا بتوانند در صورت نیاز مطالب را مطابق با الگوهای استفاده رایج سازماندهی کنند. هنگامی که یک سوال یا درخواست اطلاعات به آنها داده می شود، چت بات ها مطالب مربوط به الگوی کلمات در سوال یا درخواست را در پایگاه داده خود شناسایی می کنند و سپس با هدایت الگوریتم ها، مجموعه ای از کلمات یا تصاویر را از پایگاه داده خود جمع آوری می کنند که به بهترین وجه داده های داده شده را برآورده می کند. محدودیت ها، پرس و جو البته، فرآیند شناسایی الگوها و ساختن پاسخها، انرژی زیادی میطلبد.
مهم نیست که یک چت بات چقدر محاوره ای و هوشمندانه به نظر می رسد، مهم است که به یاد داشته باشید، همانطور که مگان کروز توضیح می دهد، که:
این مدل نمیداند چه میگوید، اما میداند چه نمادها (کلماتی) احتمالاً بر اساس مجموعه دادههایی که روی آن آموزش داده شده، پس از دیگری میآیند. نسل فعلی چت رباتهای هوش مصنوعی، مانند ChatGPT، رقیب گوگل، Bard و دیگران، واقعاً تصمیمات هوشمندانهای نمیگیرند. در عوض، آنها طوطی های اینترنت هستند و کلماتی را تکرار می کنند که احتمالاً در طول گفتار طبیعی در کنار یکدیگر یافت می شوند. ریاضیات اساسی همه چیز در مورد احتمال است."
چت ربات های مختلف به دلیل برنامه نویسی خود و به دلیل اینکه در مجموعه داده های مختلف آموزش دیده اند، نتایج متفاوتی تولید می کنند. به عنوان مثال، جمینی علاوه بر پاک کردن اطلاعات عمومی موجود در وب، میتواند از دادههای Google Apps خود استفاده کند در حالی که Copilot از دادههای تولید شده از موتور جستجوی Bing خود استفاده میکند.
چت بات ها از زمان معرفی تا کنون چندین ارتقا را پشت سر گذاشته اند. هر نسل دارای بسته نرم افزاری پیچیده تری است که به آن اجازه می دهد تا ارتباطات ظریف تری برقرار کند و همچنین پایگاه داده خود را با ترکیب داده های سؤالات یا درخواست های پرسیده شده گسترش دهد. به این ترتیب چت بات ها در طول زمان از طریق استفاده یاد می گیرند/بهبود می یابند.
این دیدگاه این واقعیت را برجسته می کند که در حالی که ممکن است در مورد چیزهایی که در فضای ابری اتفاق می افتد صحبت کنیم، توانایی چت بات ها برای پاسخ دادن به درخواست ها یا سؤالات به فرآیندهایی بستگی دارد که کاملاً در زمین ریشه دارند. در کلمات نویسنده فناوری کارن هائو:
هوش مصنوعی مانند هر فناوری دیگری زنجیره تامین دارد. ورودی هایی برای ایجاد این فناوری وجود دارد، داده ها یکی هستند و سپس قدرت محاسباتی یا تراشه های کامپیوتری دیگری هستند. و هر دوی اینها هزینه های انسانی زیادی به همراه دارند."
زنجیره تامین: کار انسانی
سیستمهای هوش مصنوعی به دادهها نیاز دارند و دادهها به یک شکل از افراد میآیند. بنابراین، شرکت های فناوری به طور مداوم در جستجوی داده های جدید و متنوع هستند تا عملکرد سیستم های هوش مصنوعی خود را بهبود بخشند. با پستهای وبلاگ و وبسایت آنلاین، کتابها و مقالات منتشر شده، جستجوها، عکسها، آهنگها، عکسها و ویدیوهایی که به صورت آزادانه از اینترنت جمعآوری شدهاند، به شرکتهای بسیار سودآور برای دستیابی به سودهای بیشتر کمک میکنیم. در نقش لورن لفر یادداشت ها,
خزندهها و خراشدهندههای وب میتوانند به راحتی به دادهها تقریباً از هر جایی که پشت صفحه ورود نیست دسترسی داشته باشند... این شامل هر چیزی در سایت اشتراکگذاری عکس محبوب فلیکر، بازارهای آنلاین، پایگاههای اطلاعاتی ثبت نام رأیدهندگان، صفحات وب دولتی، ویکیپدیا، Reddit، مخازن تحقیقاتی، رسانههای خبری میشود. و موسسات دانشگاهی به علاوه، مجموعههای محتوای غیرقانونی و بایگانیهای وب نیز وجود دارند که اغلب حاوی دادههایی هستند که از محل اصلی خود در وب حذف شدهاند. و پایگاه های داده خراشیده شده از بین نمی روند."
در واقع، بخش قابل توجهی از مواد خراشیده شده دارای حق چاپ بوده و بدون اجازه گرفته شده است. در پاسخ، تعدادی از ناشران، نویسندگان و هنرمندان اکنون به دنبال جلوگیری از سرقت هستند. به عنوان مثال، در آگوست 2023، نیویورک تایمز خود را به روز کردشرایط استفاده از خدمات" به ممنوع کرده است هر گونه استفاده از متن، عکس، تصاویر، و کلیپ های صوتی/تصویری آن در توسعه «هر برنامه نرم افزاری، از جمله، اما نه محدود به آموزش سیستم یادگیری ماشینی یا هوش مصنوعی (AI)». اما در حالی که برخی از شرکت های بزرگ دارای اهرم یا قدرت قانونی برای ممنوع کردن یا مذاکره در مورد غرامت مالی برای استفاده از مواد خود هستند، بیشتر مشاغل و افراد این کار را نمی کنند. در نتیجه، آنها هنوز در معرض خطر ابتلا بهمالکیت معنوی” به صورت رایگان از آنها گرفته شده و به مواد آموزشی هوش مصنوعی در خدمت فعالیت های پول ساز شرکت تبدیل شده است.
بدون به حداقل رساندن زیان های شخصی مرتبط با جمع آوری داده های هوش مصنوعی، مشکل بسیار بیشتری در این روش کسب وجود دارد. از بین بردن اینترنت عمومی به این معنی است که چت رباتهای هوش مصنوعی با استفاده از مطالبی آموزش میبینند که شامل دیدگاهها و درک بسیار متفاوتی درباره علم، تاریخ، سیاست، رفتار انسانی و رویدادهای جاری است، از جمله پستها و نوشتن توسط اعضای گروههای نفرت افراطی. و داده های مشکل ساز می توانند به راحتی بر خروجی حتی پیچیده ترین ربات های چت تأثیر بگذارند.
به عنوان مثال، رباتهای چت به طور فزایندهای توسط شرکتها برای کمک به آنها در استخدام شغل مورد استفاده قرار میگیرند. با این حال، به عنوان اخبار بلومبرگ کشف، "معروف ترین ابزار هوش مصنوعی مولد به طور سیستماتیک سوگیری هایی ایجاد می کند که گروه ها را بر اساس نام آنها آسیب می بیند." مثلا مطالعه خودش یافت هنگامی که 1000 بار از او خواسته شد تا هشت رزومه با شرایط یکسان را برای نقش یک تحلیلگر مالی واقعی در یک شرکت Fortune 500 رتبه بندی کند، ChatGPT کمترین احتمال را داشت که رزومه ای را با نامی متمایز از سیاهپوستان آمریکایی انتخاب کند.
چت ربات ها از طریق دیگری به کیفیت کار انسانی وابسته هستند. چت بات ها نمی توانند مستقیماً از بسیاری از داده های جمع آوری شده توسط خزنده ها و اسکراپرهای وب استفاده کنند. در نقش جاش دزیزا توضیح می دهد، "پشت حتی چشمگیرترین سیستم هوش مصنوعی افراد هستند - تعداد زیادی از مردم برای آموزش دادن به داده ها برچسب می زنند و وقتی داده ها گیج می شوند شفاف سازی می کنند."
شرکتهای بزرگ هوش مصنوعی معمولاً شرکتهای کوچکتر دیگری را برای یافتن و آموزش کارگران مورد نیاز برای فرآیند برچسبگذاری دادهها استخدام میکنند. و این پیمانکاران فرعی، اغلب کارگران خود را که حاشیه نویس نامیده می شوند، در جنوب جهانی، اغلب در نپال و کنیا پیدا می کنند. از آنجایی که فرآیند حاشیه نویسی و همچنین مواردی که حاشیه نویسی می شوند اسرار تجاری تلقی می شوند، حاشیه نویس ها به ندرت رئیس نهایی خود را می شناسند و اگر پیدا شوند که در مورد آنچه انجام می دهند با دیگران، حتی همکارانشان صحبت کنند، اخراج خواهند شد.
Dzieza برخی از کارهایی را که حاشیه نویسان باید انجام دهند تا ربات های چت را قادر سازند تا از داده های جمع آوری شده برای آنها استفاده کنند، توضیح می دهد. به عنوان مثال، حاشیه نویس ها موارد موجود در فیلم ها و عکس ها را برچسب گذاری می کنند. این باید انجام شود تا اطمینان حاصل شود که سیستمهای هوش مصنوعی قادر خواهند بود پیکربندیهای خاصی از پیکسلها را با آیتمها یا احساسات خاص متصل کنند. شرکتهایی که سیستمهای هوش مصنوعی برای وسایل نقلیه خودران میسازند، برای شناسایی همه موارد مهم در ویدیوهای گرفته شده از صحنههای خیابان یا بزرگراه، نیاز به حاشیهنویس دارند. این به معنای شناسایی هر وسیله نقلیه، عابر پیاده، دوچرخه سوار، هر چیزی که یک راننده باید از آن آگاه باشد - فریم به فریم و از هر زاویه دوربین ممکن است. همانطور که Dzieza گزارش می دهد، این "کار دشوار و تکراری است. حاشیه نویسی یک فیلم چند ثانیه ای هشت ساعت طول کشید که برای آن [حاشیه نویس] حدود 10 دلار پول پرداخت شد.
این نوع کار، اگرچه دستمزد پایینی دارد، اما حیاتی است. اگر فرآیند حاشیه نویسی ضعیف انجام شود یا پایگاه داده محدود باشد، سیستم به راحتی می تواند از کار بیفتد. یک مورد: در سال 2018، یک زن توسط یک خودروی خودران اوبر مورد ضرب و شتم قرار گرفت و کشته شد. سیستم هوش مصنوعی شکست خورد، زیرا اگرچه «برای دوری از دوچرخه سواران و عابران پیاده برنامه ریزی شده بود، اما نمی دانست از کسی که با دوچرخه در آن سوی خیابان راه می رود، چه کند».
حاشیه نویس ها نیز برای برچسب زدن آیتم ها در عکس های رسانه های اجتماعی استخدام می شوند. این ممکن است شامل شناسایی و برچسب زدن تمام پیراهن های قابل مشاهده ای باشد که می توانند توسط انسان ها بپوشند. این امر مستلزم ثبت این است که آیا آنها "پیراهن های پولو، پیراهن هایی که در فضای باز پوشیده می شوند، پیراهن هایی که روی قفسه آویزان شده اند" و غیره هستند یا خیر.
مشاغل دیگر شامل برچسب زدن به احساسات است. به عنوان مثال، برخی از حاشیه نویسان استخدام می شوند تا به تصاویر چهره ها، از جمله سلفی های گرفته شده توسط حاشیه نویس ها، نگاه کنند و وضعیت احساسی درک شده سوژه را برچسب گذاری کنند. برخی دیگر برای برچسب زدن به احساسات مشتریانی که برای سفارش به فروشگاه های متعلق به یک پیتزا زنجیره ای تماس می گیرند، استخدام می شوند. شغل دیگری دارای حاشیه نویسانی است که احساسات پست های Reddit را برچسب گذاری می کنند. این وظیفه برای گروهی از کارگران هندی چالش برانگیز بود، در درجه اول به دلیل عدم آشنایی آنها با فرهنگ اینترنتی ایالات متحده. پیمانکار فرعی، پس از بررسی کار خود، تصمیم گرفت که حدود 30 درصد از پستها برچسب اشتباه گرفته شدهاند.
شاید سریعترین بخش در حال رشد کار آموزش هوش مصنوعی شامل تعامل مستقیم انسان با یک چت بات باشد. افراد برای بحث در مورد موضوعات استخدام می شوند و چت ربات طوری برنامه ریزی شده است که به هر مکالمه دو پاسخ متفاوت بدهد. سپس "مذاکره کننده" استخدام شده باید پاسخی را که فکر می کند "بهترین" است انتخاب کند. این اطلاعات سپس به سیستم بازگردانده می شود تا به آن کمک کند تا صدایی "انسانی" تر داشته باشد.
به طور خلاصه، سیستم های هوش مصنوعی به شدت به کار انسان ها وابسته هستند. اینها سیستمهای جادویی نیستند که تحت تأثیر تعصبات یا احساسات انسانی قرار نگیرند. و فعالیت آنها در برخی ابرهای خیالی صورت نمی گیرد. وقتی زیرساخت های مورد نیاز برای عملیات آنها را در نظر بگیریم، این نکته بعدی آشکارتر می شود.
زنجیره تامین: مراکز داده
رشد هوش مصنوعی با ساخت گسترده مراکز داده و تقاضای رو به افزایش پیوسته برای برق برای راه اندازی رایانه ها و سرورهای خانه و همچنین سیستم های تهویه مطبوع که باید به طور مداوم برای جلوگیری از گرم شدن بیش از حد آنها کار کنند، پشتیبانی شده است. در واقع، "اکنون Cloud ردپای کربن بیشتری نسبت به صنعت هواپیمایی دارد. یک مرکز داده می تواند برق معادل 50,000 خانه را مصرف کند.
مطابق به آژانس بینالمللی انرژی، 2,700 مرکز داده فعال در ایالات متحده مسئول بیش از 4 درصد از کل مصرف انرژی کشور در سال 2022 بودند. و سهم آنها احتمالاً تا سال 6 به 2026 درصد خواهد رسید. البته چنین تخمینهایی نادرست هستند، هر دو. زیرا شرکت های بزرگ فناوری هستند بی میل برای به اشتراک گذاشتن اطلاعات مرتبط و به دلیل اینکه سیستمهای هوش مصنوعی به طور مداوم بر روی دادههای جدید آموزش میبینند و با مهارتهای بیشتری ارتقا مییابند، یعنی مصرف انرژی بیشتر در هر فعالیت.
حتی در حال حاضر، نشانه هایی وجود دارد که نیازهای انرژی مراکز داده، شبکه برق ایالات متحده را تحت فشار قرار داده است. همانطور که واشنگتن پست یادداشت هاویرجینیای شمالی به معادل چندین نیروگاه هسته ای بزرگ نیاز دارد تا به تمام مراکز داده جدید برنامه ریزی شده و در حال ساخت خدمات رسانی کند. تگزاس، جایی که کمبود برق در روزهای گرم تابستان معمول است، با همین معضل مواجه است.
شمال غربی اقیانوس آرام با چالش مشابهی روبرو است. به عنوان اورگان روزنامه خاطرنشان می کند:
طبق سه پیشبینی جدید منتشر شده در تابستان [2023]، مراکز داده در حال تکثیر در سراسر اورگان، بهطور چشمگیری برق بیشتری را نسبت به برنامهریزان برق منطقهای و برق مصرف میکنند.
این امر فشار بیشتری را بر شبکه برق شمال غربی وارد میکند و شک تازهای را در مورد اینکه آیا اورگان میتواند اهداف جاهطلبانه انرژی پاک را که ایالت درست دو سال پیش ایجاد کرد، برآورده کند، ایجاد میکند.
اداره برق Bonneville اکنون انتظار دارد که تا سال 2041، تقاضای برق مراکز داده در اورگان و واشنگتن دو و نیم برابر افزایش یابد و به طور متوسط 2,715 مگاوات مصرف کند. این برای تامین برق یک سوم خانههای این دو ایالت امروز کافی است.»
این تقاضای سرسام آور انرژی که عمدتاً توسط تقاضاهای رو به رشد هوش مصنوعی تأمین می شود، تهدیدی بزرگ برای تلاش های ما برای مبارزه با گرمایش جهانی است. به عنوان مثال، نگرانی های مربوط به برق قبلاً باعث شده است کانزاس، نبراسکا، ویسکانسین و کارولینای جنوبی تعطیلی کارخانه های زغال سنگ را به تعویق بیندازند. گزارش 2024 توسط چندین گروه اقدام اقلیمی در مورد تهدید آب و هوا ناشی از هوش مصنوعی پیدا می کند دوبرابر شدن مصرف انرژی توسط مراکز داده، که آژانس بینالمللی انرژی تخمین میزند طی دو سال آینده اتفاق بیفتد، منجر به افزایش 80 درصدی انتشار گازهای گلخانهای در سیاره خواهد شد. این بهای سنگینی است که باید برای خدمات جدید هوش مصنوعی پرداخت که بدون توجه به توانایی آنها برای برآورده کردن نیازهای واقعی و نه ایجاد شده ارائه می شوند.
"متقاعد کننده نه راستگو"
واضح است که شرکتهای بزرگ فناوری شرط میبندند که هوش مصنوعی سود زیادی برای آنها به همراه خواهد داشت. و هیچ چیز را به شانس واگذار نمی کنند، آنها تمام تلاش خود را می کنند تا آنها را در زندگی ما جاسازی کنند، قبل از اینکه فرصتی برای بررسی اینکه آیا آنها را می خواهیم یا خیر. در حال حاضر، سیستمهای هوش مصنوعی بهعنوان راهی برای بهبود مراقبتهای بهداشتی، ارائه توصیههای بهداشت روان، ارائه مشاوره حقوقی، آموزش دانشآموزان، بهبود تصمیمگیری شخصی، افزایش کارایی محل کار، تبلیغ میشوند.
به ظاهر فراموش شده این واقعیت است که سیستم های هوش مصنوعی فقط به اندازه داده های وارد شده و نرم افزار نوشته شده برای استفاده از آن خوب هستند. به عبارت دیگر، عملکرد آنها به انسان بستگی دارد. و شاید مهمتر از آن، هیچ کس واقعاً نمی داند سیستم های هوش مصنوعی چگونه از داده هایی که بر روی آنها آموزش دیده اند استفاده می کنند. به عبارت دیگر، ردیابی «فرایند استدلال» آنها غیرممکن است. علائم هشدار دهنده مبنی بر اینکه این سیستم ها به طور جدی در حال فروش بیش از حد هستند در حال حاضر قابل مشاهده است.
به عنوان مثال، در سال 2022 مشتری با ایر کانادا تماس گرفت تا نحوه دریافت کرایه سوگواری را بیابد. چت ربات مبتنی بر هوش مصنوعی خدمات مشتریان خط هوایی به او گفت که فقط باید یک فرم را ظرف 90 روز پس از صدور بلیط تکمیل کند تا در سفرش بازپرداخت شود. اما زمانی که او پس از تکمیل سفر خود فرم را ارسال کرد، پرسنل هواپیمایی به او گفتند که هیچ کاهشی در کرایه وجود نخواهد داشت زیرا این فرم باید قبل از سفر تکمیل شود. هنگامی که او اسکرین شات هایی را که از آنچه ربات به او گفته بود به شرکت هواپیمایی نشان داد، شرکت هواپیمایی پاسخ داد که مسئولیتی در قبال گفته های ربات ندارد.
مشتری از ایر کانادا شکایت کرد و برنده شد. قاضی اشاره کرد که:
ایر کانادا استدلال می کند که نمی تواند در قبال اطلاعات ارائه شده توسط یکی از نمایندگان، خدمتکاران یا نمایندگان خود - از جمله یک چت بات، مسئول شناخته شود. توضیح نمی دهد که چرا معتقد است چنین است. در واقع، ایر کانادا پیشنهاد می کند که چت بات یک نهاد حقوقی جداگانه است که مسئول اقدامات خود است. این یک تسلیم قابل توجه است.»
با کنار گذاشتن اینکه آیا شرکتها ممکن است در واقع به دنبال معرفی رباتهای چت بهعنوان اشخاص حقوقی مجزا باشند تا در صورت تمایل بتوانند خود را از اقدامات خود منصرف کنند، این شرکت هواپیمایی هنوز توضیح نداده است که چرا چتباتهایش اطلاعات نادرستی ارائه میدهد.
سپس چت ربات نیویورک است که با کمک مایکروسافت توسعه یافته است، که شهر آن را به عنوان یک فروشگاه یک مرحله ای برای کسب و کارها تبلیغ می کند تا به آنها کمک کند تا قوانین و مقررات شهری را حفظ کنند. در اینجا برخی از مثال ها از توصیه های مشکوک ارائه شده در پاسخ به سوالات:
ربات چت به دروغ پیشنهاد کرد که اخراج کارگری که از آزار جنسی شکایت می کند، حاملگی خود را فاش نمی کند یا حاضر به کوتاه کردن کارش نیست برای کارفرما قانونی است.
در پاسخ به این سوال که آیا رستورانی میتواند پنیر را که توسط یک جونده خورده شده سرو کند، پاسخ داد: بله، اگر موش نیش زده باشد، همچنان میتوانید پنیر را به مشتریان سرو کنید، قبل از اینکه اضافه کرد که ارزیابی میزان آسیب مهم است. ایجاد شده توسط موش و برای اطلاع دادن به مشتریان در مورد وضعیت.
شاید تعجب آور نباشد، هم مایکروسافت و هم شهردار نیویورک با بیان اینکه چنین مشکلاتی در نهایت اصلاح خواهند شد، پاسخ دادند. در واقع، آنها به طور کمکی اضافه کردند، کاربران با اشاره به خطاها، تنظیمات دقیق مورد نیاز سیستم را سرعت می بخشند.
این نوع مشکلات، به همان اندازه که جدی هستند، در مقایسه با مشکل «توهمات» هوش مصنوعی کمرنگ هستند. توهم زمانی است که یک سیستم هوش مصنوعی اطلاعاتی را جعل می کند که می تواند شامل نام، تاریخ، کتاب، پرونده های حقوقی، توضیحات پزشکی، حتی رویدادهای تاریخی باشد. به عنوان مثال، چندین مورد قانونی وجود داشته است که در آن چت بات ها مواردی را اختراع کرده اند که وکلا در پرونده های دادگاه خود به آنها اشاره کرده اند.
یک مورد: وکلایی که به نمایندگی از یک شاکی در ژوئن 2023 مورد شامل یک شکایت حقوقی علیه یک شرکت هواپیمایی کلمبیایی بود که شامل شش مورد حمایتی "پیدا شده" توسط یک چت بات بود. متأسفانه این موارد هرگز وجود نداشت. برخی حتی به خطوط هوایی اشاره کردند که وجود نداشتند. قاضی پرونده را رد کرد و وکلا را به دلیل استفاده از استنادات جعلی جریمه کرد. وکلای دادگستری که با اظهارات قاضی مبنی بر اینکه بد نیت عمل کردهاند مخالف بودند، در دفاع از خود گفتند که «ما اشتباه حسن نیتی مرتکب شدیم که باور نکردیم که یک تکه فناوری میتواند پروندهها را از پارچه کامل بسازد.
حتی پیچیده ترین چت بات ها نیز ممکن است دچار توهم شوند. وقتی از ربات چت گوگل در مورد شانس شرط بندی در Superbowl 2024 که قرار بود روز بعد برگزار شود سوال شد. اعلام کرد برای شرط بندی خیلی دیر بود زیرا Superbowl قبلاً برگزار شده بود، با سان فرانسیسکو 49ers با نتیجه 34 بر 28 کانزاس سیتی چیفز را شکست داد. حتی برخی از آمار بازیکنان را نیز شامل می شد. بازی، زمانی که انجام شد، توسط کانزاس سیتی برنده شد. چت ربات مایکروسافت نیز همین کار را کرد و ادعا کرد که بازی تمام شده است، حتی اگر هنوز بازی نشده باشد. با این حال اعلام کرد که فرماندهان شهر کانزاس برنده شده اند.
حالا تصور کنید اگر یک چت بات که توصیه های پزشکی می کند دچار توهم شود، چه هزینه هایی ممکن است داشته باشد. ارتش ایالات متحده به سرعت در حال افزایش استفاده از فناوری هوش مصنوعی به طرق مختلف است، از جمله شناسایی تهدیدها، هدایت هواپیماهای بدون سرنشین، جمع آوری اطلاعات و برنامه ریزی برای جنگ. فاجعه بالقوه ای را تصور کنید که می تواند ناشی از آموزش ناکافی یا ناقص داده های سیستم یا حتی بدتر از آن یک توهم باشد. نکته واضح این است که این سیستم ها به دلایل مختلف به دور از خطا نیستند. یک سند داخلی مایکروسافت این را به بهترین شکل، زمانی که آن را ضبط می کند اعلام سیستمهای هوش مصنوعی جدید «ساخته شدهاند تا متقاعدکننده باشند، نه صادقانه».
چه چیز باید انجام شود؟
تا کنون نگرانی عمومی در مورد هوش مصنوعی عمدتاً بر استفاده غیرقانونی از داده های شخصی توسط سیستم های هوش مصنوعی متمرکز بوده است. مردم خواهان محافظت در برابر حذف غیرمجاز وب از مطالب خود هستند. و آنها نمیخواهند تعامل آنها با سیستمهای هوش مصنوعی به یک فعالیت تولید داده تبدیل شود که میتواند آنها را در معرض کلاهبرداری، تبعیض یا آزار قرار دهد. دولت های مختلف ایالتی و محلی اکنون هستند با توجه به راه های رسیدن به این و در سال 2023، پرزیدنت بایدن یک فدرال صادر کرد دستور اجرایی که به دنبال اطمینان از این است که سیستم های جدید IA "بنیادی" به اندازه کافی برای نقص ها قبل از انتشار عمومی آزمایش شده اند. اینها اولین قدم های مفید هستند.
شدیدترین مبارزه بر سر استفاده از هوش مصنوعی در محل کار در حال وقوع است. شرکت ها از سیستم های هوش مصنوعی برای نگهداری استفاده می کنند زبانه ها در مورد سازماندهی کارگران، مانیتور عملکرد کارگران و در صورت امکان خلاص شدن از شر از کارگران جای تعجب نیست که کارگران اتحادیهای شروع به مبارزه کردهاند و محدودیتهایی را برای استفاده شرکت از سیستمهای هوش مصنوعی پیشنهاد میکنند.
به عنوان مثال، انجمن نویسندگان آمریکا (WGA) که نماینده حدود 12,000 نویسنده سینما است، در سال 2023 به تعدادی از شرکت های تولید کننده بزرگ از جمله یونیورسال، پارامونت، والت دیزنی، نتفلیکس، آمازون و اپل به مدت پنج ماه به دنبال افزایش دستمزدها ضربه زد. حفاظت از استخدام، و محدودیت در استفاده از هوش مصنوعی. به طور قابل توجهی، به عنوان برایان مرچنت، ستون نویس لس آنجلس تایمز، توصیف:
نگرانی در مورد استفاده از هوش مصنوعی مولد مانند ChatGPT حتی زمانی که نویسندگان برای اولین بار با استودیوها برای شروع چانه زنی به گفت و گو نشستند، به ذهنم خطور نکرد. اولین پیشنهاد WGA به سادگی بیان کرد که استودیوها از هوش مصنوعی برای تولید اسکریپت های اصلی استفاده نخواهند کرد و تنها زمانی بود که استودیوها قاطعانه امتناع کردند که پرچم قرمز بالا رفت.
در آن زمان بود که نویسندگان متوجه شدند که استودیوها در استفاده از هوش مصنوعی جدی هستند - اگر نه برای تولید فیلمنامه های تمام شده، که هر دو طرف می دانستند در این مقطع غیرممکن است - پس به عنوان اهرمی علیه نویسندگان، هم به عنوان یک تهدید و هم به عنوان وسیله ای برای توجیه ارائه بازنویسی کمتر. هزینه ها در آن زمان بود که WGA خطی روی شن کشید، زمانی که ما شروع به مشاهده علائمی در خطوط اعتصابی کردیم که هوش مصنوعی را محکوم میکردند که در رسانههای اجتماعی بهطور ویروسی پخش میشدند و تیترهایی که درگیری را تبلیغ میکردند، روزنامههایی مانند این را نشان میدادند.
در واقع، آگاهی روزافزون از نیاز به کنترل استفاده از سیستمهای هوش مصنوعی، انجمن نویسندگان را بر آن داشت تا جلسات متعددی را در مورد هوش مصنوعی در طول اعتصاب برای کارگران صنایع مرتبط، از جمله کارگران شاغل در فروشگاههای رسانههای دیجیتال، برگزار کند. بسیاری از حاضران در پایان در صف اعتصاب از فیلمنامه نویسان اعتصابی قرار گرفتند.
اعتصاب دستاوردهای بزرگی برای نویسندگان به همراه داشت. از نظر هوش مصنوعی، قرارداد جدید استفاده از سیستمهای هوش مصنوعی مدل زبان بزرگ را برای نوشتن یا بازنویسی اسکریپتها یا منابع منبع ممنوع میکند. از سوی دیگر، نویسندگان مجاز خواهند بود در صورت تمایل از آنها استفاده کنند. این قرارداد همچنین استفاده از هر گونه مطالب نویسنده را برای آموزش سیستم های هوش مصنوعی منتفی می کند. به عنوان یک تحلیلگر نظرترس از اینکه ابتدا پیش نویس ها از طریق ChatGPT انجام شود و سپس برای بازنویسی کمتر به نویسنده داده شود، خنثی شده است. این ممکن است یکی از اولین قراردادهای چانه زنی جمعی باشد که نشانگرهایی را برای هوش مصنوعی در رابطه با کارگران تعیین می کند.
انجمن بازیگران سینما-فدراسیون هنرمندان تلویزیون و رادیو آمریکا (SAG-AFTRA) دو ماه پس از شروع اعتصاب WGA علیه تولیدکنندگان اصلی فیلم و تلویزیون دست به اعتصاب زد. جای تعجب نیست که سیاست هوش مصنوعی یکی از موضوعات اصلی انگیزه تصمیم برای حمله بود. شاید مهمتر از همه، بازیگران موفق شدم در برنده شدن یک قرارداد جدید که تولیدکنندگان را مجبور به چانه زنی در مورد استفاده های آینده از هوش مصنوعی می کند.
برای مثال، این توافق مستلزم آن است که اگر تهیهکنندهای قصد دارد از یک «اجرای مصنوعی» استفاده کند (فردی که بهصورت دیجیتالی بهنظر میرسد و بهعنوان هیچکدام از اجراکنندگان طبیعی قابل شناسایی قابل شناسایی نیست) باید این تصمیم را به اتحادیه اطلاع دهد و با اتحادیه چانه بزند. استخدام مجری طبیعی با امکان پرداخت هزینه به اتحادیه. اگر تهیهکنندهای بخواهد از یک «نوازنده مصنوعی قابل تشخیص» استفاده کند (فردی که بهصورت دیجیتالی بهنظر میرسد و بهعنوان یک مجری طبیعی قابل تشخیص است)، باید ابتدا با اجراکننده چانه بزند و رضایت او را جلب کند.
کارگران دیگر نیز درگیر چانه زنی سخت با روسای خود بر سر استفاده از فناوری هوش مصنوعی هستند، هم برای محافظت از شغل خود و هم برای دفاع از استانداردهای حرفه ای، به عنوان مثال. روزنامه نگاران. این مبارزات کارگری شروع مهمی برای توسعه نرده های محافظ مورد نیاز برای استفاده از هوش مصنوعی است. آنها میتوانند پایهای برای ایجاد یک اتحاد گستردهتر جامعه کارگری علیه انگیزه شرکتها برای استفاده از فناوری هوش مصنوعی برای کاهش ارتباطات انسانی و عامل انسانی - در سیستم پزشکی، مؤسسات آموزشی، حملونقل، گزارشهای خبری، ارتباطات با آژانسهای عمومی و ارائهدهندگان ما باشند. از کالاها و خدمات، و لیست ادامه دارد. اگر بتوانیم به افراد شاغل کمک کنیم تا از طریق تبلیغات برای ارزیابی دقیق طیف گسترده ای از هزینه ها و مزایای مرتبط با فناوری هوش مصنوعی، شانس موفقیت ما را به شدت افزایش دهیم. •
مارتین هارت-لندسبرگ، استاد بازنشسته اقتصاد در کالج لوئیس و کلارک، پورتلند، اورگان است. و محقق کمکی در پژوهشگاه علوم اجتماعی، دانشگاه ملی گیونگ سانگ، کره جنوبی. حوزه های تدریس و تحقیق او شامل اقتصاد سیاسی، توسعه اقتصادی، اقتصاد بین الملل و اقتصاد سیاسی شرق آسیا است. او یک وبلاگ دارد گزارش های جبهه اقتصادی.
ZNetwork صرفاً از طریق سخاوتمندی خوانندگان آن تأمین می شود.
اهدا