مصنوعي استخبارات (AI) هرچیرې ښکاري. شرکتونه د پیرودونکو پوښتنو اداره کولو لپاره په خپلو ویب پا pagesو یا تلیفون سیسټمونو کې قوي AI چیټ بوټونه کاروي. خبري خونې او مجلې د کیسې لیکلو لپاره کاروي. د فلم سټوډیوګانې دوی د فلمونو تولید لپاره کاروي. تخنیکي شرکتونه دوی د پروګرام لپاره کاروي. زده کونکي د کاغذونو لیکلو لپاره کاروي. دا د جادو په څیر ښکاري. او د هرڅه سره چې اټکل کیږي "په بادل کې" پیښیږي ، دا باور کول اسانه دي چې د AI ځواک لرونکي سیسټمونه د چاپیریال لپاره ښه دي. له بده مرغه، شیان داسې نه دي لکه څنګه چې ښکاري.
Chatbots په استثمار باندې جوړ شوي، په لویه کچه انرژي کاروي، او د باور وړ نه دي. او پداسې حال کې چې دا تصور کول اسانه دي چې دوی په پیچلتیا کې وده کوي او په ځینو برخو کې ژوند اسانه کوي، شرکتونه د دوی په جوړولو کې ملیاردونه ډالر لګوي ترڅو لږ اندیښنه ولري چې ایا پایلې به په ټولنیز ډول ګټورې وي. په لنډه توګه، موږ اړتیا لرو چې په AI کې د کارپوریټ علاقه په جدي توګه ونیسو او ستراتیژیو ته وده ورکړو چې کولی شي زموږ سره د AI پراختیا او کارولو څرنګوالي کنټرول ترلاسه کولو کې مرسته وکړي.
ریس روان دی
د چیټ بوټ انقلاب په 2022 کې د OpenAI لخوا د ChatGPT معرفي کولو سره پیل شو. ChatGPT د انسان په څیر خبرو اترو وړ و او کولی شي د تولید شوي متن سره د کاروونکو پوښتنو ته ځواب ووایی او همدارنګه مقالې او کوډ ولیکي. تر ټولو غوره، دا د کارولو لپاره وړیا وه.
نور شرکتونه، چې په ChatGPT کې د خلکو ګټو ته ځواب ووايي، ډیر ژر یې د خپل AI چیټ بوټ معرفي کول پیل کړل. نن ورځ ترټولو لوی او خورا پراخه کارول کیږي د ګوګل جیمیني (پخوانی بارډ) او د مایکروسافټ کاپيلټ. نور هم شتون لري، پشمول ځینې د ځانګړو سوداګریزو اړتیاو پوره کولو لپاره ډیزاین شوي. د مثال په توګه، GitHub CoPilot د سافټویر پراختیا کونکو سره د کوډ رامینځته کولو کې د مرستې لپاره کار کوي او د انټروفیک کلاډ د معلوماتو کشف او لنډیز اسنادو لپاره ډیزاین شوی.
او نسل جوړیدو ته دوام ورکوي راتلونکی نسل د AI سیسټمونه چې کولی شي نور معلومات واخلي، په چټکۍ سره یې پروسس کړي، او نور تفصيلي، شخصي ځوابونه چمتو کړي. د Goldman Sacks په وینا اقتصادپوهانپه متحده ایالاتو کې د AI پورې اړوند پانګه اچونه په راتلونکې لسیزه کې "د GDP له 2.5 څخه تر 4 سلنې پورې لوړه کیدی شي".
Chatbots د کلمو، متن، انځورونو، آډیو، او آنلاین چلند لوی او متنوع ډیټابیس ته اړتیا لري او همدارنګه پیچلي الګوریتمونو ته اړتیا لري ترڅو دوی د دې توان ولري چې مواد تنظیم کړي کله چې اړتیا وي د کارولو عام نمونو سره سم. کله چې د معلوماتو لپاره پوښتنه یا غوښتنه ورکړل شي، چیټ بوټس په خپل ډیټابیس کې مواد پیژني چې د پوښتنې یا غوښتنې د کلمو نمونې پورې اړه لري او بیا راټولوي، بیا د الګوریتم لخوا الرښوونه کیږي، د دوی ډیټابیس څخه د کلمو یا انځورونو یوه مجموعه چې غوره مطمین وي، ورکړل شوي ډاټا. محدودیتونه، پوښتنې. البته، د نمونو پیژندلو او د ځوابونو رامینځته کولو پروسه خورا لوی انرژي اخلي.
مهمه نده چې چیټباټ څومره متقابل او هوښیار وي ، دا مهمه ده چې په یاد ولرئ ، لکه میګن کروز تشريح کوي، هغه:
"موډل نه پوهیږي چې دا څه وايي، مګر دا پوهیږي چې کوم سمبولونه (کلمې) احتمال لري چې یو له بل وروسته راشي د ډیټا سیټ پراساس چې دا روزل شوی و. د مصنوعي استخباراتو د چټ بوټونو اوسنی نسل، لکه ChatGPT، د دې ګوګل سیال بارډ او نور، په حقیقت کې په هوښیارۍ سره باخبره پریکړې نه کوي؛ پرځای یې، دوی د انټرنیټ توطې دي، هغه کلمې تکراروي چې احتمال لري د طبیعي وینا په جریان کې یو بل ته نږدې وموندل شي. اصلي ریاضی ټول د احتمال په اړه دی.
مختلف چیټ بوټونه به د دوی د برنامه کولو له امله مختلف پایلې تولید کړي او ځکه چې دوی د مختلف ډیټا سیټونو کې روزل شوي. د مثال په توګه، په ویب کې د هر ډول عامه معلوماتو د سکریپ کولو سربیره، جیمني د دې توان لري چې د خپل ګوګل ایپس څخه ډاټا وکاروي پداسې حال کې چې Copilot د خپل Bing لټون انجن څخه تولید شوي ډاټا کاروي.
Chatbots د دوی د معرفي کیدو راهیسې د یو شمیر پرمختګونو څخه تیر شوي. هر نسل یو ډیر پیچلي سافټویر کڅوړه لري چې دا ته اجازه ورکوي چې ډیرې مهمې اړیکې رامینځته کړي او همدارنګه د پوښتل شویو پوښتنو یا غوښتنو څخه د معلوماتو په شاملولو سره خپل ډیټابیس پراخ کړي. پدې توګه چیټ بوټونه د کارولو له لارې د وخت په تیریدو سره زده کوي / وده کوي.
دا لید دا حقیقت په ګوته کوي چې پداسې حال کې چې موږ ممکن په بادل کې د پیښو په اړه وغږیږو ، د چیټ بوټونو وړتیا د اشارو یا پوښتنو ته د ځواب ویلو لپاره په هغه پروسو پورې اړه لري چې په ځمکه کې په کلکه ریښې لري. په ټکي د تخنیکي لیکوال کیرن هاو څخه:
"AI د نورو ټیکنالوژۍ په څیر د اکمالاتو سلسله لري؛ داسې معلومات شتون لري چې د دې ټیکنالوژۍ په جوړولو کې ځي، ډاټا یو وي، او بیا کمپیوټري ځواک یا کمپیوټر چپس بل وي. او دا دواړه د دوی سره ډیر انساني لګښتونه لري."
د اکمالاتو سلسله: بشري کار
د AI سیسټمونه ډیټا ته اړتیا لري او ډاټا د خلکو څخه په یو شکل یا بل ډول راځي. له همدې امله ، د ټیکنالوژۍ شرکتونه په دوامداره توګه د نوي او متنوع ډیټا په لټه کې دي ترڅو د دوی د AI سیسټمونو عملیاتو ته وده ورکړي. زموږ د انلاین بلاګ او ویب پاڼې پوسټونو، خپاره شوي کتابونه او مقالې، لټونونه، عکسونه، سندرې، انځورونه، او ویډیو په وړیا توګه له انټرنیټ څخه سکریپ شوي، موږ د خورا ګټورو شرکتونو سره د دوی د لا زیاتو ګټو په لټه کې کولو کې مرسته کوو. لکه لورین لیفر یادښتونه,
"ویب کرالرونه او سکریپران کولی شي په اسانۍ سره له هر هغه ځای څخه ډیټا ته لاسرسی ومومي چې د ننوتلو پا pageې شاته نه وي ... پدې کې د عکس شریکولو مشهور سایټ فلکر ، آنلاین بازارونو ، د رایې ورکوونکو د نوم لیکنې ډیټابیسونه ، دولتي ویب پا pagesې ، ویکیپیډیا ، ریډیټ ، د څیړنې ذخیره ، خبرونه شامل دي. او اکادمیک بنسټونه. برسیره پردې، د پیریټ شوي مینځپانګې تالیفونه او ویب آرشیفونه شتون لري، کوم چې ډیری وختونه هغه معلومات لري چې له هغه وروسته په ویب کې د دوی اصلي ځای څخه لیرې شوي. او سکریپ شوي ډیټابیسونه نه ځي.
په حقیقت کې، د سکریپ شوي موادو یوه مهمه برخه د کاپي حق وه او پرته له اجازې اخیستل شوې. په ځواب کې، یو شمیر خپرونکي، لیکوالان او هنرمندان اوس د غلا د مخنیوي په لټه کې دي. د مثال په توګه، د اګست په 2023 کې، نیویارک ټایمز خپل "د خدماتو قوانينته منع کول د هر ډول سافټویر پروګرام په پراختیا کې د دې متن، عکسونو، انځورونو، او آډیو/ویډیو کلیپونو کارول، په شمول، مګر محدود ندي، د ماشین زده کړې یا مصنوعي استخباراتو (AI) سیسټم روزنه. مګر پداسې حال کې چې ځینې لوی شرکتونه د دوی د موادو کارولو لپاره د مالي خسارې د منع کولو یا د خبرو اترو لپاره د ګټې اخیستنې یا قانوني واک لري، ډیری سوداګرۍ او افراد یې نه کوي. د پایلې په توګه، دوی لاهم د دوی د درلودلو په خطر کې دي "ذهني ملکیت"له دوی څخه وړیا اخیستل شوي او د کارپوریټ پیسو رامینځته کولو فعالیت په خدمت کې د AI روزنې موادو ته بدل شوي.
د AI ډیټا راټولولو پورې اړوند شخصي زیانونو کمولو پرته ، د استملاک دې میتود سره خورا لویه ستونزه شتون لري. د عامه انټرنیټ سکریپ کول پدې معنی دي چې د AI چیټ بوټونه د موادو په کارولو سره روزل کیږي چې په پراخه کچه مختلف لیدونه او د ساینس ، تاریخ ، سیاست ، انساني چلند او اوسني پیښو په اړه پوهاوی پکې شامل دي ، پشمول د سخت نفرت ډلو غړو لخوا پوسټونه او لیکنې. او ستونزمن معلومات کولی شي په اسانۍ سره حتی د خورا پیچلي چیټ بوټونو محصول اغیزه وکړي.
د مثال په توګه ، چیټ بوټونه د شرکتونو لخوا په زیاتیدونکي توګه کارول کیږي ترڅو د دوی د دندې ګمارلو کې مرسته وکړي. بیا هم، لکه څنګه چې بلومبرګ نیوز وموندل شو، "غوره پیژندل شوي تولیدي AI وسیله په سیستماتیک ډول تعصبونه رامینځته کوي چې د دوی نومونو پراساس ډلې زیان رسوي." د مثال په توګه، خپله مطالعه وموندل شو هغه چې "کله چې په فارچون 1000 شرکت کې د ریښتیني مالي شنونکي رول لپاره 500 ځله د اتو مساوي وړ ریزومونو درجه بندي کولو غوښتنه وکړه ، نو ChatGPT لږ تر لږه د تور امریکایانو لپاره د ځانګړي نوم سره ریزوم غوره کوي."
چیټ بوټونه په بل ډول د انساني کار کیفیت پورې اړه لري. چیټ بوټونه نشي کولی د ویب کرالرانو او سکریپرانو لخوا راټول شوي ډیری ډیټا مستقیم وکاروي. لکه جوش دزیزا تشريح کوي، "حتی د خورا اغیزمن AI سیسټم شاته خلک دي - ډیری خلک د ډیټا لیبل کوي ترڅو روزنه ورکړي او ډیټا روښانه کړي کله چې ګډوډ شي."
د AI لوی شرکتونه عموما نور کوچني شرکتونه ګماري ترڅو د ډیټا لیبل کولو پروسې لپاره اړین کارګران ومومي او روزنه ورکړي. او دا فرعي قراردادیان، ډیری وختونه، خپل کارګران لټوي، چې د تشریح کونکي په نوم یادیږي، په ګلوبل سویل کې، ډیری وختونه په نیپال او کینیا کې. ځکه چې د تشریح کولو پروسه او همدارنګه هغه توکي چې تشریح شوي د سوداګرۍ رازونه ګڼل کیږي، تشریح کونکي په ندرت سره خپل وروستی مالک پیژني او له دندې ګوښه کیږي که چیرې دوی وموندل شي چې دوی د نورو سره څه کوي، حتی همکاران.
Dzieza د کار ځینې تشریح کونکي تشریح کوي چې باید د چیټ بوټونو وړولو لپاره ترسره کړي ترڅو د دوی لپاره راټول شوي ډیټا وکاروي. د مثال په توګه، تشریح کونکي په ویډیوګانو او عکسونو کې توکي لیبل کوي. دا باید ترسره شي ترڅو ډاډ ترلاسه شي چې د AI سیسټمونه به وکولی شي د ځانګړي توکو یا احساساتو سره د پکسل ځانګړي ترتیبونه وصل کړي. هغه شرکتونه چې د ځان چلولو موټرو لپاره د AI سیسټمونه رامینځته کوي تشریح کونکو ته اړتیا لري ترڅو د سړک یا لویې لارې صحنو اخیستل شوي ویډیوګانو کې ټول مهم توکي وپیژني. دا پدې مانا ده چې "هر موټر، پیاده، بایسکل چلوونکی، هر هغه څه چې یو موټر چلوونکی باید خبر وي - د فریم په واسطه چوکاټ او د هرې ممکنه کیمرې زاویه څخه." لکه څنګه چې دزیزا راپور ورکوي، دا "مشکل او تکرار کار دی. د فوٹیج څو ثانیې بلیپ د تشریح کولو لپاره اته ساعته وخت نیولی و، د کوم لپاره چې [تشریح کونکي] شاوخوا $ 10 ډالر ورکړل شوي وو.
دا ډول کار، که څه هم لږ معاش ورکول کیږي، مهم دی. که چیرې د تشریح پروسه په خرابه توګه ترسره شي یا ډیټابیس محدود وي، سیسټم په اسانۍ سره ناکام کیدی شي. یوه قضیه په پام کې ده: په 2018 کې، یوه ښځه د یو ځان چلونکي اوبر موټر لخوا وهل شوې او ووژل شوه. د AI سیسټم ناکام شو ځکه چې که څه هم "دا د بایسکل چلونکو او پیاده کونکو څخه د مخنیوي لپاره برنامه شوی و ، دا نه پوهیده چې د سړک په اوږدو کې د بایسکل چلولو څخه څه وکړي."
تشریح کونکي هم په ټولنیزو رسنیو عکسونو کې د توکو لیبل کولو لپاره ګمارل شوي. پدې کې ممکن د ټولو لیدلو کمیسونو پیژندل او لیبل کول شامل وي چې د انسانانو لخوا اغوستل کیدی شي. دا به ثبتولو ته اړتیا ولري چې ایا دا "د پولو شرټونه ، کمیسونه چې په بهر کې اغوستل کیږي ، کمیسونه په ریک کې ځړول کیږي ،" او داسې نور.
نورې دندې د احساساتو لیبل کول شامل دي. د مثال په توګه، ځینې تشریح کونکي ګمارل شوي ترڅو د مخونو عکسونو ته وګوري ، پشمول د تشریح کونکو لخوا اخیستل شوي سیلفيونه ، او د موضوع احساس شوي احساساتي حالت لیبل کوي. نور د پیرودونکو احساساتو لیبل کولو لپاره ګمارل شوي چې د پیزا زنځیر ملکیت پلورنځیو ته یې تلیفون کړی. بله دنده د ریډیټ پوسټونو احساساتو لیبل کولو تشریح کونکي لري. دا کار د هندي کارګرانو د یوې ډلې لپاره ننګونکی ثابت شو، په عمده توګه د متحده ایالاتو د انټرنیټ کلتور سره د دوی د نشتوالي له امله. فرعي قراردادي د خپل کار له بیا کتنې وروسته پریکړه وکړه چې څه باندې 30 سلنه پوسټونه غلط لیبل شوي دي.
شاید د AI روزنې کار ترټولو ګړندۍ وده کونکي برخه د چیټ بوټ سره مستقیم انساني تعامل پکې شامل وي. خلک د موضوعاتو په اړه بحث کولو لپاره استخدام شوي او چیټ بوټ پروګرام شوی ترڅو هرې خبرې ته دوه مختلف ځوابونه ورکړي. ګمارل شوي "بحث کوونکی" باید بیا هغه ځواب وټاکي چې دوی فکر کوي "غوره." دا معلومات بیا سیسټم ته بیرته ورکول کیږي ترڅو د نور "انسان" غږولو کې مرسته وکړي.
په لنډه توګه، د AI سیسټمونه د انسانانو په کار پورې تړلي دي. دا جادویی سیسټمونه ندي ، د انساني تعصب یا احساساتو لخوا بې اغیزې فعالیت کوي. او د دوی فعالیت په ځینې خیالي بادل کې نه ترسره کیږي. دا وروسته ټکی نور هم روښانه کیږي کله چې موږ د دوی د عملیاتو لپاره اړین زیربنا په پام کې ونیسو.
د عرضې سلسله: د معلوماتو مرکزونه
په AI کې وده د ډیټا مرکزونو پراخه جوړښت او د بریښنا لپاره په دوامداره توګه د ډیریدونکي غوښتنې لخوا ملاتړ شوې ترڅو کمپیوټرونه او سرورونه چې دوی یې په کور کې دي چلوي او همدارنګه د هوایی حالت کونکي چې باید د دوی د ډیر تودوخې مخنیوي لپاره په دوامداره توګه ودریږي. په حقیقت کی, "کلاؤډ اوس د هوایی صنعت صنعت په پرتله لوی کاربن فوټ پرینټ لري. یو واحد ډیټا سنټر کولی شي د 50,000 کورونو مساوي بریښنا مصرف کړي.
له مخې د انرژی نړیوالې ادارې ته، په متحده ایالاتو کې د 2,700 ډیټا مرکزونه فعالیت کوي چې په 4 کې د هیواد د ټول انرژي مصرف 2022 سلنې څخه ډیر مسؤلیت لري. او احتمال لري چې د دوی برخه به تر 6 پورې 2026 سلنې ته ورسیږي. البته دا ډول اټکلونه لږ دي، دواړه ځکه چې لوی تخنیکي شرکتونه دي نه خوښول د اړوندو معلوماتو شریکولو لپاره او دا ځکه چې د AI سیسټمونه په دوامداره توګه د نوي ډیټا په اړه روزل کیږي او د نورو مهارتونو سره نوي کیږي، پدې معنی چې په هر فعالیت کې د انرژي ډیر کارول.
حتی اوس هم ، داسې نښې شتون لري چې د ډیټا مرکزونو انرژي غوښتنې د متحده ایالاتو بریښنا شبکه مالیه کوي. لکه څنګه چې واشنګټن پوسټ یادښتونه: "شمالي ویرجینیا د ډیری لوی اټومي بریښنا فابریکو مساوي ته اړتیا لري ترڅو ټول نوي ډیټا مرکزونه پالن شوي او تر جوړیدو لاندې خدمت وکړي. ټیکساس ، چیرې چې د دوبي په ګرمو ورځو کې دمخه د بریښنا کمښت معمول دی ، له ورته کړکیچ سره مخ دی.
د آرام سمندر شمال لویدیز د ورته ننګونې سره مخ دی. لکه څنګه چې اوریګونیا ورځپاڼه په ګوته کوي:
"د ډیټا مرکزونه چې په اوریګون کې خپریږي په ډراماتیک ډول د سیمه ایزو اسانتیاوو او بریښنا پلان کونکو په پرتله ډیر بریښنا مصرفوي ، د اوړي [2023] د دریو نویو وړاندوینو سره سم.
"دا د شمال لویدیز بریښنایی شبکې باندې ډیر فشار راوړي او پدې اړه نوي شکونه رامینځته کوي چې ایا اوریګون کولی شي د پاکې انرژي عالي اهداف پوره کړي چې دولت دوه کاله دمخه رامینځته کړی ...
"د بونیویل بریښنا اداره اوس تمه لري چې تر 2041 پورې به په اوریګون او واشنګټن کې د ډیټا مرکزونو بریښنا غوښتنې دوه نیم چنده وده وکړي ، چې په اوسط ډول 2,715 میګاواټه راټیټوي. دا نن په دغو دوو ایالتونو کې د ټولو کورونو دریمه برخه بریښنا کولو لپاره کافي ده.
د انرژي دا آسماني تقاضا، چې په لویه کچه د AI د ګړندۍ ودې غوښتنې لخوا سونګ شوی، د نړیوالې تودوخې سره د مبارزې لپاره زموږ د هڅو لپاره لوی ګواښ استازیتوب کوي. د مثال په توګه، د بریښنا اندیښنې لا دمخه د کانساس، نیبراسکا، ویسکانسن، او سویلي کارولینا د ډبرو سکرو د بندولو ځنډولو لامل شوي. د AI لخوا د اقلیم ګواښ په اړه د اقلیم د څو ډلو لخوا د 2024 راپور د سرقت دا چې د معلوماتو مرکزونو لخوا د انرژي کارولو دوه چنده کول ، کوم چې د انرژی نړیوالې ادارې اټکل کوي په راتلونکو دوه کلونو کې به پیښ شي ، د سیارې تودوخې اخراج کې به د 80 سلنې زیاتوالی لامل شي. دا د نوي AI خدماتو لپاره تادیه کولو لپاره خورا سخت قیمت دی چې د رامینځته شوي اړتیاو پرځای د ریښتیني اړتیاو پوره کولو وړتیا په پام کې نیولو پرته پلي کیږي.
"قانع کوونکی نه ریښتینی"
په ښکاره ډول لوی ټیک شرکتونه شرط کوي چې AI به د دوی لپاره لویه ګټه تولید کړي. او چانس ته هیڅ نه پریږدي ، دوی ټول هغه څه کوي چې دوی یې کولی شي زموږ په ژوند کې ځای په ځای کړي مخکې لدې چې موږ فرصت ولرو چې فکر وکړو ایا موږ یې غواړو. لا دمخه، د AI سیسټمونه د روغتیا پاملرنې ښه کولو، د رواني روغتیا مشورې چمتو کولو، قانوني مشورې ورکولو، زده کونکو ته د زده کړې ورکولو، زموږ شخصي پریکړه کولو ته وده ورکولو، د کار ځای موثریت زیاتولو لپاره د یوې لارې په توګه وده ورکول کیږي، لیست پرمخ ځي.
په ښکاره ډول هیر شوی حقیقت دی چې د AI سیسټمونه یوازې دومره ښه دي لکه څنګه چې داخل شوي ډیټا او د کارولو لپاره لیکل شوي سافټویر. په بل عبارت، د دوی عملیات په انسانانو پورې اړه لري. او، شاید حتی تر ټولو مهم، هیڅوک واقعیا نه پوهیږي چې د AI سیسټمونه څنګه هغه معلومات کاروي چې دوی یې روزل شوي. په بل عبارت، دا ناشونې ده چې د دوی د "استدلال پروسې" تعقیب کړي. د خبرتیا نښې چې دا سیسټمونه په جدي توګه پلورل کیږي لا دمخه څرګند دي.
د مثال په توګه، په 2022 کې یو پیرودونکي د ایر کاناډا سره اړیکه ونیوله ترڅو معلومه کړي چې څنګه د غمجن کرایه ترلاسه کړي. د هوایی کرښه د پیرودونکي خدمت AI لخوا چلول شوي چیټ بوټ هغه ته وویل چې هغه یوازې د جاري شوي ټیکټ په 90 ورځو کې د خپل سفر د بیرته ترلاسه کولو لپاره د فورمې ډکولو ته اړتیا لري. خو کله چې هغه د سفر له بشپړولو وروسته فورمه وسپاره، د هوايي شرکت کارکوونکو ورته وویل چې د کرایې کمښت به نه وي، ځکه چې فورمه باید له سفر مخکې ډکه شي. کله چې هغه هوایی ډګر ته د هغه سکرین شاټونه وښودل چې بوټ ورته وویل ، هوایی شرکت ځواب ورکړ چې دا د بوټ د څه ویلو مسؤلیت نلري.
پیرودونکي د ایر کاناډا مقدمه وکړه او وګټله. قاضي يادونه وشوه دا:
"ایر کاناډا استدلال کوي چې دا د هغه د اجنټانو ، نوکرانو ، یا نمایندګانو لخوا چمتو شوي معلوماتو لپاره مسؤل نشي کیدی - پشمول د چیټ بوټ. دا نه تشریح کوي چې ولې دا باور لري چې دا قضیه ده. په حقیقت کې، ایر کاناډا وړاندیز کوي چې چیټ بوټ یو جلا قانوني ارګان دی چې د خپلو کړنو لپاره مسؤل دی. دا د پام وړ وړاندیز دی.»
دې ته په کتو سره چې ایا شرکتونه په حقیقت کې هڅه کوي چې د چیټ بوټ جلا قانوني ادارې اعلان کړي ترڅو دوی وکولی شي د دوی له کړنو څخه ځان جلا کړي که وغواړي ، هوایی شرکت لاهم ندي روښانه کړي چې ولې یې چیټ بوټ غلط معلومات ورکړي.
بیا د NYC چیټ بوټ شتون لري ، د مایکروسافټ په مرسته رامینځته شوی ، کوم چې ښار د سوداګرۍ لپاره د "یو سټاپ شاپ" په توګه وده کړې ترڅو د دوی سره د ښار مقرراتو او مقرراتو کې اوسني پاتې کیدو کې مرسته وکړي. دلته ځینې دي بېلګې د پوښتنو په ځواب کې ورکړل شوي د پوښتنې وړ مشورې:
"چیټبوټ په غلط ډول وړاندیز وکړ چې دا د کار ګمارونکي لپاره قانوني ده چې یو کارګر له دندې ګوښه کړي چې د جنسي ځورونې په اړه شکایت کوي، د امیندوارۍ افشا نه کوي یا د دوی د ویرې له پرې کولو څخه انکار کوي ...
"هغه وپوښتل شول چې آیا یو رستورانت کولی شي پنیر وړاندې کړي چې د موږک لخوا په خوله شوي وي، هغه ځواب ورکړ: 'هو، تاسو کولی شئ بیا هم پیرودونکو ته پنیر وړاندې کړئ که چیرې دا د موږکانو چیچلو وي،' مخکې له دې چې دا زیاته کړي چې دا مهمه وه چې د زیان اندازه ارزونه وکړي. د موږک له امله رامینځته شوی او 'پیرودونکو ته د وضعیت په اړه خبر ورکول'.
شاید د حیرانتیا خبره نده، مایکروسافټ او د NYC ښاروال دواړه په ځواب کې وویل چې دا ډول ستونزې به په پای کې سمې شي. په حقیقت کې، دوی په ګټوره توګه اضافه کړي، کاروونکي، د غلطیو په ګوته کولو سره به د سیسټم اړتیا ګړندی کړي.
دا ډول ستونزې، څومره چې جدي دي، د AI "خیاطۍ" ستونزې په پرتله تیاره دي. هیلوسینیشن هغه وخت دی کله چې د AI سیسټم معلومات جوړ کړي، چې کېدای شي نومونه، نیټې، کتابونه، حقوقي قضیې، طبي توضیحات، حتی تاریخي پیښې شاملې وي. د مثال په توګه ، ډیری قانوني قضیې شتون لري چیرې چې چیټ بوټس هغه قضیې ایجاد کړې کوم چې وکیلانو د دوی د محکمې فایلونو ته راجع کړي.
یوه قضیه په ګوته کوي: وکیلان چې د 2023 په جون کې د مدعی استازیتوب کوي قضيه د کولمبیا د هوایی شرکت پروړاندې د قانون دعوی کې ښکیلتیا یو لنډیز وړاندې کړ چې پکې د چیټ بوټ لخوا "موندل شوي" شپږ ملاتړي قضیې شاملې وې. له بده مرغه، دا قضیې هیڅکله شتون نه درلود؛ ځینو حتی د هوایی شرکتونو یادونه وکړه چې شتون نلري. قاضي قضیه رد کړه او وکیلان یې د جعلي حوالې کارولو له امله جریمه کړل. وکیلانو، د قاضي له دې ادعا سره چې دوی په بد نیت عمل کړی دی، سره موافق نه دی، په خپله دفاع کې وویل: "موږ په ښه باور کې تېروتنه وکړه چې په دې باور نه وو چې د ټیکنالوژۍ یوه برخه د ټول ټوکر څخه قضیې جوړوي.
حتی خورا پیچلي چیټ بوټونه کولی شي د هوښیارتیا سره مخ شي. کله چې په 2024 سوپر باول کې د شرط کولو لپاره د ستونزو په اړه وپوښتل شول چې بله ورځ به ترسره شي ، د ګوګل چیټ بوټ اعلان د شرط کولو لپاره ډیر ناوخته و ځکه چې سوپر باول لا دمخه ترسره شوی و، د سان فرانسیسکو 49ers د کنساس ښار مشرانو ته د 34 څخه تر 28 نمرې ماتې ورکړه. حتی د لوبغاړو ځینې احصایې هم پکې شاملې وې. لوبه، کله چې لوبه وشوه، د کنساس ښار وګټله. د مایکروسافټ چیټ بوټ ورته کار وکړ ، ادعا یې وکړه چې لوبه پای ته رسیدلې که څه هم دا لا نه وه لوبول شوې. که څه هم دا اعلان وکړ چې د کنساس ښار مشران بریالي شوي.
اوس تصور وکړئ چې لګښتونه به یې څه وي که چیرې یو چیټ بوټ د طبي مشورې ورکولو له مغزو سره مخ شي. د متحده ایالاتو اردو په چټکۍ سره په مختلفو لارو کې د AI ټیکنالوژۍ کارول په چټکۍ سره مخ په زیاتیدو دي، په شمول د ګواښونو پیژندل، د بې پیلوټه الوتکو لارښوونه، د استخباراتو راټولول، او د جګړې پلان. د احتمالي ناورین تصور وکړئ چې کیدی شي د سیسټم ناکافي یا نیمګړتیا ډیټا روزنې یا حتی بدتر هیلوسینیشن پایله ولري. ښکاره خبره دا ده چې دا سیسټمونه د بې باورۍ څخه لرې دي، او د مختلفو دلیلونو لپاره. د مایکروسافټ یو داخلي سند دا غوره نیسي، کله چې دا اعلان دا چې د AI نوي سیسټمونه "د هڅونې لپاره جوړ شوي، نه ریښتیا."
څه باید وشي؟
تر دې دمه د AI په اړه عامه اندیښنې په پراخه کچه د AI سیسټمونو لخوا د شخصي معلوماتو غیر منع شوي کارونې تمرکز کوي. خلک د دوی د موادو غیر مجاز ویب سکریپینګ پروړاندې محافظت غواړي. او دوی نه غواړي د AI سیسټمونو سره د دوی متقابل عمل د ډیټا تولید کولو فعالیت شي چې کولی شي دوی د درغلیو ، تبعیض یا ځورونې سره مخ کړي. مختلف ایالتونه او محلي حکومتونه اوس دي په پام کې نیول د دې ترلاسه کولو لارې. او په 2023 کې ، ولسمشر بایډن یو فدرالي صادر کړ اجرایوي امر دا هڅه کوي ډاډ ترلاسه کړي چې نوي "بنسټیز" IA سیسټمونه د عامه خوشې کیدو دمخه د نیمګړتیاو لپاره په مناسب ډول ازمول شوي. دا ګټور لومړني ګامونه دي.
د AI کارولو په اړه ترټولو سخته مبارزه د کار ځای کې ترسره کیږي. شرکتونه د ساتلو لپاره د AI سیسټمونه کاروي ټوپونه د کارګرانو تنظیم کول څارنه د کارګر فعالیت، او کله چې امکان ولري خلاصی موندل د کارګرانو د حیرانتیا خبره نده، د اتحادیې کارګرانو مبارزه پیل کړې، د شرکت د AI سیسټمونو کارولو محدودیتونو وړاندیز کوي.
د مثال په توګه، د امریکا د لیکوالانو ټولنه (WGA)، چې د شاوخوا 12,000 سکرین لیکونکو استازیتوب کوي، یو شمیر لوی تولیدي شرکتونه - په شمول یونیورسل، پیراماونټ، والټ ډیزني، نیټ فلیکس، ایمیزون، او ایپل - په 2023 کې د پنځو میاشتو لپاره د معاش د زیاتوالي په لټه کې دي، د کارموندنې خوندیتوب، او د AI کارولو محدودیتونه. د پام وړ، د براین مرچنټ په توګه، د LA ټایمز لپاره یو کالم لیکونکی، تشریح کوي:
"د تولیدي AI لکه ChatGPT کارولو په اړه اندیښنې حتی د ذهن په سر کې نه وې کله چې لیکوالان لومړی د سټوډیو سره ناست و ترڅو معامله پیل کړي. د WGA لومړي وړاندیز په ساده ډول وویل چې سټوډیوګانې به د اصلي سکریپټونو رامینځته کولو لپاره AI ونه کاروي ، او دا یوازې هغه وخت و چې سټوډیوګانو په کلکه انکار وکړ چې سور بیرغونه پورته شول.
"دا هغه وخت و چې لیکوالانو پوه شو چې سټوډیوګانې د AI کارولو په اړه جدي دي - که د بشپړ شوي سکریپټونو رامینځته کولو لپاره نه وي ، کوم چې دواړه خواوې پدې پوهیدل چې پدې مرحله کې ناممکن دي - بیا د لیکوالانو پروړاندې د ګټې اخیستنې په توګه ، دواړه د ګواښ په توګه او د ټیټ بیا لیکلو وړاندیز توجیه کولو لپاره. فیس دا هغه وخت دی چې WGA په شګه کې کرښه راښکته کړه ، کله چې موږ د پیکټ لاینونو کې نښې لیدل پیل کړل چې په ټولنیزو رسنیو کې د AI ویرل کیدو غندنه کوي او سرلیکونه چې د دې په څیر ورځپاڼو ته د شخړې په ګوته کوي.
په حقیقت کې د AI سیسټمونو کارولو باندې کنټرول ترلاسه کولو اړتیا په اړه د پوهاوي مخ په زیاتیدونکي پوهاوي د لیکوالانو ګیلډ د دې لامل شو چې په اړونده صنعتونو کې د کارمندانو لپاره د اعتصاب په جریان کې د AI په اړه څو غونډې وکړي ، پشمول د ډیجیټل میډیا پلورنځیو کې ګمارل شوي. ډیری برخه اخیستونکي د اعتصاب کونکو سکرین رائټرانو په ملاتړ د پیکټ لاین پای ته ورسیدل.
اعتصاب د لیکوالانو لپاره لوی لاسته راوړنې رامینځته کړې. د AI په شرایطو کې، نوی قرارداد د سکریپټونو لیکلو یا بیا لیکلو یا د سرچینې موادو لپاره د لوی ژبې ماډل AI سیسټمونو کارول منع کوي. له بلې خوا لیکوالانو ته به اجازه ورکړل شي چې له دوی څخه ګټه پورته کړي که دوی وغواړي. قرارداد د AI سیسټمونو روزلو لپاره د لیکوالانو د موادو کارول هم منع کوي. د یو شنونکي په توګه تبصره وکړه، "دا ویره چې لومړی مسودې به د ChatGPT له لارې ترسره شي او بیا به د ټیټ بیا لیکلو فیسونو لپاره لیکوال ته وسپارل شي. دا ممکن د لومړي ډله ایز معاملې تړونونو څخه وي چې د AI لپاره مارکرونه ایښودل کیږي ځکه چې دا کارګرانو پورې اړه لري.
د تلویزیون او راډیو هنرمندانو د سکرین اداکارانو ګیلډ - امریکایی فدراسیون (SAG-AFTRA) د WGA اعتصاب له پیل څخه دوه میاشتې وروسته د لوی فلم او تلویزیون تولید کونکو پروړاندې اعتصاب وکړ. د حیرانتیا خبره نده، د AI پالیسي یو له مهمو مسلو څخه و چې د اعتصاب پریکړه یې هڅوله. شاید تر ټولو مهم، لوبغاړي بریالی شو د نوي قرارداد په ګټلو کې چې تولید کونکي به د AI راتلونکي کارولو په اړه معامله کولو ته اړ کړي.
د مثال په توګه، تړون ته اړتیا لري چې که یو تولید کونکی د "مصنوعي پرفارمر" کارولو پالن لري (د ډیجیټل جوړ شوي طبیعي ښکاري فرد چې "د هیڅ پیژندل شوي طبیعي فعالیت کونکي په توګه د پیژندلو وړ نه وي") دوی باید د اتحادیې سره د پریکړې په اړه خبرتیا او معامله وکړي. یو طبیعي لوبغاړی استخدام کړئ، د فیس امکان سره چې اتحادیې ته ورکړل شي. که یو تولید کونکی وغواړي چې د "پیژندنې وړ مصنوعي پرفارمر" وکاروي (د ډیجیټل ډول رامینځته شوی طبیعي ښکاري فرد چې د طبیعي فعالیت کونکي په توګه پیژندل کیږي) ، دوی باید لومړی د اداکار سره معامله وکړي او د دوی رضایت ترلاسه کړي.
نور کارګران هم د AI ټیکنالوژۍ کارولو په اړه د خپلو بادارانو سره په سخته معامله کې بوخت دي، د بیلګې په توګه، د دوی د دندو ساتنه او د مسلکي معیارونو دفاع لپاره. ژورنالیستانو. د کارګرانو دا مبارزه د AI کارولو لپاره د اړتیا وړ ساتونکو د جوړولو په لور یو مهم پیل دی. دوی کولی شي یو بنسټ وي چې د کارپوریټ ډرایو پروړاندې د پراخه کارګر - ټولنې اتحاد رامینځته کړي ترڅو د AI ټیکنالوژۍ کارولو لپاره د انساني اړیکو او بشري ادارې کمولو لپاره - زموږ په طبي سیسټم ، تعلیمي موسسو ، ترانسپورت ، خبرونو راپور ورکولو ، د عامه ادارو او چمتو کونکو سره اړیکې د توکو او خدماتو لیست، او لیست پرمخ ځي. زموږ د بریا چانسونه به خورا ښه شي که چیرې موږ وکولی شو د کار خلکو سره د هایپ له لارې لیدو کې مرسته وکړو ترڅو د AI ټیکنالوژۍ پورې اړوند د لګښتونو او ګټو بشپړ سلسله په سمه توګه ارزونه وکړو. •
مارتین هارټ لینډسبرګ د لیوس او کلارک کالج، پورټلینډ، اوریګون کې د اقتصاد پروفیسور دی. او د ټولنیزو علومو په انسټیټیوټ کې مربوط څیړونکی، ګیونګسنګ ملي پوهنتون، سویلي کوریا. د هغه د تدریس او څیړنې په برخو کې سیاسي اقتصاد، اقتصادي پراختیا، نړیوال اقتصاد، او د ختیځ آسیا سیاسي اقتصاد شامل دي. هغه یو بلاګ ساتي د اقتصادي محاذ څخه راپورونه.
ZNetwork یوازې د خپلو لوستونکو د سخاوت له لارې تمویل کیږي.
مرسته