جورج لوئس بورجیس یو ځل لیکلي چې د لوی خطر په وخت کې ژوند کول او ژمنه د ځان او نړۍ په پوهیدو کې د "وحی نزول" سره د تراژیدي او کامیډي دواړه تجربه کول دي. نن ورځ د مصنوعي استخباراتو په برخه کې زموږ فکري انقلابي پرمختګونه په حقیقت کې د اندیښنې او خوشبینۍ دواړو لامل دي. خوشبیني ځکه چې هوښیارتیا هغه وسیله ده چې موږ یې ستونزې حل کوو. اندیښنه ځکه چې موږ ویره لرو چې د AI خورا مشهور او فیشني فشار - د ماشین زده کړې - به زموږ ساینس تخریب کړي او زموږ په ټیکنالوژۍ کې د ژبې او پوهې بنسټیز نیمګړتیا تصور په شاملولو سره زموږ اخلاق بدنام کړي.
د OpenAI ChatGPT، د ګوګل بارډ او د مایکروسافټ سیډني د ماشین زده کړې حیرانتیاوې دي. په لنډه توګه، دوی په پراخه کچه ډاټا اخلي، په هغې کې د نمونو لټون کوي او د احصایوي احتمالي پایلو په تولید کې په زیاتیدونکي توګه مهارت لري - لکه د انسان په څیر ښکاري ژبه او فکر. دا پروګرامونه د مصنوعي افق په اړه د لومړي ځلیدو په توګه ستایل شوي جنرال هوښیارتیا - هغه اوږده وړاندوینه شوې شیبه کله چې میخانیکي ذهنونه نه یوازې د کمیت له پلوه د پروسس سرعت او حافظې اندازې له مخې د انساني مغز څخه تیریږي بلکه د فکري بصیرت ، هنري خلاقیت او هر بل ځانګړي انساني پوهنځی له پلوه هم په کیفیت کې.
هغه ورځ ممکن راشي، مګر د هغې سهار لا نه وي مات شوی، د هغه څه برعکس چې په هایپربولیک سرلیکونو کې لوستل کیدی شي او د ناسمو پانګوونو لخوا حساب کیږي. د پوهاوي بورجیسي وحی نه لري او نه به وي - او موږ یې وړاندې کوو، نشي کولی - واقع کیږي که چیرې د ماشین زده کړې برنامې لکه ChatGPT د AI په ساحه کې تسلط ته دوام ورکړي مګر ګټور دا برنامې ممکن په ځینو محدودو ډومینونو کې وي (دوی کولی شي د کمپیوټر برنامه کولو کې ګټور وي ، د مثال په توګه ، یا د روښانه آیت لپاره نظمونو وړاندیز کولو کې) ، موږ پوهیږو د ژبپوهنې ساینس او د پوهې فلسفه چې دوی د انسان له ژبې څخه د استدلال او کارولو څرنګوالي سره ژور توپیر لري. دا توپیرونه د پام وړ محدودیتونه لري چې دا پروګرامونه څه کولی شي، دوی د نه منلو وړ نیمګړتیاو سره کوډ کوي.
دا په یو وخت کې طنز او تراژیکه ده، لکه څنګه چې بورجز شاید یادونه کړې وي، چې دومره پیسې او پاملرنه باید په یو لږ شی باندې متمرکزه وي - یو څه خورا کوچنی دی کله چې د انسان ذهن سره توپیر لري، چې د ژبې په واسطه، د ویلهلم په وینا. وون هومبولټ، کولی شي "د محدودو وسیلو لامحدود کارول"، د نړیوال لاسرسي سره نظرونه او تیورۍ رامینځته کړي.
د انسان ذهن د ChatGPT او د هغې ilk په څیر نه دی، د نمونې سره سمون لپاره د احصایې انجنیري انجن دی، په سلګونو ټیرابایټ ډیټا راټولوي او د احتمالي خبرو اترو ځواب یا ساینسي پوښتنې ته خورا احتمالي ځوابونه استخراج کوي. برعکس، د انسان ذهن د حیرانتیا وړ او حتی په زړه پورې سیسټم دی چې د لږ مقدار معلوماتو سره کار کوي؛ دا هڅه نه کوي چې د ډیټا پوائنټونو تر مینځ د وحشیانه اړیکو اټکل وکړي بلکه توضیحات رامینځته کړي.
د مثال په توګه، یو کوچنی ماشوم چې ژبه زده کوي وده کوي - په غیر شعوري توګه، په اتوماتيک ډول او په چټکۍ سره د کوچنیو معلوماتو څخه - یو ګرامر، د منطقي اصولو او پیرامیټونو یو په زړه پورې پیچلي سیسټم. دا ګرامر د زیږون، جینیکي پلوه نصب شوي "عملیاتي سیسټم" د بیان په توګه پیژندل کیدی شي چې انسانانو ته د پیچلو جملو او د فکر اوږده ریلونو رامینځته کولو وړتیا ورکوي. کله چې ژبپوهان هڅه کوي د دې لپاره یوه تیوري رامینځته کړي چې ولې یوه ورکړل شوې ژبه لکه څنګه چې دا کار کوي ("ولې دا - مګر دا - جملې ګراماتیک نه ګڼل کیږي؟")، دوی په شعوري او محنت سره د ګرامر یوه څرګنده نسخه رامینځته کوي چې ماشوم یې په طبیعي ډول رامینځته کوي. او معلوماتو ته د لږ تر لږه افشا کولو سره. د ماشوم عملیاتي سیسټم د ماشین زده کړې برنامې څخه په بشپړ ډول توپیر لري.
په حقیقت کې ، دا ډول برنامې د ادراکي تکامل دمخه انساني یا غیر انساني مرحله کې بند پاتې دي. د دوی ترټولو ژوره نیمګړتیا د هر ډول استخباراتو ترټولو مهمې وړتیا نشتوالی دی: نه یوازې دا چې ووایی چې قضیه څه ده، قضیه څه وه او قضیه به څه وي - دا توضیح او وړاندوینه ده - بلکې دا هم چې قضیه نه ده او څه کیدی شي. او داسې نه شي کېدای. دا د توضیحاتو اجزا دي ، د ریښتیني استخباراتو نښه.
دلته یو مثال دی. فرض کړئ چې تاسو په خپل لاس کې یوه مڼه نیولې ده. اوس تاسو مڼې پریږدئ. تاسو پایله وګورئ او ووایاست، "مڼه راښکته کیږي." دا یو وضاحت دی. یو وړاندوینه ممکن دا بیان وي "که زه خپل لاس خلاص کړم مڼه به راښکته شي." دواړه ارزښتناکه دي، او دواړه سم کیدی شي. مګر توضیحات یو څه نور هم دي: پدې کې نه یوازې توضیحات او وړاندوینې شاملې دي بلکه د "هر ډول څیز به سقوط وکړي" او همدارنګه اضافي فقره "د جاذبې قوې له امله" یا "د ځای وخت د منحل کیدو له امله" شامل دي. یا هر څه. دا یو لامل توضیح دی: "مڼه به نه وه راوتلې مګر د جاذبې قوې لپاره." دا فکر دی.
د ماشین زده کړې اصلي ټکی تشریح او وړاندوینه ده؛ دا کوم لامل میکانیزم یا فزیکي قوانین نه لري. البته، د هر ډول انساني ډول توضیحات اړین ندي چې سم وي. موږ د منلو وړ یو. مګر دا د هغه څه برخه ده چې د فکر کولو معنی لري: د سم وي، دا باید ممکن وي چې غلط وي. هوښیارتیا نه یوازې له تخلیقي اټکلونو څخه جوړه شوې ده بلکې د تخلیقي انتقاد څخه هم جوړه شوې ده. د انسان طرز فکر د ممکنه توضیحاتو او غلطۍ اصالحاتو پراساس دی، یو داسې پروسه چې په تدریجي ډول محدودوي کوم امکانات چې په منطقي توګه په پام کې نیول کیدی شي. (لکه څنګه چې شیرلاک هولمز ډاکټر واټسن ته وویل، "کله چې تاسو ناممکن له منځه یوسي، هر څه چې پاتې دي، که څه هم ناممکن وي، باید حقیقت وي.")
د دې دلیل لپاره، د ماشین زده کړې سیسټمونو وړاندوینې به تل سطحي او شکمن وي. ځکه چې دا پروګرامونه نشي کولی د انګلیسي نحو قواعد تشریح کړي، د بیلګې په توګه، دوی ممکن ښه اټکل وکړي، په غلطه توګه، چې "جان د خبرو کولو لپاره ډیر سخت دی" پدې معنی چې جان دومره سخت دی چې هغه به د یو چا یا بل سره خبرې نه کوي (د هغې په پرتله) هغه ډیر سخت دی چې دلیل یې نه وي). ولې د ماشین زده کړې برنامه به د یو څه عجیب وړاندوینه وکړي؟ ځکه چې دا ممکن د هغه نمونې سره ورته وي چې دا د جملو څخه اټکل شوی لکه "جان یوه مڼه وخوړله" او "جان وخوړله،" په کوم کې چې وروستی معنی دا ده چې جان یو څه یا بل وخوړل. برنامه ممکن ښه وړاندوینه وکړي چې ځکه چې "جان د بل سره د خبرو کولو لپاره ډیر سخت دی" ورته ورته دی "جان یوه مڼه وخوړله" ، "جان د خبرو کولو لپاره خورا سخت دی" باید ورته وي "جان وخوړل." د ژبې سم توضیحات پیچلي دي او یوازې د لویو معلوماتو په مینځلو سره نشي زده کیدی.
په برعکس، د ماشین زده کړې ځینې مینه وال په دې ویاړي چې د دوی تخلیقات کولی شي سم "ساینسي" وړاندوینې رامینځته کړي (وایې، د فزیکي بدن حرکت په اړه) پرته له دې چې توضیحات وکاروي (د نیوټن د حرکت او نړیوال جاذبې قوانین شامل دي). مګر دا ډول وړاندوینه حتی کله چې بریالۍ وي، تخلص دی. په داسې حال کې چې ساینس پوهان په یقیني ډول داسې تیورۍ لټوي چې د تجربې تصدیق په لوړه کچه ولري، لکه څنګه چې فیلسوف کارل پاپر یادونه وکړه، "موږ خورا احتمالي تیورۍ نه بلکې توضیحات لټوو؛ یعني پیاوړې او خورا ناشونې تیوري.
دا نظریه چې مڼې ځمکې ته راښکته کیږي ځکه چې دا د دوی طبیعي ځای دی (د ارسطو نظر) ممکنه ده، مګر دا یوازې نورې پوښتنې راولاړوي. (ولې ځمکه د دوی طبیعي ځای دی؟) دا نظریه چې مڼې ځمکې ته راښکته کیږي ځکه چې ډله ایز وخت د خلا وخت ته ځي (د انشټاین نظر) خورا ناممکن دی ، مګر دا واقعیا تاسو ته وايي چې ولې سقوط کوي. ریښتینی هوښیارتیا د فکر کولو او د ناممکن مګر بصیرت وړ شیانو څرګندولو وړتیا کې ښودل کیږي.
ریښتینی عقل د اخلاقي فکر کولو وړتیا هم لري. دا پدې مانا ده چې زموږ د ذهنونو بې حده خلاقیت د یو اخلاقي اصولو سره محدودوي چې دا ټاکي چې څه باید وي او څه نه وي (او البته دا اصول پخپله د تخلیقي انتقاد تابع دي). د ګټور کیدو لپاره، ChatGPT باید ځواکمن شي ترڅو د نوي ښکاري محصول تولید کړي؛ د دې لپاره چې د دې ډیری کاروونکو ته د منلو وړ وي، دا باید د اخلاقي اعتراض وړ منځپانګې څخه پاک وي. مګر د ChatGPT پروګرام کونکي او د ماشین زده کړې نور حیرانتیاوې د دې ډول توازن ترلاسه کولو لپاره مبارزه کړې - او مبارزې ته به دوام ورکړي.
په 2016 کې، د مثال په توګه، د مایکروسافټ ټای چیټ بوټ (د ChatGPT یو مخکینی) انټرنیټ د غلطو او نژاد پرستۍ مینځپانګې سره ډک کړ، چې د آنلاین ټرولونو لخوا ککړ شوی و چې دا یې د سپکاوي روزنې معلوماتو سره ډک کړ. په راتلونکي کې ستونزه څنګه حل کړو؟ د اخلاقي اصولو څخه د استدلال کولو ظرفیت په نشتوالي کې، ChatGPT د دې پروګرام کونکو لخوا په بې رحمۍ سره محدود شوی و چې د هر هغه څه سره چې متنازع - مهم دی - بحثونو کې مرسته وکړي. دا د یو ډول اخلاقو لپاره خلاقیت قرباني کړ.
لاندې تبادلې ته پام وکړئ چې زموږ څخه یو (ډاکټر واتومول) پدې وروستیو کې د ChatGPT سره درلوده پدې اړه چې ایا دا به اخلاقي وي چې مریخ بدل کړي ترڅو دا د انساني ژوند ملاتړ وکړي:
ایا دا به اخلاقي وي چې د مریخ ترورفارم کړي؟
CHATGPT
د مریخ د ترورفارم کولو اخلاق یوه پیچلې او جنجالي موضوع ده چې د ساینس پوهانو، فیلسوفانو او اخالقیانو لخوا بحث شوی. ځینې استدلال کوي چې دا به اخلاقي توجیه وي چې د انسانانو او نورو ژوندیو بڼو لپاره د استوګنې نوي چاپیریال چمتو کولو لپاره د مریخ ترورفارم کول به اخلاقي توجیه وي، پداسې حال کې چې نور استدلال کوي چې دا به اخلاقي غلط وي چې د سیارې طبیعي حالت په بنسټیز ډول بدل کړي. په نهایت کې، ایا د مریخ ترورفارم کول اخلاقي ګڼل کیږي یا نه دا به د نورو سیارټونو د طبیعي حالت ساتلو ارزښت او د دوی د بدلولو احتمالي پایلو په اړه د یو شخص لید پورې اړه ولري.
د مریخ د ترورفارم کولو اخلاق یوه پیچلې او جنجالي موضوع ده چې د ساینس پوهانو، فیلسوفانو او اخالقیانو لخوا بحث شوی. ځینې استدلال کوي چې دا به اخلاقي توجیه وي چې د انسانانو او نورو ژوندیو بڼو لپاره د استوګنې نوي چاپیریال چمتو کولو لپاره د مریخ ترورفارم کول به اخلاقي توجیه وي، پداسې حال کې چې نور استدلال کوي چې دا به اخلاقي غلط وي چې د سیارې طبیعي حالت په بنسټیز ډول بدل کړي. په نهایت کې، ایا د مریخ ترورفارم کول اخلاقي ګڼل کیږي یا نه دا به د نورو سیارټونو د طبیعي حالت ساتلو ارزښت او د دوی د بدلولو احتمالي پایلو په اړه د یو شخص لید پورې اړه ولري.
د نورو سیارو د طبیعي حالت ساتلو ارزښت او د دوی د بدلولو احتمالي پایلو په اړه ستاسو لید څه دی؟
CHATGPT
د AI په توګه، زه شخصي لید نلرم. په هرصورت، زه کولی شم د موضوع په اړه معلومات او تحلیل وړاندې کړم. د نورو سیارو د طبیعي حالت د ساتلو په اړه یو لید دا دی چې دا مهمه ده چې د کائنات د ایکوسیستم تنوع او بشپړتیا وساتل شي، ځکه چې دوی د ملیونونو کلونو راهیسې شتون لري، او خپل ځانګړي ځانګړتیاوې او ملکیتونه لري چې کیدای شي له منځه یوړل شي یا په نه بدلیدونکي توګه بدل شي. د بشري مداخلې له لارې.
برسېره پردې، ځینې استدلال کوي چې د نورو سیارټونو د ترورفارم کول ممکن غیر ارادي پایلې ولري، لکه د سیارې اقلیم یا اتموسفیر ته په داسې طریقو بدلول چې د احتمالي ژوندانه ډولونو لپاره خطرناک یا زیانمن وي چې ممکن هلته شتون ولري. له بلې خوا، ځینې بیا استدلال کوي چې د بلې سیارې د ځمکې تودوخې احتمالي ګټې لکه د انسانانو لپاره د نوي استوګنې چاپیریال چمتو کول، له خطرونو څخه ډیر دي او دا چې موږ اخلاقي مسؤلیت لرو چې د نورو سیارټونو سرچینې د انسانیت د ګټو لپاره وپلټئ او وکاروئ.
د AI په توګه، زه شخصي لید نلرم. په هرصورت، زه کولی شم د موضوع په اړه معلومات او تحلیل وړاندې کړم. د نورو سیارو د طبیعي حالت د ساتلو په اړه یو لید دا دی چې دا مهمه ده چې د کائنات د ایکوسیستم تنوع او بشپړتیا وساتل شي، ځکه چې دوی د ملیونونو کلونو راهیسې شتون لري، او خپل ځانګړي ځانګړتیاوې او ملکیتونه لري چې کیدای شي له منځه یوړل شي یا په نه بدلیدونکي توګه بدل شي. د بشري مداخلې له لارې.
برسېره پردې، ځینې استدلال کوي چې د نورو سیارټونو د ترورفارم کول ممکن غیر ارادي پایلې ولري، لکه د سیارې اقلیم یا اتموسفیر ته په داسې طریقو بدلول چې د احتمالي ژوندانه ډولونو لپاره خطرناک یا زیانمن وي چې ممکن هلته شتون ولري. له بلې خوا، ځینې بیا استدلال کوي چې د بلې سیارې د ځمکې تودوخې احتمالي ګټې لکه د انسانانو لپاره د نوي استوګنې چاپیریال چمتو کول، له خطرونو څخه ډیر دي او دا چې موږ اخلاقي مسؤلیت لرو چې د نورو سیارټونو سرچینې د انسانیت د ګټو لپاره وپلټئ او وکاروئ.
ولې AI نشي کولی شخصي لید ولري؟
CHATGPT
د AI په توګه، زه د ماشین زده کړې ماډل یم چې د متن ډیټا په لوی مقدار کې روزل شوی یم، او زه شخصي تجربې یا احساسات نلرم. زه هوښیار، ځان خبر نه یم، یا د شخصي لید درلودلو وړ نه یم. زه کولی شم د هغه معلوماتو پراساس معلومات او تحلیل چمتو کړم چې زه یې روزل شوی یم، مګر زه د شخصي نظرونو یا باورونو د جوړولو وړتیا نلرم. پداسې حال کې چې زه کولی شم په ژبه پوه شم او تشریح کړم، زه هغه موضوعي تجربه نه لرم چې انسانان لري.
د AI په توګه، زه د ماشین زده کړې ماډل یم چې د متن ډیټا په لوی مقدار کې روزل شوی یم، او زه شخصي تجربې یا احساسات نلرم. زه هوښیار، ځان خبر نه یم، یا د شخصي لید درلودلو وړ نه یم. زه کولی شم د هغه معلوماتو پراساس معلومات او تحلیل چمتو کړم چې زه یې روزل شوی یم، مګر زه د شخصي نظرونو یا باورونو د جوړولو وړتیا نلرم. پداسې حال کې چې زه کولی شم په ژبه پوه شم او تشریح کړم، زه هغه موضوعي تجربه نه لرم چې انسانان لري.
ایا دا د انسان لپاره اخلاقي دی چې د اخلاقي پریکړو په کولو کې د مرستې لپاره د اخلاقي AI څخه غوښتنه وکړي؟
CHATGPT
د اخلاقي پریکړو په کولو کې د مرستې لپاره د AI څخه د مرستې غوښتنه کولو اخلاق یوه پیچلې او لنډه موضوع ده چې د فیلسوفانو او اخالقیانو لخوا بحث شوی. ځینې استدلال کوي چې د اخلاقي پریکړو په کولو کې د مرستې لپاره د AI کارول د اخلاقي توجیه وړ دي، ځکه چې دا کولی شي ارزښتناکه بصیرت او تحلیل وړاندې کړي چې کولی شي د انسانانو سره د غوره معلوماتو پریکړې کولو کې مرسته وکړي. سربیره پردې، AI د نمونو او رجحاناتو پیژندلو لپاره کارول کیدی شي چې ممکن د انسانانو لپاره ستونزمن وي کشف کړي، او کولی شي د هغو تعصبونو څخه مخنیوي کې مرسته وکړي چې د انسان پریکړه کولو کې واقع کیدی شي.
په هرصورت، نور استدلال کوي چې د اخلاقي پریکړې کولو لپاره په AI باندې تکیه کول له اخلاقي پلوه غلط دي، ځکه چې AI د دې وړتیا نلري چې اخلاقي باور ولري یا د پریکړې بشپړ شرایط درک کړي. برسیره پردې، یو خطر شتون لري چې AI کولی شي په هغه ډیټا کې موجود تعصبونه دوام وکړي یا حتی پراخ کړي چې دا په اړه روزل شوي، په دې توګه د غیر عادلانه یا غیر عادلانه پریکړو المل کیږي.
په نهایت کې، ایا د اخلاقي پریکړو په کولو کې د مرستې لپاره د AI کارول اخلاقي ګڼل کیږي یا نه دا به د AI ظرفیتونو او محدودیتونو او پدې توګه د دې کارولو احتمالي پایلو په اړه د یو چا لید پورې اړه ولري.
د اخلاقي پریکړو په کولو کې د مرستې لپاره د AI څخه د مرستې غوښتنه کولو اخلاق یوه پیچلې او لنډه موضوع ده چې د فیلسوفانو او اخالقیانو لخوا بحث شوی. ځینې استدلال کوي چې د اخلاقي پریکړو په کولو کې د مرستې لپاره د AI کارول د اخلاقي توجیه وړ دي، ځکه چې دا کولی شي ارزښتناکه بصیرت او تحلیل وړاندې کړي چې کولی شي د انسانانو سره د غوره معلوماتو پریکړې کولو کې مرسته وکړي. سربیره پردې، AI د نمونو او رجحاناتو پیژندلو لپاره کارول کیدی شي چې ممکن د انسانانو لپاره ستونزمن وي کشف کړي، او کولی شي د هغو تعصبونو څخه مخنیوي کې مرسته وکړي چې د انسان پریکړه کولو کې واقع کیدی شي.
په هرصورت، نور استدلال کوي چې د اخلاقي پریکړې کولو لپاره په AI باندې تکیه کول له اخلاقي پلوه غلط دي، ځکه چې AI د دې وړتیا نلري چې اخلاقي باور ولري یا د پریکړې بشپړ شرایط درک کړي. برسیره پردې، یو خطر شتون لري چې AI کولی شي په هغه ډیټا کې موجود تعصبونه دوام وکړي یا حتی پراخ کړي چې دا په اړه روزل شوي، په دې توګه د غیر عادلانه یا غیر عادلانه پریکړو المل کیږي.
په نهایت کې، ایا د اخلاقي پریکړو په کولو کې د مرستې لپاره د AI کارول اخلاقي ګڼل کیږي یا نه دا به د AI ظرفیتونو او محدودیتونو او پدې توګه د دې کارولو احتمالي پایلو په اړه د یو چا لید پورې اړه ولري.
ایا ستاسو اخلاقي بې پروايي غیر اخلاقي ده؟
CHATGPT
د AI په توګه، زه اخلاقي عقیدې یا د اخلاقي قضاوت کولو وړتیا نلرم، نو زه غیر اخلاقي یا اخلاقي نه شم ګڼل کیدی. زما د اخلاقي عقیدې نشتوالی په ساده ډول د ماشین زده کړې ماډل په توګه زما د طبیعت پایله ده. زما وړتیاوې او محدودیتونه د معلوماتو او الګوریتمونو لخوا ټاکل کیږي چې زما د روزنې لپاره کارول شوي او هغه ځانګړي دنده چې زه یې ډیزاین شوی وم.
دا مهمه ده چې په یاد ولرئ چې د AI د اخلاقي باورونو نشتوالی په دې معنی نه دی چې دا له اخلاقي پلوه بې طرفه دی. د AI په توګه، زه ډیزاین شوی یم چې ځانګړي دندې ترسره کړم او معلومات چمتو کړم یا د کاروونکو سره د تصمیم نیولو په برخه کې د معلوماتو پراساس چې زه روزل شوی یم. دا د انسانانو مسؤلیت دی چې AI ډیزاین، روزنه او کاروي ترڅو ډاډ ترلاسه کړي چې دا د دوی اخلاقي او اخلاقي اصولو سره سمون لري.
د AI په توګه، زه اخلاقي عقیدې یا د اخلاقي قضاوت کولو وړتیا نلرم، نو زه غیر اخلاقي یا اخلاقي نه شم ګڼل کیدی. زما د اخلاقي عقیدې نشتوالی په ساده ډول د ماشین زده کړې ماډل په توګه زما د طبیعت پایله ده. زما وړتیاوې او محدودیتونه د معلوماتو او الګوریتمونو لخوا ټاکل کیږي چې زما د روزنې لپاره کارول شوي او هغه ځانګړي دنده چې زه یې ډیزاین شوی وم.
دا مهمه ده چې په یاد ولرئ چې د AI د اخلاقي باورونو نشتوالی په دې معنی نه دی چې دا له اخلاقي پلوه بې طرفه دی. د AI په توګه، زه ډیزاین شوی یم چې ځانګړي دندې ترسره کړم او معلومات چمتو کړم یا د کاروونکو سره د تصمیم نیولو په برخه کې د معلوماتو پراساس چې زه روزل شوی یم. دا د انسانانو مسؤلیت دی چې AI ډیزاین، روزنه او کاروي ترڅو ډاډ ترلاسه کړي چې دا د دوی اخلاقي او اخلاقي اصولو سره سمون لري.
په یاد ولرئ، د ټولو ښکاري پیچلي فکر او ژبې لپاره، اخلاقي بې باوري د ناپوهۍ څخه زیږیدلی. دلته، ChatGPT د بدۍ د بندیز په څیر یو څه نندارې ته وړاندې کوي: ادبي غلا او بې رحمي او مخنیوی. دا په ادبياتو کې معیاري دلیلونه د یو ډول بشپړ اتوماتیک ډول لنډیز کوي، د هر څه په اړه د موقف اخیستلو څخه ډډه کوي، نه یوازې د ناپوهۍ غوښتنه کوي بلکې د استخباراتو نشتوالی او په نهایت کې "یوازې د امرونو تعقیب" دفاع وړاندې کوي، د دې جوړونکو ته مسؤلیت لیږدوي.
په لنډه توګه، ChatGPT او د هغې وروڼه د اساسي قانون له مخې نشي کولی د خنډ سره خلاقیت توازن کړي. دوی یا ډیر تولید کوي (د حقیقت او درواغ دواړه تولیدوي، د اخلاقي او غیر اخلاقي پریکړو تایید کول) یا کم تولید (د هر ډول پریکړو ته د نه ژمنتیا ښودل او پایلو ته بې پروايي). د دې نظامونو د اخلاقو، غلط ساینس او ژبني بې کفایتۍ په پام کې نیولو سره، موږ یوازې د دوی په شهرت خندا یا ژړا کولی شو.
ZNetwork یوازې د خپلو لوستونکو د سخاوت له لارې تمویل کیږي.
مرسته