ຮອດເດືອນພຶດສະພາ 2023, ສ ລັດຖະສະພາເອີຣົບຄະນະກໍາມະຂອງ ປັນຍາປະດິດ ໃນຍຸກດິຈິຕອນ (AIDA) ໄດ້ລົງຄະແນນສຽງເພື່ອເສີມສ້າງຂໍ້ສະເຫນີນິຕິບັນຍັດຂອງຕົນກ່ຽວກັບປັນຍາປະດິດ (AI), ຍ້ອນວ່າກົດຫມາຍ AI ມຸ່ງໄປສູ່ການລົງຄະແນນສຽງທີ່ເຕັມໄປ. ມັນເປັນອີກບາດກ້າວຫນຶ່ງສໍາລັບລະບຽບການທີ່ສົມບູນແບບຂອງ AI ໃນເອີຣົບ.
ພາຍໃນເວລາສັ້ນທີ່ຜິດປົກກະຕິ, ບັນດາສະມາຊິກຂອງລັດຖະສະພາເອີລົບໄດ້ບັນລຸຂໍ້ຕົກລົງກ່ຽວກັບຮ່າງລະບຽບການຮອບດ້ານຄັ້ງທຳອິດຂອງໂລກ. ປັນຍາປະດິດ. ໃນທີ່ສຸດ, ບັນດາສະມາຊິກລັດຖະສະພາ EU ໄດ້ລົງຄະແນນສຽງເພື່ອສົ່ງຕໍ່ຮ່າງກົດໝາຍສະບັບທຳອິດທີ່ຈະກາຍເປັນຮ່າງກົດໝາຍ ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງ EU ກ້າວໄປສູ່ຂັ້ນຕອນຕໍ່ໄປຂອງຂັ້ນຕອນການສ້າງກົດໝາຍຂອງ EU.
ລາຍລະອຽດຂອງ ກົດໝາຍວ່າດ້ວຍ AI - ຕາມທີ່ຮູ້ກັນແລ້ວ - ຕ້ອງໄດ້ຮັບການຮ່ວມມືກັບ 27 ປະເທດສະມາຊິກ EU ທີ່ມີພົນລະເມືອງ 450 ລ້ານຄົນ - ລົບລ້າງ ຫລັງ Brexit ອັງກິດ. ກົດໝາຍ AI ເປັນການປະນີປະນອມ. ມັນໄດ້ພົບເຫັນພື້ນຖານທົ່ວໄປລະຫວ່າງ EU ອະນຸລັກສະຫນັບສະຫນູນຢ່າງແຂງແຮງຂອງການເຝົ້າລະວັງມະຫາຊົນ, ໃນອີກດ້ານຫນຶ່ງ, ແລະມີຄວາມສາມາດເປັນ AI ເກີນມາດຕະການ, ໃນອີກດ້ານຫນຶ່ງ.
ການດຸ່ນດ່ຽງທັງສອງ, ກົດຫມາຍ AI ສະບັບໃຫມ່ຈະເປັນປະນີປະນອມປົກກະຕິຂອງເອີຣົບບັນລຸໄດ້ໂດຍສະພາຂອງ EU ທີ່ຈະຄວບຄຸມ AI ເພື່ອປົກປ້ອງສິດທິພົນລະເຮືອນ, ພ້ອມກັນນັ້ນກໍ່ຊຸກຍູ້ການປະດິດສ້າງ. ແມ້ແຕ່ອະດີດການແບ່ງຂັ້ນຄຸ້ມຄອງ, ພື້ນຖານນິກາຍເສລີນິຍົມ, ແລະນັກເສລີນິຍົມ Elon Musk ໄດ້ຕົກລົງທີ່ຈະຄວບຄຸມ ຮອດ.
ຂໍ້ສະເຫນີຂອງ EU ສໍາລັບລະບົບ AI ຖືກກໍານົດໃຫ້ຈັດປະເພດ AI ຕາມລະດັບຄວາມສ່ຽງທີ່ແຕກຕ່າງກັນ - ຈາກຄວາມສ່ຽງຫນ້ອຍໄປຫາຄວາມສ່ຽງທີ່ຈໍາກັດ, ຄວາມສ່ຽງສູງ, ແລະຄວາມສ່ຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້. ຢ່າງໃດກໍຕາມ, ລະບົບ AI ມີຄວາມສ່ຽງສູງຍັງບໍ່ໄດ້ຮັບການຫ້າມ.
ຢ່າງໃດກໍ່ຕາມ, ລະດັບຄວາມໂປ່ງໃສສູງຫຼາຍແມ່ນຕ້ອງການສໍາລັບການນໍາໃຊ້ລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງ. ອັນນີ້ຍັງຖືກອອກແບບເພື່ອການພັດທະນາທີ່ຍັງມີອະນາຄົດ ແລະມີຄວາມສ່ຽງສູງຂອງສິ່ງທີ່ຜູ້ຊ່ຽວຊານ AI ເອີ້ນວ່າ “AI ທົ່ວໄປ". ດັ່ງກ່າວ AI ຈຸດປະສົງທົ່ວໄປ or AGI ສໍາລັບຕົວຢ່າງ, ລະບົບຈະຕ້ອງເປີດເຜີຍວ່າອຸປະກອນທີ່ມີລິຂະສິດໄດ້ຖືກນໍາໃຊ້.
ມື້ນີ້ເບິ່ງຄືວ່າແລະໄວຫຼາຍຂອງການແຜ່ກະຈາຍຂອງລະບົບເຄິ່ງການຜະລິດເຊັ່ນ: ສົນທະນາ GPT or ກາງແຈ້ງ ໄດ້ເຮັດໃຫ້ຄື້ນຟອງທົ່ວໂລກໃນການເມືອງ, ການສຶກສາ, ແລະທຸລະກິດ.
ຢ່າງໃດກໍຕາມ, ຍັງມີຄວາມກັງວົນຢ່າງກວ້າງຂວາງກ່ຽວກັບສິ່ງດັ່ງກ່າວ ລະບົບ AIs ການໃຫ້ຄໍາຕອບທີ່ບໍ່ຖືກຕ້ອງເຊັ່ນດຽວກັນກັບຄວາມກັງວົນກ່ຽວກັບບັນຫາການປົກປ້ອງຂໍ້ມູນ. ນອກຈາກນັ້ນ, ແຜນການຂອງຈີນກ່ຽວກັບລະບົບ AI ແບບມີອຸດົມການໄດ້ເພີ່ມທະວີການຮຽກຮ້ອງຂອງ EU ກ່ຽວກັບລະບຽບການດ້ານ AI ໃນຂອບເຂດ EU.
ຫວ່າງມໍ່ໆມານີ້, ບັນດາສະມາຊິກລັດຖະສະພາຢູໂຣບ (MEPs) ໄດ້ລົງຄະແນນສຽງເຫັນດີນຳເອົາຂໍ້ກຳນົດດ້ານລະບຽບການສຳລັບປັນຍາປະດິດ. ເອີຣົບ ນັກເຄື່ອນໄຫວສິດທິພົນລະເຮືອນ ແລະອົງການ NGOs ໄດ້ຊົມເຊີຍການເຄື່ອນໄຫວຂອງ EU ແລ້ວ.
ໃນໄລຍະທີ່ເພີ່ມຂຶ້ນ, ຈະບໍ່ມີການຕິດຕາມກວດກາ AI ຄວບຄຸມສະຖານທີ່ສາທາລະນະໃນເອີຣົບ. ນອກຈາກນັ້ນ, MEPs ຍັງໄດ້ລົງຄະແນນສຽງສໍາລັບການຫ້າມຢ່າງສົມບູນ ການເຝົ້າລະວັງມະຫາຊົນ biometric ໃນສະຖານທີ່ສາທາລະນະ, ເຊັ່ນດຽວກັນກັບການສ້າງຖານຂໍ້ມູນການຮັບຮູ້ໃບຫນ້າ.
ສິດທິມະນຸດຂອງເອີຣົບ, ສະມາຄົມສິດທິຜູ້ບໍລິໂພກ, ແລະຫຼາຍພັກການເມືອງໄດ້ຊົມເຊີຍຜົນໄດ້ຮັບດ້ານສິດທິມະນຸດທີ່ພົບເຫັນຢູ່ໃນກົດຫມາຍ AI ຂອງ EU. ຂອງເຢຍລະມັນ AlgorithmWatch – ສະໜັບສະໜູນໂດຍລັດຂອງເຢຍລະມັນ, ສະຫະພັນການຄ້າ, ແລະບໍລິສັດ Robert Bosch – ແມ່ນແຕ່ເອີ້ນມັນວ່າ ສັນຍານທີ່ເຂັ້ມແຂງ ຕໍ່ສິດທິມະນຸດ.
ພ້ອມກັນນັ້ນ, ສະຫະພາບເອີລົບໄດ້ດຳເນີນວຽກງານກ່ຽວກັບລະບຽບການ AI ມາເປັນເວລາຫຼາຍກວ່າ XNUMX ປີ. ໃນອາທິດທີ່ຜ່ານມາ, AI ໄດ້ກາຍເປັນທີ່ຊັດເຈນກວ່າສໍາລັບປະຊາຊົນທົ່ວໄປ. ຕົວກະຕຸ້ນຫຼັກແມ່ນຕົວສ້າງຂໍ້ຄວາມ ສົນທະນາ GPT ແລະເຄື່ອງສ້າງຮູບພາບເຊັ່ນ Midjourney ແລະ ການແຜ່ກະຈາຍຄົງທີ່.
ໃນເຄື່ອງຈັກຊອກຫາ monopolized ສູງ "ຕະຫຼາດ"- ສ່ວນແບ່ງທົ່ວໂລກຂອງ Google ແມ່ນ 93% – ມີປະເພດຂອງການທໍາທ່າເປັນ "ເຊື້ອຊາດ" ໃນບັນດາ ຊ້າງຢູ່ໃນຫ້ອງ (Google) ແລະມືຫນູ (Bing, Yahoo, Yandex, ແລະອື່ນໆ). ບາງຄົນກໍາລັງຊອກຫາເຂົ້າໄປໃນຄວາມຕົກໃຈຂອງຜູ້ທີ່ອາດຈະສາມາດແຂ່ງຂັນກັບຜູ້ໃຫ້ບໍລິການເດັ່ນຂອງໂລກ - Google.
Microsoft ຂອງ ໃຫ້ກວດເບິ່ງວ່າ ໄດ້ປະສົມປະສານແລ້ວ ສົນທະນາ GPT ເຂົ້າໄປໃນເຄື່ອງຈັກຊອກຫາຂອງມັນ. ຫຼັງຈາກນັ້ນບໍ່ດົນ, Google ໄດ້ປະກາດໃນກອງປະຊຸມຜູ້ພັດທະນາຂອງຕົນ, ວ່າຈະໃຫ້ຄໍາຕອບທີ່ເຫນືອກວ່າສໍາລັບຄໍາທີ່ສ້າງເປັນຄໍາຖາມໃນເຄື່ອງຈັກຊອກຫາຄລາສສິກຂອງມັນ.
ໃນເອີຣົບ, ການບໍລິການອິນເຕີເນັດທັງຫມົດເຫຼົ່ານີ້ຈະຖືກຄວບຄຸມໂດຍ ກົດໝາຍວ່າດ້ວຍ AI. ນີ້ແມ່ນຈໍາເປັນບໍ່ພຽງແຕ່ສໍາລັບເຄື່ອງສ້າງຂໍ້ຄວາມທີ່ສະຫນັບສະຫນູນ AI ທີ່ເຮັດໃຫ້ຫົວຂໍ້ລົບແຕ່ຍັງຍ້ອນວ່າພວກເຂົາສາມາດສ້າງຂໍ້ຄວາມທີ່ເຕັມໄປດ້ວຍຂໍ້ຄວາມໄດ້ງ່າຍ. ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ ແລະຂໍ້ມູນທີ່ຫຼອກລວງ, ແລະການບໍ່ໃຫ້ຂ່າວທີ່ບໍ່ຖືກຕ້ອງ.
ຢ່າງໃດກໍຕາມ, ຄາດວ່າ AI chatbots ອາດຈະໃຊ້ເວລາຫຼາຍແລະຄວາມພະຍາຍາມຫຼາຍ Alexandra Geese, ຜູ້ຊ່ຽວຊານດ້ານດິຈິຕອນສໍາລັບພັກສີຂຽວເອີຣົບ. ນັກການເມືອງຂອງສະຫະພາບເອີຣົບບໍ່ຕ້ອງການໃຫ້ AI ແລະ ChatGPT ມີຊ່ອງທາງທີ່ຈະແຜ່ລາມ disinformation, ຄໍາເວົ້າທີ່ກຽດຊັງ, ທີ່ບໍ່ຖືກຕ້ອງ, ແລະ ຂໍ້ມູນຈໍາແນກ.
ຫຼາຍໆຄົນໃນເອີຣົບເຊື່ອ - ບາງທີອາດບໍ່ຖືກຕ້ອງ - ວ່າ EU ຈະໃສ່ ຄົນຂ້າງເທິງຜົນກໍາໄລ – ເປັນການກະທຳທີ່ຍາກທີ່ຈະບັນລຸໄດ້ພາຍໃຕ້ລະບອບທຶນນິຍົມ. ຍັງ, AlgorithmWatch ຍິນດີຕ້ອນຮັບການຫ້າມຂອງເອີຣົບໃນເວລາທີ່ແທ້ຈິງ ການຮັບຮູ້ທາງຊີວະພາບ ເຕັກນິກທີ່ໃຊ້ສໍາລັບການຮັບຮູ້ໃບຫນ້າ. ເຄື່ອງມື AI ເຫຼົ່ານີ້ແມ່ນພື້ນຖານສໍາລັບການເຝົ້າລະວັງມະຫາຊົນ.
ພວກມັນຍັງຮຸກຮານຄວາມເປັນສ່ວນຕົວຂອງມະນຸດ, ແລະພວກມັນເປັນບ່ອນລ້ຽງລູກທີ່ອຸດົມສົມບູນສໍາລັບການຈໍາແນກ, ຄວາມລໍາອຽງ, ແລະການໃສ່ຮ້າຍປ້າຍສີ. ເພື່ອຕໍ່ສູ້ກັບເລື່ອງນີ້, ການລົງຄະແນນສຽງຂອງລັດຖະສະພາຢູໂຣບແມ່ນເປັນ ການບຸກທະລຸປະຫວັດສາດ. ໂດຍສະເພາະສໍາລັບຜູ້ທີ່ຊອກຫາວິທີປ້ອງກັນ a ຢູ່ປາຍຍອດ- ຄ້າຍຄື ອະນາຄົດ dystopian ຂອງ biometric ການເຝົ້າລະວັງມະຫາຊົນໃນ ເອີຣົບ ອີງໃສ່, ສໍາລັບການຍົກຕົວຢ່າງ, ໄດ້ ແບບຈີນ.
ການຍ້ອງຍໍກົດໝາຍ AI ສະບັບໃໝ່ຂອງ EU ຍັງມາຈາກ ສິດທິດິຈິຕອນເອີຣົບ ເຄືອຂ່າຍ (EDRi). EDRI ໂຕ້ແຍ້ງວ່າ ການຕັດສິນໃຈຂອງ EU ເມື່ອບໍ່ດົນມານີ້ ໄດ້ສະແດງໃຫ້ເຫັນວ່າ EU ຍິນດີວາງອອກ ຄົນຂ້າງເທິງຜົນກໍາໄລ. ຢ່າງໃດກໍຕາມ, ບາງດ້ານຂອງກົດຫມາຍວ່າດ້ວຍ AI ຍັງໄດ້ຮັບການວິພາກວິຈານ.
ສໍາລັບຫນຶ່ງ, ນັກພັດທະນາ AI ສາມາດຕັດສິນໃຈ "ສໍາລັບຕົນເອງ" ບໍ່ວ່າຈະເປັນລະບົບ AI ຂອງເຂົາເຈົ້າ "ມີຄວາມສໍາຄັນ" ພຽງພໍທີ່ຈະຖືກຈັດປະເພດເປັນ ".ຜະລິດຕະພັນທີ່ມີຄວາມສ່ຽງສູງ”. ຂໍ້ກໍານົດທີ່ເຂັ້ມງວດພຽງແຕ່ນໍາໃຊ້ກັບຮູບແບບຂອງ AI ທີ່ຖືກຈັດປະເພດເປັນຄວາມສ່ຽງສູງ.
ຫວ່າງມໍ່ໆມານີ້, ອີກສະຖາບັນຂອງສະຫະພາບເອີລົບ - ສ ສະພາຂອງສະຫະພາບເອີຣົບ ຕາງໜ້າໃຫ້ 27 ປະເທດສະມາຊິກ - ຍັງໄດ້ຕົກລົງກ່ຽວກັບຕໍາແຫນ່ງ AI ທົ່ວໄປ. ເຖິງຢ່າງໃດກໍຕາມ, ອົງການສິດທິພົນລະເມືອງຫຼາຍອົງການໄດ້ຕິຕຽນຂໍ້ສະເໜີດັ່ງກ່າວມີຊ່ອງຫວ່າງຫຼາຍຢ່າງ. ຕົວຢ່າງ, ແຜນການຂອງສະພາຍັງຈະເຮັດໃຫ້ການຮັບຮູ້ biometric ຂອງປະຊາຊົນເປັນໄປໄດ້. ຂະນະທີ່ແຜນການຂອງລັດຖະສະພາ EU ສຳລັບກົດໝາຍສະບັບໃໝ່ໄດ້ປະຕິເສດຊອບແວການຮັບຮູ້ທາງຊີວະພາບທີ່ໃຊ້ພະລັງງານ AI.
ດ້ວຍການພັດທະນາໃນປະຈຸບັນໃນ AI, ນີ້ - ຢ່າງຫນ້ອຍອາດຈະເປັນໄປໄດ້ - ບໍ່ເບິ່ງຄືວ່າເປັນອຸປະກອນສໍາລັບນັກຂຽນນິຍາຍວິທະຍາສາດອີກຕໍ່ໄປ. ຫຼາຍຄົນໄດ້ໂຕ້ຖຽງວ່າດ້ວຍການເປີດຕົວຂອງ Chat-GPT ໃນ ເດືອນພະຈິກ 2022, ມັນໄດ້ກາຍເປັນທີ່ຊັດເຈນຫຼາຍສິ່ງທີ່ AI ສາມາດເຮັດໄດ້. ແລະ - ອາດຈະເປັນຄວາມກັງວົນຫຼາຍ - ແມ່ນຄວາມຈິງທີ່ວ່າ AI ກໍາລັງພັດທະນາຢ່າງໄວວາ.
ຄໍາຮ້ອງສະຫມັກ ChatGPT - ທີ່ຮູ້ຈັກກັບຫຼາຍຄົນ - ຕົວຈິງແລ້ວ GPT-3. ຢ່າງໃດກໍຕາມ, ສະບັບຕໍ່ໄປ - GPT-4 (ມີ 5, 6, ແລະອື່ນໆທີ່ຈະປະຕິບັດຕາມ) – ແມ່ນແລ້ວໃນຕະຫຼາດ. ມັນດີກວ່າຫຼາຍໃນຫຼາຍດ້ານ. ຢ່າງໃດກໍຕາມ, ຜູ້ຊ່ຽວຊານ AI ຫຼາຍຄົນຕົກລົງເຫັນດີວ່າເຕັກໂນໂລຢີສາມາດລົບກວນໄດ້. ຄົນອື່ນໄດ້ເຕືອນ, ທີ່ມີຕໍ່ໄປແລະ Uber-ຮຸ່ນຕໍ່ໄປ, ມັນອາດຈະໃກ້ຊິດກັບມະນຸດ, ຖ້າສິ່ງທັງຫມົດບໍ່ໄດ້ຖືກຈັດໃສ່ໃນເສັ້ນທາງທີ່ມີລະບຽບ.
ໃນຂະນະນັ້ນ, ສາມສະຖາບັນ EU ຈະເລີ່ມການເຈລະຈາກ່ຽວກັບກົດໝາຍ AI ໃໝ່. ຮ້າຍແຮງໄປກວ່ານັ້ນ, ສະຫະພາບເອີຣົບເອງເຫັນໄລຍະການປະຕິບັດ 2-3 ປີສໍາລັບກົດຫມາຍວ່າດ້ວຍ AI. ສໍາລັບສິ່ງນັ້ນ, EU ວາງແຜນທີ່ຈະສ້າງຕັ້ງອໍານາດການປົກຄອງໃຫມ່ໃນຂະນະທີ່ນັກພັດທະນາ AI ໄດ້ຮັບເວລາພຽງພໍເພື່ອປັບຕົວເຂົ້າກັບກົດລະບຽບໃຫມ່.
ເຖິງຢ່າງໃດກໍຕາມ, ຂະບວນການຊ້າຂອງກົນໄກລະບຽບການ EU ອາດຈະເປັນບັນຫາເພີ່ມເຕີມ. ຫຼັງຈາກປະມານ 3 ຫາ 5 ປີ, AI ຈະເປັນເຕັກໂນໂລຢີທີ່ແຕກຕ່າງກັນຫມົດເມື່ອທຽບໃສ່ກັບສິ່ງທີ່ພວກເຮົາເຫັນໃນມື້ນີ້. ຮ້າຍແຮງໄປກວ່ານັ້ນ, ມັນອາດຈະບໍ່ດີແທ້ໆ ການຈໍາແນກແບບວິທີ ສາມາດ - ສົມມຸດຕິຖານ - ເພີ່ມຂຶ້ນເມື່ອມີຄົນອັບໂຫລດຂີ້ເຫຍື້ອຫຼາຍຂື້ນ (ເຊັ່ນ: ຂ່າວປອມ, ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ຄໍາເວົ້າທີ່ກຽດຊັງ, ແລະອື່ນໆ) - ເຂົ້າໄປໃນອິນເຕີເນັດ.
ນັບຕັ້ງແຕ່ໂຄງການເຊັ່ນ ສົນທະນາ GPT ຝຶກອົບຮົມຕົນເອງໂດຍການວິເຄາະຂໍ້ມູນຈໍານວນຫລາຍຈາກອິນເຕີເນັດ, AI ສາມາດປ້ອນຂີ້ເຫຍື້ອຈໍານວນຫຼວງຫຼາຍ. ຂີ້ເຫຍື້ອໃນ, ຂີ້ເຫຍື້ອອອກ! ໃນຄໍາສັບຕ່າງໆອື່ນໆ, ສັງຄົມຈໍາແນກຂອງພວກເຮົາຜະລິດຂໍ້ມູນການຝຶກອົບຮົມຈໍາແນກທີ່ປ້ອນເຂົ້າໃນໂຄງການ AI ເຊັ່ນ ChatGPT.
ກັບຄືນໄປບ່ອນຂະບວນການສ້າງກົດຫມາຍຂອງ EU, ມີວິທີການພື້ນຖານທີ່ດໍາເນີນການໂດຍຜ່ານກົດຫມາຍ AI ຂອງ EU. ໂຄງການ AI ໄດ້ຖືກມອບຫມາຍໃຫ້ຫນຶ່ງໃນ ສີ່ປະເພດຄວາມສ່ຽງ: ຄວາມສ່ຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້; ມີຄວາມສ່ຽງສູງ; ຄວາມສ່ຽງຈໍາກັດ; ແລະຄວາມສ່ຽງຫນ້ອຍຫຼືບໍ່ມີ.
ຂຶ້ນຢູ່ກັບພື້ນທີ່ຂອງຄໍາຮ້ອງສະຫມັກ, ສາມາດເຮັດໄດ້ ບໍ່ມີຄວາມສ່ຽງ ແລະ ຄວາມສ່ຽງຕໍ່າ. ໃນກໍລະນີດັ່ງກ່າວ, ບໍ່ມີຫຼືພຽງແຕ່ລະບຽບການຈໍານວນຫນຶ່ງນໍາໃຊ້. ນອກຈາກນັ້ນ, AI ໃນຂົງເຂດຊັບພະຍາກອນມະນຸດ, ການສຶກສາ, ພື້ນຖານໂຄງລ່າງທີ່ສໍາຄັນ, ແລະການບັງຄັບໃຊ້ກົດຫມາຍ, ແລະອື່ນໆແມ່ນຖືວ່າມີຄວາມສ່ຽງສູງ. ໃນກໍລະນີດັ່ງກ່າວ, ກົດລະບຽບທີ່ນໍາໃຊ້ແມ່ນສໍາລັບການອະນຸມັດ, ຄຸນນະພາບຂອງຂໍ້ມູນ, ຄວາມໂປ່ງໃສ, ແລະການຊີ້ນໍາຂອງມະນຸດ.
ປະເພດສີ່ຂອງກົດຫມາຍ - ຄວາມສ່ຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້ - ຫມາຍຄວາມວ່າການນໍາໃຊ້ AI ສາມາດຖືກຫ້າມ. ນີ້ໃຊ້ກັບພື້ນທີ່ທີ່ໄດ້ກ່າວມາຂ້າງເທິງຂອງການກວດສອບ biometric ໃນເວລາທີ່ແທ້ຈິງໃນພື້ນທີ່ສາທາລະນະ.
ໂດຍລວມແລ້ວ, ປັດໄຈເວລາທີ່ໄດ້ລະບຸໄວ້ຂ້າງເທິງນີ້ໃນການປະຕິບັດກົດໝາຍ AI ຂອງ EU ບໍ່ແມ່ນບັນຫາດຽວ. ບາງທີອາດເປັນບັນຫາໃຫຍ່ກວ່າ ແມ່ນວິທີທີ່ຈະເອົາຊະນະ ອຸດົມການ neoliberalism ແຜ່ຫຼາຍໃນຂະແຫນງ AI. ເລື້ອຍໆເກີນໄປ, ມັນ culminates ໃນ deregulation zealous (ອ່ານ: ລະບຽບການສົ່ງເສີມທຸລະກິດ); phantasm ຂອງ ການເສື່ອມໂຊມຂອງ Ayn Rand; ແລະ rampant ເທັກໂນໂລຍີເສລີພາບ.
ຮ້າຍແຮງກວ່າເກົ່າ, ມີສ່ວນທີ່ສໍາຄັນຂອງ ຊັ້ນສູງຂອງທຶນນິຍົມ ແລະ entourage ຂອງ apparatchiks ທີ່ເປັນປະໂຫຍດ ທີ່ຖືກຂັບເຄື່ອນຫນ້ອຍລົງໂດຍຄວາມກັງວົນຂອງ ຄວາມບໍ່ຍຸຕິທຳ ແລະການລະເມີດສິດທິມະນຸດ, ແຕ່ຫຼາຍຂື້ນໂດຍອຸດົມການຕະຫຼາດເສລີຂອງ neoliberalism ແລະການຕົກຕະລຶງຂອງການແຂ່ງຂັນນິລັນດອນ.
ດັ່ງນັ້ນ, ກົດລະບຽບ AI ທີ່ຮ້າຍແຮງພຽງແຕ່ຈະຖືກບັງຄັບໃຊ້ - ບໍ່ເຄີຍ "ຕໍ່ຕ້ານ" - ແຕ່ວ່າພຽງແຕ່ "ກັບ" ຜົນປະໂຫຍດຂອງທຶນທີ່ເດັ່ນໃນໃຈ. ແນວຄິດນີ້ມີອຸດົມການຢ່າງສວຍສົດງົດງາມເຊັ່ນລັດທິນິຍົມນິຍົມ, ລະບຽບການ, ແລະບໍ່ມີການຄວບຄຸມ. ເທັກໂນໂລຍີເສລີພາບ.
ແລະນີ້ບໍ່ໄດ້ກ່າວເຖິງພະລັງງານທີ່ຮ້າຍແຮງຫຼາຍຂອງ lobbying ອົງກອນ ຕົກແຕ່ງດ້ວຍເງິນສົດຫຼາຍໂດຍ ບໍລິສັດເຕັກໂນໂລຊີຫຼາຍແຫ່ງຊາດ ທີ່ລີ້ຢູ່ໃນພື້ນຫຼັງ. ບາງທີ, ມັນຍັງງ່າຍຕໍ່ການຈິນຕະນາການ ຈຸດຈົບຂອງໂລກທີ່ເກີດຈາກ AI, ກ່ວາທີ່ຈະຈິນຕະນາການໃນຕອນທ້າຍຂອງ ທຶນນິຍົມຂອງບໍລິສັດ.
ZNetwork ໄດ້ຮັບທຶນພຽງແຕ່ໂດຍຜ່ານຄວາມເອື້ອເຟື້ອເພື່ອແຜ່ຂອງຜູ້ອ່ານຂອງຕົນ.
ບໍລິຈາກ