ການຮັບຮູ້ facial ໄດ້ຫັນປ່ຽນຈາກເທັກໂນໂລຍີນະວັດຕະກໍາໄປສູ່ຄວາມເປັນຈິງຂອງຊີວິດຂອງຫຼາຍໆຄົນ, ຢ່າງຫນ້ອຍຫຼາຍລ້ານຄົນໃນທົ່ວໂລກເຕັມໃຈທີ່ຈະສະແກນໃບຫນ້າຂອງພວກເຂົາດ້ວຍຊອບແວຢູ່ສະຫນາມບິນ, iPhones, ຫຼືຟາມເຊີຟເວີຂອງ Facebook. ແຕ່ນັກຄົ້ນຄວ້າທີ່ສະຖາບັນ AI Now ຂອງມະຫາວິທະຍາໄລນິວຢອກໄດ້ອອກ ຄຳ ເຕືອນຢ່າງແຂງແຮງຕໍ່ບໍ່ພຽງແຕ່ການຮັບຮູ້ໃບ ໜ້າ ຢູ່ທົ່ວທຸກແຫ່ງ, ແຕ່ຍາດພີ່ນ້ອງທີ່ຂີ້ຮ້າຍກວ່າ: ອັນທີ່ເອີ້ນວ່າຜົນກະທົບຕໍ່ການຮັບຮູ້, ເຕັກໂນໂລຢີທີ່ອ້າງວ່າມັນສາມາດຊອກຫາຄວາມ ໝາຍ ທີ່ເຊື່ອງໄວ້ໃນຮູບຮ່າງຂອງດັງ, ຮູບຮ່າງ. ຂອງປາກຂອງເຈົ້າ, ແລະວິທີທີ່ເຈົ້າຍິ້ມ. ຖ້າມັນເບິ່ງຄືວ່າບາງສິ່ງບາງຢ່າງທີ່ຫຼົ່ນລົງຈາກສະຕະວັດທີ 19, ນັ້ນແມ່ນຍ້ອນວ່າມັນເປັນແນວນັ້ນ.
AI Now ຂອງປີ 2018 ບົດລາຍງານ ແມ່ນບັນທຶກ 56 ຫນ້າຂອງວິທີການ "ປັນຍາປະດິດ" - ຄໍາສັບທີ່ປະກອບດ້ວຍຫຼາຍຄວາມພະຍາຍາມທາງວິທະຍາສາດເພື່ອຈໍາລອງການຕັດສິນຂອງມະນຸດແລະເລື່ອງໄຮ້ສາລະທາງກາລະຕະຫຼາດ - ສືບຕໍ່ແຜ່ລາມໂດຍບໍ່ມີການກວດກາ, ກົດລະບຽບ, ຫຼືການກວດສອບດ້ານຈັນຍາບັນທີ່ມີຄວາມຫມາຍ. ບົດລາຍງານໄດ້ກວມເອົາຢ່າງກວ້າງຂວາງຂອງການນໍາໃຊ້ແລະການລ່ວງລະເມີດ, ລວມທັງຕົວຢ່າງຂອງການຈໍາແນກເຊື້ອຊາດ, ການເຝົ້າລະວັງຂອງຕໍາຫຼວດ, ແລະວິທີການກົດຫມາຍຄວາມລັບທາງການຄ້າສາມາດເຊື່ອງລະຫັດອະຄະຕິຈາກສາທາລະນະທີ່ມີ AI ເຝົ້າລະວັງ. ແຕ່ AI Now, ເຊິ່ງໄດ້ຖືກສ້າງຕັ້ງຂຶ້ນໃນປີກາຍນີ້ເພື່ອຕໍ່ສູ້ກັບຜົນກະທົບທາງສັງຄົມຂອງປັນຍາປະດິດ, ສະແດງອອກໃນເອກະສານໂດຍສະເພາະຄວາມຢ້ານກົວກ່ຽວກັບຜົນກະທົບຕໍ່ການຮັບຮູ້, "ປະເພດຍ່ອຍຂອງການຮັບຮູ້ໃບຫນ້າທີ່ອ້າງວ່າສາມາດກວດພົບສິ່ງຕ່າງໆເຊັ່ນ: ບຸກຄະລິກກະພາບ, ຄວາມຮູ້ສຶກພາຍໃນ, ສຸຂະພາບຈິດ, ແລະ 'ການມີສ່ວນຮ່ວມຂອງພະນັກງານ' ໂດຍອີງໃສ່ຮູບພາບຫຼືວິດີໂອຂອງໃບຫນ້າ." ຄວາມຄິດຂອງນາຍຈ້າງຂອງເຈົ້າເບິ່ງເຈົ້າຜ່ານກ້ອງຖ່າຍຮູບທີ່ໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກຢ່າງຕໍ່ເນື່ອງເພື່ອປະເມີນສະພາບຈິດໃຈຂອງເຈົ້າບໍ່ດີພໍ, ໃນຂະນະທີ່ຄວາມສົດໃສດ້ານຂອງຕໍາຫຼວດທີ່ນໍາໃຊ້ "ການຮັບຮູ້ຜົນກະທົບ" ເພື່ອຕັດເອົາອາຊະຍາກໍາໃນອະນາຄົດຂອງເຈົ້າໂດຍອີງໃສ່ "ການສະແດງຈຸລະພາກ" ແມ່ນຮ້າຍແຮງກວ່າເກົ່າ.
ນັ້ນແມ່ນຍ້ອນວ່າ "ຜົນກະທົບຕໍ່ການຮັບຮູ້," ບົດລາຍງານໄດ້ອະທິບາຍວ່າ, ແມ່ນຫຼາຍກ່ວາຫນ້ອຍຂອງຄອມພິວເຕີຂອງ physiognomy, ເປັນຄວາມອັບອາຍຢ່າງເລິກເຊິ່ງແລະຖືກທໍາລາຍຂອງ pseudoscience ຈາກຍຸກອື່ນທີ່ອ້າງວ່າລັກສະນະຂອງບຸກຄົນສາມາດເຫັນໄດ້ຈາກຮ່າງກາຍຂອງພວກເຂົາ - ແລະໃບຫນ້າຂອງເຂົາເຈົ້າ, ໂດຍສະເພາະ. ບໍ່ມີເຫດຜົນທີ່ຈະເຊື່ອວ່ານີ້ແມ່ນຄວາມຈິງໃນຊຸມປີ 1880, ເມື່ອຕົວເລກເຊັ່ນນັກອາຊະຍາກໍາຊາວອິຕາລີທີ່ຫນ້າກຽດ Cesare Lombroso ສົ່ງເສີມທິດສະດີ, ແລະບໍ່ມີເຫດຜົນຫນ້ອຍທີ່ຈະເຊື່ອມັນໃນມື້ນີ້. ຢ່າງໃດກໍຕາມ, ມັນເປັນຄວາມຄິດທີ່ຫນ້າສົນໃຈ, ເຖິງແມ່ນວ່າມັນບໍ່ມີພື້ນຖານໃນວິທະຍາສາດໃດກໍ່ຕາມ, ແລະບໍລິສັດຂໍ້ມູນເປັນສູນກາງໄດ້ກ້າວໄປສູ່ໂອກາດທີ່ຈະບໍ່ພຽງແຕ່ໃສ່ຊື່ຕໍ່ຫນ້າ, ແຕ່ເພື່ອກໍານົດຮູບແບບພຶດຕິກໍາແລະການຄາດຄະເນທັງຫມົດຕໍ່ຄວາມສໍາພັນທີ່ເບິ່ງບໍ່ເຫັນລະຫວ່າງ eyebrow ຂອງທ່ານແລະ. ດັງທີ່ສາມາດຖອດລະຫັດຜ່ານຕາຂອງຄອມພິວເຕີເທົ່ານັ້ນ. ສອງປີກ່ອນ, ນັກສຶກສາຢູ່ມະຫາວິທະຍາໄລຊຽງໄຮ້ໄດ້ເຜີຍແຜ່ບົດລາຍງານລາຍລະອຽດຂອງເຂົາເຈົ້າ ອ້າງວ່າເປັນວິທີການຮຽນຮູ້ເຄື່ອງຈັກໃນການຕັດສິນຄະດີອາຍາໂດຍອີງໃສ່ລັກສະນະຂອງໃບຫນ້າຢ່າງດຽວ. ເອກະສານດັ່ງກ່າວໄດ້ຖືກວິພາກວິຈານຢ່າງກວ້າງຂວາງ, ລວມທັງໂດຍ Kate Crawford ຂອງ AI Now, ຜູ້ທີ່ບອກ The Intercept ມັນປະກອບເປັນ "phrenology ຕົວອັກສອນ ... ພຽງແຕ່ໃຊ້ເຄື່ອງມືທີ່ທັນສະໄຫມຂອງການຮຽນຮູ້ເຄື່ອງຈັກທີ່ມີການຄວບຄຸມແທນທີ່ຈະເປັນ calipers."
Crawford ແລະເພື່ອນຮ່ວມງານຂອງນາງໃນປັດຈຸບັນແມ່ນກົງກັນຂ້າມຫຼາຍກວ່າທີ່ເຄີຍມີຕໍ່ກັບການແຜ່ກະຈາຍຂອງການຄາດຄະເນ algorithmic regressive ທາງດ້ານວັດທະນະທໍາແລະວິທະຍາສາດນີ້: "ເຖິງແມ່ນວ່າ physiognomy ຕົກຢູ່ໃນເງື່ອນໄຂຂອງການພົວພັນກັບວິທະຍາສາດເຊື້ອຊາດ Nazi, ນັກຄົ້ນຄວ້າເປັນຫ່ວງກ່ຽວກັບການເກີດໃຫມ່ຂອງແນວຄວາມຄິດທາງກາຍຍະພາບໃນຜົນກະທົບ. ຄໍາຮ້ອງສະຫມັກການຮັບຮູ້,” ບົດລາຍງານອ່ານ. "ຄວາມຄິດທີ່ວ່າລະບົບ AI ອາດຈະສາມາດບອກພວກເຮົາວ່ານັກຮຽນ, ລູກຄ້າ, ຫຼືຜູ້ຕ້ອງສົງໄສທາງອາຊະຍາກໍາມີຄວາມຮູ້ສຶກແນວໃດຫຼືຄົນປະເພດໃດທີ່ເຂົາເຈົ້າຢູ່ໃນໃຈແມ່ນເປັນຫຼັກຖານທີ່ດຶງດູດໃຫ້ທັງບໍລິສັດແລະລັດຖະບານ, ເຖິງແມ່ນວ່າເຫດຜົນທາງວິທະຍາສາດສໍາລັບການດັ່ງກ່າວ. ການຮຽກຮ້ອງແມ່ນມີຄວາມສົງໃສສູງ, ແລະປະຫວັດສາດຂອງຈຸດປະສົງຈໍາແນກຂອງເຂົາເຈົ້າໄດ້ຖືກບັນທຶກໄວ້ຢ່າງດີ.”
ໃນອີເມລ໌ເຖິງ The Intercept, Crawford, ຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ AI Now ແລະສາດສະດາຈານການຄົ້ນຄວ້າທີ່ໂດດເດັ່ນຂອງ NYU, ພ້ອມດ້ວຍ Meredith Whittaker, ຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ AI Now ແລະນັກວິທະຍາສາດທີ່ໂດດເດັ່ນຂອງ NYU, ໄດ້ອະທິບາຍວ່າເປັນຫຍັງຜົນກະທົບຕໍ່ການຮັບຮູ້ແມ່ນເປັນຫ່ວງກວ່າທຸກມື້ນີ້. , ໂດຍອ້າງອີງໃສ່ສອງບໍລິສັດທີ່ໃຊ້ການປະກົດຕົວເພື່ອສະຫຼຸບໃຫຍ່ກ່ຽວກັບຄົນ. "ຈາກ Faception ອ້າງວ່າພວກເຂົາສາມາດ 'ກວດພົບ' ຖ້າຜູ້ໃດຜູ້ນຶ່ງເປັນຜູ້ກໍ່ການຮ້າຍຈາກໃບຫນ້າຂອງພວກເຂົາໄປຫາຜູ້ສະຫມັກວຽກບັນທຶກ HireVue ເພື່ອຄາດຄະເນວ່າພວກເຂົາຈະເປັນພະນັກງານທີ່ດີໂດຍອີງໃສ່ການສະແດງອອກທາງຫນ້າຂອງຈຸນລະພາກ, ຄວາມສາມາດໃນການນໍາໃຊ້ວິໄສທັດຂອງເຄື່ອງຈັກແລະ. ການວິເຄາະຂໍ້ມູນອັນໃຫຍ່ຫຼວງເພື່ອຊອກຫາຄວາມກ່ຽວຂ້ອງແມ່ນນໍາໄປສູ່ການຮຽກຮ້ອງທີ່ສົງໃສຫຼາຍ,” Crawford ເວົ້າ.
Faception ມີ ຖືກກ່າວຟ້ອງ ເພື່ອກໍານົດຈາກຮູບລັກສະນະຖ້າຜູ້ໃດຜູ້ນຶ່ງ "ບໍ່ສົມດຸນທາງຈິດໃຈ," ກັງວົນ, ຫຼືມີຄວາມຮັກ, ໃນຂະນະທີ່ HireVue ມີ ຈັດອັນດັບ ຜູ້ສະຫມັກວຽກບົນພື້ນຖານດຽວກັນ.
ເຊັ່ນດຽວກັນກັບລະບົບຄອມພິວເຕີຂອງການຕັດສິນອັດຕະໂນມັດ, ເບິ່ງບໍ່ເຫັນແລະການຕັດສິນໃຈ, ທ່າແຮງທີ່ຈະຈັດປະເພດຜິດ, ທຸງ, ຫຼື tagged ແມ່ນອັນໃຫຍ່ຫຼວງທີ່ມີຜົນກະທົບການຮັບຮູ້, ໂດຍສະເພາະໂດຍພື້ນຖານທາງວິທະຍາສາດບາງໆຂອງມັນ: "ວິທີການທີ່ບຸກຄົນຈະຖືກສະແດງໂດຍລະບົບເຫຼົ່ານີ້ແຂ່ງຂັນ. ຜົນໄດ້ຮັບ?,” Crawford ກ່າວຕື່ມວ່າ. “ຈະເກີດຫຍັງຂຶ້ນເມື່ອພວກເຮົາອີງໃສ່ລະບົບ AI ກ່ອງດຳເພື່ອຕັດສິນ 'ຊີວິດພາຍໃນ' ຫຼືຄຸນຄ່າຂອງມະນຸດ? ບາງຜະລິດຕະພັນເຫຼົ່ານີ້ອ້າງເຖິງທິດສະດີທີ່ມີການໂຕ້ຖຽງກັນຢ່າງເລິກເຊິ່ງຢູ່ໃນວັນນະຄະດີທາງດ້ານຈິດໃຈ, ແຕ່ກໍ່ຖືກປະຕິບັດໂດຍຜູ້ເລີ່ມຕົ້ນ AI ຕາມຄວາມເປັນຈິງ.”
ສິ່ງທີ່ຮ້າຍແຮງໄປກວ່າການວິພາກວິຈານທາງວິທະຍາສາດທີ່ບໍ່ດີຕໍ່ຜູ້ໃດຜູ້ນຶ່ງໃນຂອບເຂດກ້ອງຖ່າຍຮູບແມ່ນວ່າ algorithms ການຕັດສິນໃຈເຫຼົ່ານີ້ຖືກເກັບຮັກສາໄວ້ເປັນສ່ວນຕົວໂດຍບໍລິສັດທີ່ພັດທະນາພວກມັນ, ປອດໄພຈາກການກວດສອບຢ່າງເຂັ້ມງວດຢູ່ເບື້ອງຫຼັງຄວາມລັບທາງການຄ້າ. Whittaker ຂອງ AI Now ແຍກອອກຄວາມລັບຂອງບໍລິສັດເປັນການສັບສົນການປະຕິບັດທີ່ເປັນບັນຫາແລ້ວຂອງການຮັບຮູ້ຜົນກະທົບຕໍ່: "ເນື່ອງຈາກວ່າເຕັກໂນໂລຢີເຫຼົ່ານີ້ສ່ວນໃຫຍ່ຖືກພັດທະນາໂດຍບໍລິສັດເອກະຊົນ, ເຊິ່ງດໍາເນີນການພາຍໃຕ້ກົດຫມາຍຄວາມລັບຂອງບໍລິສັດ, ບົດລາຍງານຂອງພວກເຮົາເຮັດໃຫ້ຄໍາແນະນໍາທີ່ເຂັ້ມແຂງສໍາລັບການປົກປ້ອງຜູ້ແຈ້ງຂ່າວດ້ານຈັນຍາບັນພາຍໃນເຫຼົ່ານີ້. ບໍລິສັດ.” Whittaker ຂຽນວ່າ, ການແຈ້ງຂ່າວດັ່ງກ່າວຈະສືບຕໍ່ເປັນສິ່ງສໍາຄັນ, ເພາະວ່າບໍລິສັດຂໍ້ມູນຈໍານວນຫຼາຍປະຕິບັດຄວາມເປັນສ່ວນຕົວແລະຄວາມໂປ່ງໃສເປັນຄວາມຮັບຜິດຊອບ, ແທນທີ່ຈະເປັນຄຸນງາມຄວາມດີ: "ເຫດຜົນແຕກຕ່າງກັນ, ແຕ່ສ່ວນໃຫຍ່ [ນັກພັດທະນາ AI] ປະຕິເສດຄວາມຮັບຜິດຊອບທັງຫມົດແລະເວົ້າວ່າມັນຂຶ້ນກັບລູກຄ້າ. ເພື່ອຕັດສິນໃຈວ່າຈະເຮັດແນວໃດກັບມັນ.” Pseudoscience ຈັບຄູ່ກັບວິສະວະກໍາຄອມພິວເຕີທີ່ທັນສະໄຫມແລະຖືກຈັດໃສ່ໃນບັນຊີທີ່ບໍ່ມີຄວາມຮັບຜິດຊອບ. ສິ່ງທີ່ອາດຈະຜິດພາດ?
ZNetwork ໄດ້ຮັບທຶນພຽງແຕ່ໂດຍຜ່ານຄວາມເອື້ອເຟື້ອເພື່ອແຜ່ຂອງຜູ້ອ່ານຂອງຕົນ.
ບໍລິຈາກ