ນະໂຍບາຍສະບັບປັບປຸງຂອງ Pentagon ກ່ຽວກັບຫຸ່ນຍົນ Killer ແມ່ນຫຍັງ?

ທຳ​ນຽບ​ຫ້າ​ແຈ​ໄດ້​ອອກ​ຖະ​ແຫຼງ​ການ ປັບປຸງໃຫ້ທັນກັບຄໍາສັ່ງ 3000.09 ຂອງຕົນ, ເຊິ່ງກວມເອົາສິ່ງທີ່ພວກເຂົາເອີ້ນວ່າ ປົກຄອງຕົນເອງໃນລະບົບອາວຸດ ແລະຄົນອື່ນໂທຫາ 'ຫຸ່ນຍົນຂ້າ.' ເຮືອບິນບໍ່ມີຄົນຂັບໃນປະຈຸບັນເຊັ່ນ: ກອງທັບອາກາດ ແລະ CIA MQ-9 Reapers ດໍາເນີນການໂດຍການຄວບຄຸມໄລຍະໄກ: ມະນຸດ ນັ່ງຢູ່ທາງຫນ້າຂອງຫນ້າຈໍວິດີໂອ ກຳນົດເປົ້າໝາຍຢູ່ເທິງພື້ນດິນທີ່ໄກຫຼາຍພັນກິໂລແມັດ, ວາງພວກມັນຢູ່ໃນເສັ້ນຂວາງ ແລະປ່ອຍຕົວອອກ ລູກສອນໄຟ Hellfire ຫຼືອາວຸດອື່ນໆ. ອາວຸດເອກະລາດແມ່ນແຕກຕ່າງກັນ: ພວກເຂົາເລືອກເອົາເປົ້າຫມາຍຂອງຕົນເອງໂດຍບໍ່ມີການແຊກແຊງຂອງມະນຸດ. ກົດລະບຽບທີ່ຊັດເຈນແມ່ນຈໍາເປັນກ່ຽວກັບເວລາແລະວິທີທີ່ພວກເຂົາສາມາດຖືກນໍາໃຊ້, ແລະຄໍາສັ່ງໃຫມ່ເຮັດໃຫ້ພວກເຂົາກ້າວເຂົ້າໃກ້.

ສິບປີທີ່ຜ່ານມາເມື່ອສະບັບທໍາອິດຂອງ 3000.09 ຖືກປ່ອຍອອກມາ, ອາວຸດທີ່ປົກຄອງຕົນເອງເບິ່ງຄືກັບນິຍາຍວິທະຍາສາດ. ໃນປັດຈຸບັນພວກເຂົາແມ່ນຈິງຫຼາຍ. ສະຫະປະຊາຊາດອ້າງວ່າ ເຮືອບິນ drones ທີ່ສະໜອງໃຫ້ຕວກກີ ໂຈມຕີເປົ້າໝາຍ ທີ່ເປັນເອກະລາດ ​ໃນ​ລີ​ບີ​ໃນ​ປີ 2020 ​ແລະ​ຂະນະ​ນີ້ຣັດ​ເຊຍ​ກຳລັງ​ປະຕິບັດ​ການ​ຍິງ​ລູກ​ສອນ​ໄຟ​ຢູ່​ອູ​ແກຣນ ຄວາມສາມາດໃນການປົກຄອງຕົນເອງ.

ນັກເຄື່ອນໄຫວຈໍານວນຫຼາຍ, ເຊັ່ນ: ການໂຄສະນາເພື່ອຢຸດ Killer Robotsຕ້ອງການ​ໃຫ້​ມີ​ການ​ຫ້າມ​ບໍ່​ໃຫ້​ມີ​ອາວຸດ​ທີ່​ປົກຄອງ​ຕົນ​ເອງ​ຢ່າງ​ຄົບ​ຖ້ວນ, ຢືນຢັນ​ວ່າ​ຍັງ​ບໍ່​ມີ​ອາວຸດ​ທາງ​ໄກ ການຄວບຄຸມຂອງມະນຸດທີ່ມີຄວາມຫມາຍ ຕະຫຼອດເວລາ. ສະຫະ​ປະຊາ​ຊາດ​ໄດ້​ໂຕ້​ວາ​ທີ​ວ່າ​ຈະ​ເຮັດ​ແນວ​ໃດ ຄວບຄຸມອາວຸດດັ່ງກ່າວເປັນເວລາຫຼາຍປີ.

ຢ່າງໃດກໍຕາມ, ເນື່ອງຈາກວ່າຄໍາສັ່ງໃຫມ່ເຮັດໃຫ້ຈະແຈ້ງ, Pentagon ແມ່ນຕິດກັບເສັ້ນທີ່ແຕກຕ່າງກັນ.

"DoD ໄດ້ຄັດຄ້ານຢ່າງບໍ່ຢຸດຢັ້ງມາດຕະຖານນະໂຍບາຍຂອງ 'ການຄວບຄຸມຂອງມະນຸດທີ່ມີຄວາມຫມາຍ' ເມື່ອເວົ້າເຖິງລະບົບເອກະລາດແລະລະບົບ AI," Gregory Allen, ຜູ້​ອໍາ​ນວຍ​ການ​ໂຄງ​ການ​ກ່ຽວ​ກັບ​ການ​ຄຸ້ມ​ຄອງ AI ຢູ່​ ສູນຄົ້ນຄວ້າຍຸດທະສາດແລະສາກົນ, ບອກ​ຂ້ອຍ. "ຄໍາສັບ DoD ທີ່ຕ້ອງການແມ່ນ 'ລະດັບທີ່ເຫມາະສົມຂອງການຕັດສິນຂອງມະນຸດ,' ເຊິ່ງສະທ້ອນໃຫ້ເຫັນຄວາມຈິງທີ່ວ່າໃນບາງກໍລະນີ - ເຮືອບິນເຝົ້າລະວັງອັດຕະໂນມັດແລະບາງປະເພດຂອງອາວຸດ cyber autonomous, ສໍາລັບການຍົກຕົວຢ່າງ - ລະດັບທີ່ເຫມາະສົມຂອງການຄວບຄຸມຂອງມະນຸດອາດຈະບໍ່ມີຫນ້ອຍ. .”

ອາວຸດທີ່ປົກຄອງຕົນເອງຈະຖືກອະນຸຍາດພາຍໃຕ້ສະຖານະການໃດ? Allen ເຊື່ອວ່າຄໍາສັ່ງສະບັບກ່ອນຫນ້ານັ້ນບໍ່ຊັດເຈນວ່າມັນຂັດຂວາງການພັດທະນາໃດໆໃນຂົງເຂດນີ້.

"ຄວາມສັບສົນແມ່ນແຜ່ຫຼາຍ - ລວມທັງໃນບັນດາຜູ້ນໍາຊັ້ນສູງຂອງ DoD ບາງຄົນ - ເຈົ້າຫນ້າທີ່ໄດ້ປະຕິເສດການພັດທະນາບາງລະບົບທີ່ບໍ່ພຽງແຕ່ໄດ້ຮັບອະນຸຍາດຈາກນະໂຍບາຍເທົ່ານັ້ນ, ແຕ່ຍັງໄດ້ຮັບການຍົກເວັ້ນຢ່າງຈະແຈ້ງຈາກຄວາມຕ້ອງການຂອງການທົບທວນຄືນລະດັບສູງ," Allen ເວົ້າ.

ບໍ່ມີອາວຸດດຽວໄດ້ຖືກສົ່ງກັບຂະບວນການທົບທວນສໍາລັບອາວຸດເອກະລາດທີ່ໄດ້ວາງໄວ້ໃນຕົ້ນສະບັບ 3000.09 ໃນສິບປີນັບຕັ້ງແຕ່ມັນຖືກຈັດພີມມາ.

Allen ຂຽນວ່າ ບົດຂຽນກ່ຽວກັບເລື່ອງນີ້ ສໍາລັບ CSIS ໃນປີກາຍນີ້, ອະທິບາຍສີ່ພື້ນທີ່ທີ່ຕ້ອງການ - ກໍານົດຢ່າງເປັນທາງການລະບົບອາວຸດອັດຕະໂນມັດ, ໂດຍກ່າວວ່າ "AI-enabled" ຫມາຍຄວາມວ່າແນວໃດສໍາລັບນະໂຍບາຍ, ຂະບວນການທົບທວນຈະຈັດການແບບຈໍາລອງການຮຽນຮູ້ເຄື່ອງຈັກ retraining, ແລະຊີ້ແຈງສິ່ງທີ່ປະເພດຂອງອາວຸດຕ້ອງການ. ໄປໂດຍຜ່ານຂະບວນການທົບທວນທີ່ຫຍຸ້ງຍາກ.

Allen ເວົ້າວ່າ "DoD ໄດ້ປະຕິບັດພວກມັນທັງຫມົດ."

ໃນຫຼັກການ, ນີ້ຄວນຈະຮັບປະກັນສິ່ງທີ່ຄໍາສັບ DoD "ຄໍາຫມັ້ນສັນຍາທີ່ເຂັ້ມແຂງແລະສືບຕໍ່ການເປັນຜູ້ນໍາທົ່ວໂລກທີ່ມີຄວາມໂປ່ງໃສໃນການສ້າງຕັ້ງນະໂຍບາຍທີ່ຮັບຜິດຊອບກ່ຽວກັບການທະຫານຂອງລະບົບປົກຄອງຕົນເອງ."

ຢ່າງໃດກໍ່ຕາມ, ມີການເພີ່ມເຕີມບາງຢ່າງທີ່ອາດຈະຖືກເບິ່ງວ່າເປັນຊ່ອງຫວ່າງ, ເຊັ່ນ: ການຍົກເວັ້ນການທົບທວນລະດັບອາວຸໂສສໍາລັບ drones ປ້ອງກັນອາວຸດອັດຕະໂນມັດທີ່ບໍ່ເປົ້າຫມາຍຄົນ ('ອາວຸດຕ້ານວັດຖຸ') ແລະແຕ່ວ່າອະນຸຍາດໃຫ້ເປົ້າຫມາຍລູກສອນໄຟ, drones ອື່ນໆ. ແລະລະບົບອື່ນໆທີ່ມີທ່າແຮງ.

"ຄໍາວ່າ 'ປ້ອງກັນ' ແມ່ນເຮັດວຽກຫຼາຍ," Zak Kallenborn, ເພື່ອນດ້ານນະໂຍບາຍຢູ່ໂຮງຮຽນນະໂຍບາຍແລະລັດຖະບານ Schar ຢູ່ມະຫາວິທະຍາໄລ George Mason ບອກຂ້ອຍ. "ຖ້າ drone ປະຕິບັດການຢູ່ໃນດິນແດນຂອງສັດຕູ, ເກືອບທຸກອາວຸດສາມາດຖືກແປເປັນ 'ປ້ອງກັນ' ເວທີ."

Kallenborn ຍັງໃຫ້ຂໍ້ສັງເກດວ່າໃນຂະນະທີ່ອາວຸດທີ່ມີປະສິດຕິພາບຢ່າງມີປະສິດທິພາບເຊັ່ນລະເບີດຝັງດິນໄດ້ຖືກນໍາໃຊ້ມາເປັນເວລາຫຼາຍກວ່າຫນຶ່ງສະຕະວັດ, ພູມສັນຖານມີການປ່ຽນແປງຢ່າງໄວວາຍ້ອນຄວາມກ້າວຫນ້າຂອງ AI ແລະການຮຽນຮູ້ເຄື່ອງຈັກໂດຍສະເພາະ. ເຫຼົ່ານີ້ໄດ້ກໍ່ໃຫ້ເກີດລະບົບທີ່ມີຄວາມສາມາດຫຼາຍ, ແຕ່ ທາງດ້ານເຕັກນິກ - ເມື່ອພວກເຂົາລົ້ມເຫລວ, ພວກເຂົາລົ້ມເຫລວຢ່າງປະທັບໃຈໃນວິທີທີ່ບໍ່ມີມະນຸດ, ຕົວຢ່າງ ຜິດພາດເຕົ່າສໍາລັບ rifle ໄດ້.

Kallenborn ກ່າວວ່າ "ການເປັນເອກະລາດໂດຍຜ່ານ AI ແນ່ນອນສົມຄວນໄດ້ຮັບຄວາມກັງວົນຫຼາຍ, ເນື່ອງຈາກຄວາມອ່ອນເພຍແລະການຂາດການອະທິບາຍຂອງວິທີການປົກຄອງໃນປະຈຸບັນ," Kallenborn ເວົ້າ.

ການປັບປຸງບໍ່ແມ່ນເລື່ອງໃຫຍ່. ​ແຕ່​ມັນ​ສະ​ແດງ​ໃຫ້​ເຫັນ​ຄວາມ​ໝັ້ນ​ໃຈ​ຂອງ​ທຳ​ນຽບຫ້າ​ແຈ​ຕໍ່​ການ​ພັດທະນາ​ອາວຸດ​ຍຸດ​ໂທ​ປະກອນ​ທີ່​ມີ​ປະສິດທິ​ຜົນ ​ແລະ​ຄວາມ​ເຊື່ອ​ໝັ້ນ​ວ່າ​ເຂົາ​ເຈົ້າສາມາດ​ປະຕິບັດ​ຕາມ. ກົດ ໝາຍ ມະນຸດສະ ທຳ ສາກົນ — ຈໍາ​ແນກ​ພົນ​ລະ​ເຮືອນ​ຈາກ​ພະ​ນັກ​ງານ​ທະ​ຫານ​, ຊອກ​ຫາ​ເພື່ອ​ຫຼີກ​ເວັ້ນ​ການ​ທໍາ​ຮ້າຍ​ພົນ​ລະ​ເຮືອນ​, ແລະ​ພຽງ​ແຕ່​ການ​ນໍາ​ໃຊ້​ສັດ​ສ່ວນ​ແລະ​ກໍາ​ລັງ​ທີ່​ຈໍາ​ເປັນ​.

ນັກໂຄສະນາເຊື່ອວ່າ AI ຈະບໍ່ມີຄວາມເຂົ້າໃຈທີ່ຈໍາເປັນເພື່ອຕັດສິນສິນທໍາໃນສົງຄາມແລະຄວາມສ່ຽງທີ່ຈະສ້າງໂລກທີ່ສົງຄາມແມ່ນອັດຕະໂນມັດແລະມະນຸດບໍ່ມີການຄວບຄຸມອີກຕໍ່ໄປ. ຄົນອື່ນເຊື່ອວ່າກອງທັບສະຫະລັດຈະເປັນ outmatched ໂດຍ opponents ມີອາວຸດເອກະລາດ ເວັ້ນເສຍແຕ່ວ່າ AI ໄດ້ຖືກລວມເຂົ້າຢູ່ໃນລະດັບມີສິດເທົ່າທຽມ, ແລະການມີສ່ວນຮ່ວມຂອງມະນຸດຫຼາຍເກີນໄປ ເຮັດໃຫ້ຫຸ່ນຍົນທະຫານຊ້າລົງ.

ການ​ໂຕ້​ຖຽງ​ກັນ​ມີ​ທ່າ​ທີ​ຈະ​ສືບ​ຕໍ່​ດຳ​ເນີນ​ຕໍ່​ໄປ​ເຖິງ​ແມ່ນ​ວ່າ​ອາ​ວຸດ​ປົກ​ຄອງ​ຕົນ​ເອງ​ເລີ່ມ​ປະ​ກົດ​ຂຶ້ນ, ແລະ​ຜົນ​ຈະ​ໄດ້​ຮັບ​ການ​ຕິດ​ຕາມ​ຢ່າງ​ໃກ້​ຊິດ. ໃນກໍລະນີໃດກໍ່ຕາມ, ມັນເບິ່ງຄືວ່າຫຸ່ນຍົນ killer ກໍາລັງມາ.

ທີ່ມາ: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/