ທຳນຽບຫ້າແຈໄດ້ອອກຖະແຫຼງການ ປັບປຸງໃຫ້ທັນກັບຄໍາສັ່ງ 3000.09 ຂອງຕົນ, ເຊິ່ງກວມເອົາສິ່ງທີ່ພວກເຂົາເອີ້ນວ່າ ປົກຄອງຕົນເອງໃນລະບົບອາວຸດ ແລະຄົນອື່ນໂທຫາ 'ຫຸ່ນຍົນຂ້າ.' ເຮືອບິນບໍ່ມີຄົນຂັບໃນປະຈຸບັນເຊັ່ນ: ກອງທັບອາກາດ ແລະ CIA MQ-9 Reapers ດໍາເນີນການໂດຍການຄວບຄຸມໄລຍະໄກ: ມະນຸດ ນັ່ງຢູ່ທາງຫນ້າຂອງຫນ້າຈໍວິດີໂອ ກຳນົດເປົ້າໝາຍຢູ່ເທິງພື້ນດິນທີ່ໄກຫຼາຍພັນກິໂລແມັດ, ວາງພວກມັນຢູ່ໃນເສັ້ນຂວາງ ແລະປ່ອຍຕົວອອກ ລູກສອນໄຟ Hellfire ຫຼືອາວຸດອື່ນໆ. ອາວຸດເອກະລາດແມ່ນແຕກຕ່າງກັນ: ພວກເຂົາເລືອກເອົາເປົ້າຫມາຍຂອງຕົນເອງໂດຍບໍ່ມີການແຊກແຊງຂອງມະນຸດ. ກົດລະບຽບທີ່ຊັດເຈນແມ່ນຈໍາເປັນກ່ຽວກັບເວລາແລະວິທີທີ່ພວກເຂົາສາມາດຖືກນໍາໃຊ້, ແລະຄໍາສັ່ງໃຫມ່ເຮັດໃຫ້ພວກເຂົາກ້າວເຂົ້າໃກ້.
ສິບປີທີ່ຜ່ານມາເມື່ອສະບັບທໍາອິດຂອງ 3000.09 ຖືກປ່ອຍອອກມາ, ອາວຸດທີ່ປົກຄອງຕົນເອງເບິ່ງຄືກັບນິຍາຍວິທະຍາສາດ. ໃນປັດຈຸບັນພວກເຂົາແມ່ນຈິງຫຼາຍ. ສະຫະປະຊາຊາດອ້າງວ່າ ເຮືອບິນ drones ທີ່ສະໜອງໃຫ້ຕວກກີ ໂຈມຕີເປົ້າໝາຍ ທີ່ເປັນເອກະລາດ ໃນລີບີໃນປີ 2020 ແລະຂະນະນີ້ຣັດເຊຍກຳລັງປະຕິບັດການຍິງລູກສອນໄຟຢູ່ອູແກຣນ ຄວາມສາມາດໃນການປົກຄອງຕົນເອງ.
ນັກເຄື່ອນໄຫວຈໍານວນຫຼາຍ, ເຊັ່ນ: ການໂຄສະນາເພື່ອຢຸດ Killer Robotsຕ້ອງການໃຫ້ມີການຫ້າມບໍ່ໃຫ້ມີອາວຸດທີ່ປົກຄອງຕົນເອງຢ່າງຄົບຖ້ວນ, ຢືນຢັນວ່າຍັງບໍ່ມີອາວຸດທາງໄກ ການຄວບຄຸມຂອງມະນຸດທີ່ມີຄວາມຫມາຍ ຕະຫຼອດເວລາ. ສະຫະປະຊາຊາດໄດ້ໂຕ້ວາທີວ່າຈະເຮັດແນວໃດ ຄວບຄຸມອາວຸດດັ່ງກ່າວເປັນເວລາຫຼາຍປີ.
ຢ່າງໃດກໍຕາມ, ເນື່ອງຈາກວ່າຄໍາສັ່ງໃຫມ່ເຮັດໃຫ້ຈະແຈ້ງ, Pentagon ແມ່ນຕິດກັບເສັ້ນທີ່ແຕກຕ່າງກັນ.
"DoD ໄດ້ຄັດຄ້ານຢ່າງບໍ່ຢຸດຢັ້ງມາດຕະຖານນະໂຍບາຍຂອງ 'ການຄວບຄຸມຂອງມະນຸດທີ່ມີຄວາມຫມາຍ' ເມື່ອເວົ້າເຖິງລະບົບເອກະລາດແລະລະບົບ AI," Gregory Allen, ຜູ້ອໍານວຍການໂຄງການກ່ຽວກັບການຄຸ້ມຄອງ AI ຢູ່ ສູນຄົ້ນຄວ້າຍຸດທະສາດແລະສາກົນ, ບອກຂ້ອຍ. "ຄໍາສັບ DoD ທີ່ຕ້ອງການແມ່ນ 'ລະດັບທີ່ເຫມາະສົມຂອງການຕັດສິນຂອງມະນຸດ,' ເຊິ່ງສະທ້ອນໃຫ້ເຫັນຄວາມຈິງທີ່ວ່າໃນບາງກໍລະນີ - ເຮືອບິນເຝົ້າລະວັງອັດຕະໂນມັດແລະບາງປະເພດຂອງອາວຸດ cyber autonomous, ສໍາລັບການຍົກຕົວຢ່າງ - ລະດັບທີ່ເຫມາະສົມຂອງການຄວບຄຸມຂອງມະນຸດອາດຈະບໍ່ມີຫນ້ອຍ. .”
ອາວຸດທີ່ປົກຄອງຕົນເອງຈະຖືກອະນຸຍາດພາຍໃຕ້ສະຖານະການໃດ? Allen ເຊື່ອວ່າຄໍາສັ່ງສະບັບກ່ອນຫນ້ານັ້ນບໍ່ຊັດເຈນວ່າມັນຂັດຂວາງການພັດທະນາໃດໆໃນຂົງເຂດນີ້.
"ຄວາມສັບສົນແມ່ນແຜ່ຫຼາຍ - ລວມທັງໃນບັນດາຜູ້ນໍາຊັ້ນສູງຂອງ DoD ບາງຄົນ - ເຈົ້າຫນ້າທີ່ໄດ້ປະຕິເສດການພັດທະນາບາງລະບົບທີ່ບໍ່ພຽງແຕ່ໄດ້ຮັບອະນຸຍາດຈາກນະໂຍບາຍເທົ່ານັ້ນ, ແຕ່ຍັງໄດ້ຮັບການຍົກເວັ້ນຢ່າງຈະແຈ້ງຈາກຄວາມຕ້ອງການຂອງການທົບທວນຄືນລະດັບສູງ," Allen ເວົ້າ.
ບໍ່ມີອາວຸດດຽວໄດ້ຖືກສົ່ງກັບຂະບວນການທົບທວນສໍາລັບອາວຸດເອກະລາດທີ່ໄດ້ວາງໄວ້ໃນຕົ້ນສະບັບ 3000.09 ໃນສິບປີນັບຕັ້ງແຕ່ມັນຖືກຈັດພີມມາ.
Allen ຂຽນວ່າ ບົດຂຽນກ່ຽວກັບເລື່ອງນີ້ ສໍາລັບ CSIS ໃນປີກາຍນີ້, ອະທິບາຍສີ່ພື້ນທີ່ທີ່ຕ້ອງການ - ກໍານົດຢ່າງເປັນທາງການລະບົບອາວຸດອັດຕະໂນມັດ, ໂດຍກ່າວວ່າ "AI-enabled" ຫມາຍຄວາມວ່າແນວໃດສໍາລັບນະໂຍບາຍ, ຂະບວນການທົບທວນຈະຈັດການແບບຈໍາລອງການຮຽນຮູ້ເຄື່ອງຈັກ retraining, ແລະຊີ້ແຈງສິ່ງທີ່ປະເພດຂອງອາວຸດຕ້ອງການ. ໄປໂດຍຜ່ານຂະບວນການທົບທວນທີ່ຫຍຸ້ງຍາກ.
Allen ເວົ້າວ່າ "DoD ໄດ້ປະຕິບັດພວກມັນທັງຫມົດ."
ໃນຫຼັກການ, ນີ້ຄວນຈະຮັບປະກັນສິ່ງທີ່ຄໍາສັບ DoD "ຄໍາຫມັ້ນສັນຍາທີ່ເຂັ້ມແຂງແລະສືບຕໍ່ການເປັນຜູ້ນໍາທົ່ວໂລກທີ່ມີຄວາມໂປ່ງໃສໃນການສ້າງຕັ້ງນະໂຍບາຍທີ່ຮັບຜິດຊອບກ່ຽວກັບການທະຫານຂອງລະບົບປົກຄອງຕົນເອງ."
ຢ່າງໃດກໍ່ຕາມ, ມີການເພີ່ມເຕີມບາງຢ່າງທີ່ອາດຈະຖືກເບິ່ງວ່າເປັນຊ່ອງຫວ່າງ, ເຊັ່ນ: ການຍົກເວັ້ນການທົບທວນລະດັບອາວຸໂສສໍາລັບ drones ປ້ອງກັນອາວຸດອັດຕະໂນມັດທີ່ບໍ່ເປົ້າຫມາຍຄົນ ('ອາວຸດຕ້ານວັດຖຸ') ແລະແຕ່ວ່າອະນຸຍາດໃຫ້ເປົ້າຫມາຍລູກສອນໄຟ, drones ອື່ນໆ. ແລະລະບົບອື່ນໆທີ່ມີທ່າແຮງ.
"ຄໍາວ່າ 'ປ້ອງກັນ' ແມ່ນເຮັດວຽກຫຼາຍ," Zak Kallenborn, ເພື່ອນດ້ານນະໂຍບາຍຢູ່ໂຮງຮຽນນະໂຍບາຍແລະລັດຖະບານ Schar ຢູ່ມະຫາວິທະຍາໄລ George Mason ບອກຂ້ອຍ. "ຖ້າ drone ປະຕິບັດການຢູ່ໃນດິນແດນຂອງສັດຕູ, ເກືອບທຸກອາວຸດສາມາດຖືກແປເປັນ 'ປ້ອງກັນ' ເວທີ."
Kallenborn ຍັງໃຫ້ຂໍ້ສັງເກດວ່າໃນຂະນະທີ່ອາວຸດທີ່ມີປະສິດຕິພາບຢ່າງມີປະສິດທິພາບເຊັ່ນລະເບີດຝັງດິນໄດ້ຖືກນໍາໃຊ້ມາເປັນເວລາຫຼາຍກວ່າຫນຶ່ງສະຕະວັດ, ພູມສັນຖານມີການປ່ຽນແປງຢ່າງໄວວາຍ້ອນຄວາມກ້າວຫນ້າຂອງ AI ແລະການຮຽນຮູ້ເຄື່ອງຈັກໂດຍສະເພາະ. ເຫຼົ່ານີ້ໄດ້ກໍ່ໃຫ້ເກີດລະບົບທີ່ມີຄວາມສາມາດຫຼາຍ, ແຕ່ ທາງດ້ານເຕັກນິກ - ເມື່ອພວກເຂົາລົ້ມເຫລວ, ພວກເຂົາລົ້ມເຫລວຢ່າງປະທັບໃຈໃນວິທີທີ່ບໍ່ມີມະນຸດ, ຕົວຢ່າງ ຜິດພາດເຕົ່າສໍາລັບ rifle ໄດ້.
Kallenborn ກ່າວວ່າ "ການເປັນເອກະລາດໂດຍຜ່ານ AI ແນ່ນອນສົມຄວນໄດ້ຮັບຄວາມກັງວົນຫຼາຍ, ເນື່ອງຈາກຄວາມອ່ອນເພຍແລະການຂາດການອະທິບາຍຂອງວິທີການປົກຄອງໃນປະຈຸບັນ," Kallenborn ເວົ້າ.
ການປັບປຸງບໍ່ແມ່ນເລື່ອງໃຫຍ່. ແຕ່ມັນສະແດງໃຫ້ເຫັນຄວາມໝັ້ນໃຈຂອງທຳນຽບຫ້າແຈຕໍ່ການພັດທະນາອາວຸດຍຸດໂທປະກອນທີ່ມີປະສິດທິຜົນ ແລະຄວາມເຊື່ອໝັ້ນວ່າເຂົາເຈົ້າສາມາດປະຕິບັດຕາມ. ກົດ ໝາຍ ມະນຸດສະ ທຳ ສາກົນ — ຈໍາແນກພົນລະເຮືອນຈາກພະນັກງານທະຫານ, ຊອກຫາເພື່ອຫຼີກເວັ້ນການທໍາຮ້າຍພົນລະເຮືອນ, ແລະພຽງແຕ່ການນໍາໃຊ້ສັດສ່ວນແລະກໍາລັງທີ່ຈໍາເປັນ.
ນັກໂຄສະນາເຊື່ອວ່າ AI ຈະບໍ່ມີຄວາມເຂົ້າໃຈທີ່ຈໍາເປັນເພື່ອຕັດສິນສິນທໍາໃນສົງຄາມແລະຄວາມສ່ຽງທີ່ຈະສ້າງໂລກທີ່ສົງຄາມແມ່ນອັດຕະໂນມັດແລະມະນຸດບໍ່ມີການຄວບຄຸມອີກຕໍ່ໄປ. ຄົນອື່ນເຊື່ອວ່າກອງທັບສະຫະລັດຈະເປັນ outmatched ໂດຍ opponents ມີອາວຸດເອກະລາດ ເວັ້ນເສຍແຕ່ວ່າ AI ໄດ້ຖືກລວມເຂົ້າຢູ່ໃນລະດັບມີສິດເທົ່າທຽມ, ແລະການມີສ່ວນຮ່ວມຂອງມະນຸດຫຼາຍເກີນໄປ ເຮັດໃຫ້ຫຸ່ນຍົນທະຫານຊ້າລົງ.
ການໂຕ້ຖຽງກັນມີທ່າທີຈະສືບຕໍ່ດຳເນີນຕໍ່ໄປເຖິງແມ່ນວ່າອາວຸດປົກຄອງຕົນເອງເລີ່ມປະກົດຂຶ້ນ, ແລະຜົນຈະໄດ້ຮັບການຕິດຕາມຢ່າງໃກ້ຊິດ. ໃນກໍລະນີໃດກໍ່ຕາມ, ມັນເບິ່ງຄືວ່າຫຸ່ນຍົນ killer ກໍາລັງມາ.
ທີ່ມາ: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/