ຈັນຍາບັນ AI ແລະກົດຫມາຍ AI ຖາມຄໍາຖາມທີ່ຫນັກແຫນ້ນກ່ຽວກັບຄໍາສັນຍາໃຫມ່ນັ້ນໂດຍຜູ້ຜະລິດຫຸ່ນຍົນເຕັ້ນລໍາກ່າວວ່າພວກເຂົາຈະຫລີກລ້ຽງການເປັນອາວຸດ AI

ທ່ານອາດຈະມີ perchance ໃນອາທິດທີ່ຜ່ານມາເຫັນໃນຂ່າວຫຼືສັງເກດເຫັນໃນສື່ມວນຊົນສັງຄົມໄດ້ສັນຍາປະກາດໂດຍຜູ້ຜະລິດຫຸ່ນຍົນບາງຄົນກ່ຽວກັບຈຸດປະສົງທີ່ມີອາຊີບຂອງເຂົາເຈົ້າເພື່ອຫຼີກເວັ້ນການ AI ອາວຸດຂອງຫຸ່ນຍົນຈຸດປະສົງທົ່ວໄປ. ຂ້ອຍຈະບອກລາຍລະອຽດໃຫ້ເຈົ້າໃນອີກບໍ່ດົນນີ້, ສະນັ້ນຢ່າກັງວົນ ຖ້າເຈົ້າບໍ່ໄດ້ລົມກັບເລື່ອງນີ້.

ປະຕິກິລິຍາຕໍ່ການປະກາດນີ້ແມ່ນໄດ້ໄວ ແລະ, ບາງທີຕາມປົກກະຕິໃນສັງຄົມຂົ້ວໂລກຂອງພວກເຮົາ, ໄດ້ຮັບການຍົກຍ້ອງ ແລະບາງຄັ້ງກໍຖືກເຍາະເຍີ້ຍວິຈານ ຫຼືບໍ່ຄ່ອຍເຊື່ອງ່າຍໆ.

ມັນເປັນເລື່ອງເລົ່າຂອງສອງໂລກ.

ໃນໂລກຫນຶ່ງ, ບາງຄົນເວົ້າວ່ານີ້ແມ່ນສິ່ງທີ່ພວກເຮົາຕ້ອງການ ຮັບຜິດຊອບ ນັກພັດທະນາຫຸ່ນຍົນ AI ເພື່ອປະກາດ.

ຂອບໃຈຄວາມດີສໍາລັບການຢູ່ເບື້ອງຂວາຂອງບັນຫາທີ່ຈະຄ່ອຍໆເຫັນໄດ້ຊັດເຈນແລະມີຄວາມເປັນຫ່ວງຫຼາຍຂຶ້ນ. ຫຸ່ນ​ຍົນ​ເຕັ້ນ​ລຳ​ທີ່​ໜ້າ​ຮັກ​ເຫຼົ່າ​ນັ້ນ​ເປັນ​ບັນ​ຫາ​ຫຼາຍ​ເພາະ​ມັນ​ເປັນ​ເລື່ອງ​ງ່າຍ​ທີ່​ຈະ​ກະ​ຕຸ້ນ​ໃຫ້​ເຂົາ​ເຈົ້າ​ຖື​ອາ​ວຸດ​ແລະ​ໃຊ້​ໃນ​ທາງ​ທີ່​ຮ້າຍ​ແຮງ​ທີ່​ສຸດ (ທ່ານ​ສາ​ມາດ​ກວດ​ສອບ​ການ​ນີ້​ອອກ​ດ້ວຍ​ຕົນ​ເອງ​ໂດຍ​ການ​ລົງ​ສື່​ສານ​ແລະ​ມີ​ວິ​ດີ​ໂອ​ຢ່າງ​ຫຼວງ​ຫຼາຍ​ສະ​ແດງ​ໃຫ້​ເຫັນ​ຫຸ່ນ​ຍົນ​ເຕັ້ນ​ປະ​ກອບ​ດ້ວຍ​ປືນ​ເຄື່ອງ​ແລະ ອາວຸດ​ຍຸດ​ໂທ​ປະກອນ​ອື່ນໆ).

ອີກດ້ານ ໜຶ່ງ ຂອງຫຼຽນນີ້ກ່າວວ່າ ຄຳ ໝັ້ນ ສັນຍາແມ່ນບໍ່ມີຫຍັງນອກ ເໜືອ ຈາກການຕະຫຼາດຫຼືການໂຄສະນາສາທາລະນະ (ເປັນຂໍ້ສັງເກດ, ມີໃຜຄຸ້ນເຄີຍກັບຄວາມແຕກຕ່າງລະຫວ່າງສັນຍາແລະການບໍລິຈາກບໍ?). ແນວໃດກໍ່ຕາມ, ຜູ້ສົງໄສໄດ້ຊັກຊວນວ່ານີ້ແມ່ນຄຸນງາມຄວາມດີທີ່ບໍ່ມີຕົວຕົນເປັນສັນຍານໃນສະພາບການຂອງຫຸ່ນຍົນເຕັ້ນລໍາ. ທ່ານເຫັນ, ການຈົ່ມວ່າຄວາມຈິງທີ່ວ່າຫຸ່ນຍົນທີ່ມີຈຸດປະສົງທົ່ວໄປສາມາດເປັນອາວຸດແມ່ນແນ່ນອນວ່າເປັນການພິຈາລະນາທີ່ມີມູນຄ່າແລະຊອກຫາຢ່າງຈິງຈັງ, ເຖິງແມ່ນວ່າພຽງແຕ່ອ້າງວ່າຜູ້ຜະລິດຈະບໍ່ເຮັດແນວນັ້ນອາດຈະເປັນຄໍາສັນຍາທີ່ເປັນຮູ, ບາງຄົນຢືນຢັນ.

ໂດຍລວມແລ້ວ, ເລື່ອງທັງຫມົດໄດ້ນໍາເອົາການພິຈາລະນາຢ່າງຫນັກແຫນ້ນຂອງຈັນຍາບັນ AI ແລະກົດຫມາຍ AI. ພວກເຮົາຈະເປີດເຜີຍຫົວຂໍ້ຢ່າງລະມັດລະວັງ ແລະເບິ່ງວ່ານີ້ແມ່ນຄວາມຜິດສອງເທົ່າຂອງ AI ທີ່ມີຈັນຍາບັນ ແລະທາງດ້ານກົດໝາຍແນວໃດ. ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະກົດຫມາຍ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ຂ້າ​ພະ​ເຈົ້າ​ຍັງ​ຈະ​ໄດ້​ຮັບ​ການ​ອ້າງ​ອີງ​ຕະ​ຫຼອດ​ການ​ສົນ​ທະ​ນາ​ໃນ​ການ​ວິ​ເຄາະ​ກ່ອນ​ຫນ້າ​ນີ້​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ກ່ຽວ​ກັບ​ອັນ​ຕະ​ລາຍ​ຂອງ​ອາ​ວຸດ AI, ເຊັ່ນ​: ການ​ປະ​ເມີນ​ຜົນ​ໃນ​ຄວາມ​ເລິກ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ທ່ານອາດຈະຕ້ອງການເບິ່ງບົດສົນທະນານັ້ນສໍາລັບລາຍລະອຽດເບື້ອງຫລັງເພີ່ມເຕີມ.

ຈົດຫມາຍເປີດທີ່ເປີດກະປ໋ອງຂອງແມ່ທ້ອງ

ຂໍໃຫ້ເລີ່ມຕົ້ນການວິເຄາະນີ້ໂດຍການດໍາເນີນການຢ່າງລະມັດລະວັງຂັ້ນຕອນໂດຍຂັ້ນຕອນຂອງ Open Letter ທີ່ຈັດພີມມາບໍ່ດົນມານີ້ໂດຍຫົກຜູ້ຜະລິດຫຸ່ນຍົນກ້າວຫນ້າທາງດ້ານທີ່ມີຊື່ສຽງ, ຄື Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics, ແລະ Unitree. ໂດຍແລະຂະຫນາດໃຫຍ່, ຂ້າພະເຈົ້າເດົາວ່າທ່ານໄດ້ເຫັນຫຸ່ນຍົນ Boston Dynamics ສ່ວນໃຫຍ່, ເຊັ່ນ: ຫຸ່ນຍົນທີ່ແລ່ນຮອບສີ່. ພວກ​ເຂົາ​ເຈົ້າ​ເບິ່ງ​ຄື​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ຄ້າຍ​ຄື​ຫມາ​ແລະ​ພວກ​ເຮົາ​ມີ​ຄວາມ​ສຸກ​ທີ່​ໄດ້​ເຫັນ​ພວກ​ເຂົາ​ຫລອກ​ລວງ​ໄປ​ອ້ອມ​ຂ້າງ.

ດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ບອກໄວ້ລ່ວງໜ້າ ແລະ ຊ້ຳແລ້ວຊ້ຳອີກ, ການໃຊ້ຫຸ່ນຍົນ “ເຕັ້ນລຳ” ດັ່ງກ່າວເປັນວິທີການຊັກຈູງຄົນທົ່ວໄປວ່າຫຸ່ນຍົນເຫຼົ່ານີ້ໜ້າຮັກ ແລະ ໜ້າຮັກແມ່ນເປັນການຫຼອກລວງຢ່າງໜ້າເສົ້າ ແລະ ຫັນໄປສູ່ຄວາມອຸກອັ່ງອັນອຸດົມສົມບູນຂອງການເຮັດໃຫ້ພວກມັນເປັນມະນຸດ. ພວກ​ເຮົາ​ເລີ່ມ​ຄິດ​ເຖິງ​ຊິ້ນ​ສ່ວນ​ຂອງ​ໂລ​ຫະ​ແລະ​ພລາ​ສ​ຕິກ​ທີ່​ແຂງ​ຄື​ກັບ​ວ່າ​ມັນ​ເປັນ​ໝາ​ທີ່​ສັດ​ຊື່​ທີ່​ໜ້າ​ຮັກ. ຄວາມເຕັມໃຈຂອງພວກເຮົາທີ່ຈະຍອມຮັບຫຸ່ນຍົນເຫຼົ່ານີ້ແມ່ນຄາດຄະເນກ່ຽວກັບຄວາມຮູ້ສຶກທີ່ບໍ່ຖືກຕ້ອງຂອງຄວາມປອດໄພແລະການຮັບປະກັນ. ແນ່ນອນ, ເຈົ້າຕ້ອງເສຍເງິນ ແລະ ໂອກາດທີ່ຈະເຮັດແນວນັ້ນຖືກປັບປຸງໂດຍການເດີນຂະບວນອ້ອມຫຸ່ນຍົນເຕັ້ນລຳ, ແຕ່ອັນນີ້ໜ້າເສຍໃຈທີ່ລະເວັ້ນ ຫຼື ເບິ່ງຄືວ່າຈະປິດບັງຄວາມຈິງວ່າຫຸ່ນຍົນເຫຼົ່ານີ້ເປັນຫຸ່ນຍົນ ແລະ AI ຄວບຄຸມຫຸ່ນຍົນສາມາດຖືກວາງແຜນທີ່ຜິດພາດ. ຫຼືບ້ຽວ.

ພິ​ຈາ​ລະ​ນາ​ຜົນ​ກະ​ທົບ​ເຫຼົ່າ​ນີ້​ຂອງ AI (ຄັດ​ເອົາ​ມາ​ຈາກ​ບົດ​ຄວາມ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ກ່ຽວ​ກັບ​ອາ​ວຸດ AI, ພົບ​ເຫັນ​ຢູ່​ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້):

  • AI ອາດຈະພົບກັບຄວາມຜິດພາດທີ່ເຮັດໃຫ້ມັນຫລົງທາງຜິດ
  • AI ອາດຈະຖືກຄອບງຳ ແລະຖືກລັອກໂດຍບໍ່ຕອບສະໜອງ
  • AI ອາດມີຂໍ້ຜິດພາດຂອງນັກພັດທະນາທີ່ເຮັດໃຫ້ເກີດພຶດຕິກໍາທີ່ຜິດພາດ
  • AI ອາດຈະເສຍຫາຍກັບເຊື້ອໄວຣັສ evildoer ທີ່ຝັງໄວ້
  • AI ອາດຈະຖືກຄອບຄອງໂດຍ cyberhackers ໃນເວລາຈິງ
  • AI ອາດຈະຖືກພິຈາລະນາວ່າບໍ່ສາມາດຄາດເດົາໄດ້ເນື່ອງຈາກຄວາມສັບສົນ
  • AI ອາດຈະເຮັດໃຫ້ການຕັດສິນໃຈ "ຜິດ" (ຂ້ອນຂ້າງ)
  • ແລະອື່ນໆ

ນັ້ນແມ່ນຈຸດກ່ຽວກັບ AI ທີ່ເປັນປະເພດທີ່ຕັ້ງໄວ້ຢ່າງແທ້ຈິງໃນເວລາໄປເຮັດສິ່ງທີ່ຖືກຕ້ອງ.

ຢູ່ເທິງສຸດຂອງການພິຈາລະນາເຫຼົ່ານັ້ນ, ທ່ານຕ້ອງລວມເອົາລະບົບ AI ທີ່ສ້າງຂຶ້ນຕັ້ງແຕ່ເລີ່ມຕົ້ນເພື່ອເຮັດສິ່ງທີ່ບໍ່ດີ. ທ່ານສາມາດມີ AI ທີ່ຖືກສ້າງຂື້ນເພື່ອຈຸດປະສົງທີ່ເປັນປະໂຫຍດ, ມັກຈະເອີ້ນວ່າ AI ສໍາລັບທີ່ດີ. ທ່ານຍັງສາມາດມີ AI ທີ່ຖືກສ້າງຂື້ນໂດຍເຈດຕະນາເພື່ອຈຸດປະສົງທີ່ບໍ່ດີ, ທີ່ເອີ້ນວ່າ AI ສໍາລັບບໍ່ດີ. ນອກຈາກນັ້ນ, ທ່ານສາມາດມີ AI ສໍາລັບທີ່ດີ ທີ່ເສຍຫາຍຫຼື rejiggered ກາຍເປັນ AI ສໍາລັບບໍ່ດີ.

ໂດຍວິທີທາງການ, ບໍ່ມີຫຍັງກ່ຽວຂ້ອງກັບ AI ກາຍເປັນຄວາມຮູ້ສຶກ, ທີ່ຂ້າພະເຈົ້າກ່າວເຖິງເພາະວ່າບາງຄົນຍັງຮ້ອງອອກມາວ່າ AI ໃນມື້ນີ້ແມ່ນມີຄວາມຮູ້ສຶກຫຼືຢູ່ໃນຈຸດທີ່ມີຄວາມຮູ້ສຶກ. ບໍ່ດັ່ງນັ້ນ. ຂ້າ​ພະ​ເຈົ້າ​ເອົາ​ນອກ myths ໃນ​ການ​ວິ​ເຄາະ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃຫ້ແນ່ໃຈວ່າຫຼັງຈາກນັ້ນພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າພວກເຮົາຕ້ອງການຄາດເດົາຢ່າງຈິງຈັງກ່ຽວກັບ AI ທີ່ມີຄວາມຮູ້ສຶກ, ການສົນທະນານີ້ອາດຈະໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນມັນສະ ໝອງ ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ເນື່ອງຈາກບາງການຄາດເດົາວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດລົງໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂ້ອຍຂໍແນະ ນຳ ຢ່າງແຂງແຮງວ່າພວກເຮົາເກັບສິ່ງຂອງລົງມາສູ່ໂລກແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄອມພິວເຕີ້ໃນມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ຈົ່ງລະມັດລະວັງຫຼາຍຕໍ່ການເປັນມະນຸດຂອງ AI ໃນມື້ນີ້.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຕົວແບບທີ່ກົງກັບຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ທັງຫມົດນີ້ມີຜົນກະທົບດ້ານຈັນຍາບັນຂອງ AI ທີ່ສໍາຄັນແລະສະເຫນີປ່ອງຢ້ຽມທີ່ເປັນປະໂຫຍດເຂົ້າໄປໃນບົດຮຽນທີ່ຖອດຖອນໄດ້ (ເຖິງແມ່ນວ່າກ່ອນທີ່ບົດຮຽນທັງຫມົດຈະເກີດຂື້ນ) ເມື່ອເວົ້າເຖິງການພະຍາຍາມສ້າງນິຕິກໍາ AI.

ນອກເຫນືອຈາກການໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ໂດຍທົ່ວໄປແລ້ວ, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອຄວບຄຸມການນໍາໃຊ້ຕ່າງໆຂອງ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມ​ພະ​ຍາ​ຍາມ​ເພື່ອ​ຮ່າງ​ກົດ​ໝາຍ​ດັ່ງ​ກ່າວ​ແມ່ນ​ເປັນ​ໄປ​ເທື່ອ​ລະ​ກ້າວ. ຈັນຍາບັນ AI ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.

ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ພວກ​ເຂົາ​ເຈົ້າ​ໄດ້​ເຕືອນ​ລ່ວງ​ໜ້າ​ວ່າ ຖ້າ​ຫາກ​ພວກ​ເຮົາ​ອອກ​ກົດ​ໝາຍ AI ບາງ​ຂໍ້​ນີ້, ພວກ​ເຮົາ​ຈະ​ຂ້າ​ໝີ​ທອງ​ໂດຍ​ການ​ຍຶດ​ໝັ້ນ​ຄວາມ​ກ້າວ​ໜ້າ​ຂອງ AI ທີ່​ໃຫ້​ຄວາມ​ໄດ້​ປຽບ​ທາງ​ສັງ​ຄົມ​ອັນ​ໃຫຍ່​ຫລວງ.

ໃນຄໍລໍາທີ່ຜ່ານມາ, ຂ້າພະເຈົ້າໄດ້ກວມເອົາຄວາມພະຍາຍາມລະດັບຊາດແລະສາກົນຕ່າງໆເພື່ອຫັດຖະກໍາແລະອອກກົດຫມາຍຄວບຄຸມ AI, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກ​ຕົວ​ຢ່າງ. ຂ້າພະເຈົ້າຍັງໄດ້ກວມເອົາຫຼັກການດ້ານຈັນຍາບັນ AI ຕ່າງໆແລະຄໍາແນະນໍາທີ່ປະເທດຕ່າງໆໄດ້ກໍານົດແລະຮັບຮອງເອົາ, ລວມທັງຄວາມພະຍາຍາມຂອງສະຫະປະຊາຊາດເຊັ່ນ: UNESCO ກໍານົດຈັນຍາບັນ AI ທີ່ເກືອບ 200 ປະເທດໄດ້ຮັບຮອງເອົາ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ນີ້ແມ່ນລາຍການຫຼັກທີ່ເປັນປະໂຫຍດຂອງມາດຖານ AI ດ້ານຈັນຍາບັນ ຫຼືຄຸນລັກສະນະກ່ຽວກັບລະບົບ AI ທີ່ຂ້າພະເຈົ້າໄດ້ຄົ້ນຫາຢ່າງໃກ້ຊິດກ່ອນຫນ້ານີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ເຫຼົ່ານັ້ນແມ່ນຄວນຈະຖືກນໍາໃຊ້ຢ່າງຈິງຈັງໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI.

ພາກສ່ວນກ່ຽວຂ້ອງທັງຫມົດຕະຫຼອດວົງຈອນຊີວິດຂອງ AI ທັງຫມົດຂອງການພັດທະນາແລະການນໍາໃຊ້ແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ຖືກສ້າງຕັ້ງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ເນັ້ນໜັກໄວ້ກ່ອນນີ້, ມັນຕ້ອງໃຊ້ເວລາບ້ານໜຶ່ງເພື່ອວາງແຜນ ແລະ ປະຕິບັດວຽກງານ AI, ແລະ ເພື່ອໃຫ້ໝູ່ບ້ານທັງໝົດຕ້ອງຮັບຮູ້ ແລະ ປະຕິບັດຕາມຫຼັກຈັນຍາບັນຂອງ AI.

ຕອນນີ້ຂ້ອຍໄດ້ວາງພື້ນຖານທີ່ເປັນປະໂຫຍດສໍາລັບການເຂົ້າໄປໃນ Open Letter, ພວກເຮົາພ້ອມທີ່ຈະເຂົ້າໄປໃນ.

ຫົວຂໍ້ທີ່ເປັນທາງການຂອງ Open Letter ແມ່ນມີດັ່ງນີ້:

  • "ຈົດໝາຍເປີດກ້ວາງເຖິງອຸດສາຫະກຳຫຸ່ນຍົນ ແລະຊຸມຊົນຂອງພວກເຮົາ, ຫຸ່ນຍົນຈຸດປະສົງທົ່ວໄປບໍ່ຄວນຖືກນຳມາປະກອບອາວຸດ.” (ຕາມການປະກາດອອນໄລນ໌).

ເຖິງຕອນນີ້, ດີຫຼາຍ.

ຫົວຂໍ້ເກືອບເບິ່ງຄືວ່າເປັນສີຄີມກ້ອນແລະຫມາກໂປມ pie. ໃຜສາມາດໂຕ້ແຍ້ງນີ້ໄດ້ແນວໃດເປັນການຮຽກຮ້ອງໃນຂະນະນີ້ເພື່ອຫຼີກເວັ້ນການເປັນອາວຸດຫຸ່ນຍົນ AI?

ອ່ານຕໍ່ໄປເພື່ອເບິ່ງ.

ຫນ້າທໍາອິດ, ເປັນອາຫານສໍາລັບການພິຈາລະນາ, ນີ້ແມ່ນວັກເປີດຢ່າງເປັນທາງການຂອງຈົດຫມາຍເປີດ:

  • “ພວກເຮົາແມ່ນບາງບໍລິສັດຊັ້ນນຳຂອງໂລກທີ່ອຸທິດຕົນເພື່ອແນະນຳຫຸ່ນຍົນເຄື່ອນທີ່ທີ່ກ້າວໜ້າລຸ້ນໃໝ່ສູ່ສັງຄົມ. ຫຸ່ນຍົນລຸ້ນໃໝ່ເຫຼົ່ານີ້ສາມາດເຂົ້າເຖິງໄດ້, ເຮັດວຽກງ່າຍກວ່າ, ມີຄວາມເປັນເອກະລາດຫຼາຍ, ລາຄາບໍ່ແພງ, ແລະສາມາດປັບຕົວໄດ້ຫຼາຍກວ່າລຸ້ນກ່ອນ, ແລະສາມາດນຳທາງໄປຫາສະຖານທີ່ທີ່ເຄີຍບໍ່ສາມາດເຂົ້າເຖິງເຕັກໂນໂລຊີອັດຕະໂນມັດ ຫຼື ຄວບຄຸມໄລຍະໄກ. ພວກເຮົາເຊື່ອວ່າຫຸ່ນຍົນມືຖືທີ່ກ້າວຫນ້າຈະໃຫ້ຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງຕໍ່ສັງຄົມໃນຖານະເປັນເພື່ອນຮ່ວມງານໃນອຸດສາຫະກໍາແລະເພື່ອນບ້ານໃນບ້ານຂອງພວກເຮົາ” (ຕາມທີ່ຈັດພີມມາອອນໄລນ໌).

ດ້ານບ່ອນມີແດດເພື່ອມາເຖິງຂອງຫຸ່ນຍົນປະເພດນີ້ແມ່ນວ່າພວກເຮົາສາມາດຄາດຫວັງຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງຫຼາຍທີ່ຈະເກີດຂື້ນ. ບໍ່ມີຄວາມສົງໃສກ່ຽວກັບມັນ. ເຈົ້າອາດມີຫຸ່ນຍົນຢູ່ໃນເຮືອນຂອງເຈົ້າທີ່ສາມາດເຮັດກິດຈະກຳທີ່ຄ້າຍຄືກັບ Jetson ເຊັ່ນ: ອະນາໄມເຮືອນຂອງເຈົ້າ, ລ້າງຈານຂອງເຈົ້າ, ແລະວຽກອື່ນໆໃນຄົວເຮືອນ. ພວກເຮົາຈະມີຫຸ່ນຍົນທີ່ກ້າວຫນ້າສໍາລັບການນໍາໃຊ້ໃນໂຮງງານຜະລິດແລະໂຮງງານຜະລິດ. ຫຸ່ນຍົນອາດສາມາດກວາດ ຫຼື ໝູນເຂົ້າໄປໃນພື້ນທີ່ທີ່ແໜ້ນໜາ ເຊັ່ນ: ເມື່ອຕຶກອາຄານພັງລົງ ແລະ ຊີວິດມະນຸດຢູ່ໃນຈຸດສ່ຽງທີ່ຈະລອດ. ແລະອື່ນໆ.

ຫລີກໄປທາງຫນຶ່ງ, ທ່ານອາດຈະມີຄວາມສົນໃຈໃນການຄຸ້ມຄອງຕາທີ່ສໍາຄັນຂອງຂ້າພະເຈົ້າທີ່ຜ່ານມາຂອງ Tesla AI Day, ທີ່ປະເພດຂອງຫຸ່ນຍົນຍ່າງບາງຊະນິດໄດ້ຖືກສະແດງໂດຍ Elon Musk ເປັນອະນາຄົດສໍາລັບ Tesla ແລະສັງຄົມ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ກັບໄປຫາເລື່ອງຢູ່ໃນມື. ໃນເວລາທີ່ປຶກສາຫາລືຢ່າງຈິງຈັງກ່ຽວກັບຫຸ່ນຍົນເຕັ້ນລໍາຫຼືຫຸ່ນຍົນຍ່າງ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ພິຈາລະນາຢ່າງລະມັດລະວັງກ່ຽວກັບການຊື້ຂາຍຫຼື ROI ທັງຫມົດ (ຜົນຕອບແທນຂອງການລົງທຶນ) ຂອງການນໍາໃຊ້ AI ນີ້. ພວກເຮົາບໍ່ຄວນປ່ອຍໃຫ້ຕົວເຮົາເອງຕົກຢູ່ໃນຜົນປະໂຫຍດຫຼາຍເກີນໄປເມື່ອມີຄ່າໃຊ້ຈ່າຍທີ່ຕ້ອງພິຈາລະນາ.

ເຄື່ອງຫຼິ້ນໃໝ່ເຫຼື້ອມສາມາດມີຂອບແຫຼມຫຼາຍ.

ທັງໝົດນີ້ລ້ວນແຕ່ເປັນຈຸດສຳຄັນ ແຕ່ມີບາງສ່ວນທີ່ງຽບເຫງົາວ່າສ່ວນໜຶ່ງຂອງເຫດຜົນທີ່ບັນຫາອາວຸດ AI ເກີດຂຶ້ນໃນຕອນນີ້ແມ່ນຍ້ອນຄວາມກ້າວໜ້າຂອງ AI ໄປສູ່ກິດຈະກຳທີ່ເປັນເອກະລາດ. ພວກ​ເຮົາ​ໄດ້​ຄາດ​ຄະ​ເນ​ວ່າ​ໂດຍ​ທົ່ວ​ໄປ​ແລ້ວ​ອາ​ວຸດ​ແມ່ນ​ປະ​ຕິ​ບັດ​ໂດຍ​ມະ​ນຸດ​. ມະນຸດຕັດສິນໃຈວ່າຈະຍິງ ຫຼື ປະກອບອາວຸດ. ພວກເຮົາສາມາດຖືວ່າມະນຸດນັ້ນຮັບຜິດຊອບຕໍ່ການກະທຳຂອງເຂົາເຈົ້າ.

AI ທີ່​ຖືກ​ສ້າງ​ຂຶ້ນ​ເພື່ອ​ເຮັດ​ວຽກ​ເປັນ​ເອ​ກະ​ລາດ​ຫຼື​ທີ່​ສາ​ມາດ​ຖືກ​ຫລອກ​ລວງ​ໃຫ້​ເຮັດ​ແນວ​ນັ້ນ​ເບິ່ງ​ຄື​ວ່າ​ຈະ​ເອົາ​ມະ​ນຸດ​ອອກ​ຈາກ​ວົງ​ຈອນ​ໄດ້​. ຫຼັງຈາກນັ້ນ, AI ກໍາລັງເຮັດການຕັດສິນໃຈທາງດ້ານການຄິດໄລ່ຕາມຂັ້ນຕອນທີ່ສາມາດສິ້ນສຸດເຖິງການຂ້າຫຼືທໍາຮ້າຍມະນຸດ. ນອກ ເໜືອ ໄປຈາກຄວາມກັງວົນທີ່ຈະແຈ້ງກ່ຽວກັບການຂາດການຄວບຄຸມ AI, ທ່ານຍັງມີຂໍ້ບົກຜ່ອງທີ່ພວກເຮົາອາດຈະມີຄວາມຮັບຜິດຊອບທີ່ຫຍຸ້ງຍາກໃນການກະ ທຳ ຂອງ AI. ພວກເຮົາບໍ່ມີມະນຸດທີ່ເປັນ insigator ຈະແຈ້ງຂອງພວກເຮົາ.

ຂ້າພະເຈົ້າຮັບຮູ້ວ່າບາງຄົນເຊື່ອວ່າພວກເຮົາຄວນຈະຖື AI ຮັບຜິດຊອບຕໍ່ການກະທໍາຂອງຕົນຢ່າງງ່າຍດາຍແລະໂດຍກົງ, ຄືກັບວ່າ AI ໄດ້ບັນລຸການລົງໂທດຫຼືໄດ້ຮັບການອະນຸຍາດໃຫ້ບຸກຄົນທາງດ້ານກົດຫມາຍ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍກ່ຽວກັບການໂຕ້ວາທີກ່ຽວກັບ AI ເກັບກໍາຄວາມເປັນບຸກຄົນທາງດ້ານກົດຫມາຍຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້). ນັ້ນບໍ່ໄດ້ຜົນໃນຕອນນີ້. ພວກເຮົາຈະຕ້ອງໄດ້ຕິດຕາມ AI ໄປຫາມະນຸດທີ່ຕັ້ງມັນຫຼືທີ່ເຮັດມັນ. ແນ່ນອນວ່າເຂົາເຈົ້າຈະພະຍາຍາມຫຼີກລ່ຽງຄວາມຮັບຜິດຊອບຕາມກົດໝາຍໂດຍການພະຍາຍາມໂຕ້ແຍ້ງວ່າ AI ໄປເກີນກວ່າທີ່ເຂົາເຈົ້າໄດ້ຄາດໄວ້. ນີ້ແມ່ນການຂັດແຍ້ງທີ່ເພີ່ມຂຶ້ນທີ່ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ຈັດການກັບ (ເບິ່ງການຂຽນກົດຫມາຍ AI ຂອງຂ້ອຍສໍາລັບຄວາມເຂົ້າໃຈກ່ຽວກັບບັນຫາທີ່ມີການໂຕ້ຖຽງກັນ).

ສະຫະ​ປະຊາ​ຊາດ (ສປຊ) ຜ່ານ​ສົນທິສັນຍາ​ກ່ຽວ​ກັບ​ອາວຸດ​ຍຸດ​ໂທ​ປະກອນ​ສະ​ເພາະ (CCW) ທີ່​ນະຄອນ​ເຈ​ນີວາ​ໄດ້​ສ້າງ​ຕັ້ງ XNUMX ຫຼັກການ​ຊີ້​ນຳ​ທີ່​ບໍ່​ມີ​ການ​ຜູກມັດ​ກ່ຽວ​ກັບ​ອາວຸດ​ທີ່​ມີ​ສິດ​ປົກຄອງ​ຕົນ​ເອງ​ທີ່​ຕາຍ​ແລ້ວ, ຕາມ​ການ​ລາຍ​ງານ​ຢ່າງ​ເປັນ​ທາງ​ການ​ທີ່​ໄດ້​ລົງ​ໃນ​ອິນ​ເຕີ​ແນັດ (ລວມ​ເຖິງ​ການ​ອ້າງ​ອີງ​ເຖິງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ມະນຸດສະທຳ​ສາກົນ​ຫຼື IHL provisos). , ລວມທັງ:

(a) ກົດໝາຍມະນຸດສະທຳສາກົນສືບຕໍ່ນຳໃຊ້ຢ່າງຄົບຖ້ວນກັບທຸກລະບົບອາວຸດ, ລວມທັງການພັດທະນາທ່າແຮງ ແລະ ການນຳໃຊ້ລະບົບອາວຸດຍຸດໂທປະກອນທີ່ເປັນອັນຕະລາຍເຖິງຕາຍ;

(b) ຄວາມຮັບຜິດຊອບຂອງມະນຸດຕໍ່ການຕັດສິນໃຈກ່ຽວກັບການນໍາໃຊ້ລະບົບອາວຸດຕ້ອງໄດ້ຮັບການຮັກສາໄວ້ເນື່ອງຈາກຄວາມຮັບຜິດຊອບບໍ່ສາມາດຖືກໂອນໄປຫາເຄື່ອງຈັກ. ນີ້ຄວນໄດ້ຮັບການພິຈາລະນາໃນທົ່ວວົງຈອນຊີວິດທັງຫມົດຂອງລະບົບອາວຸດ;

(c) ປະຕິສໍາພັນຂອງມະນຸດກັບເຄື່ອງຈັກ, ເຊິ່ງອາດຈະໃຊ້ຫຼາຍຮູບແບບແລະຖືກປະຕິບັດໃນຂັ້ນຕອນຕ່າງໆຂອງວົງຈອນຊີວິດຂອງອາວຸດ, ຄວນຮັບປະກັນວ່າການນໍາໃຊ້ທີ່ມີທ່າແຮງຂອງລະບົບອາວຸດໂດຍອີງໃສ່ເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນໃນຂົງເຂດຂອງລະບົບອາວຸດທີ່ຕາຍແລ້ວແມ່ນຢູ່ໃນ. ການປະຕິບັດຕາມກົດໝາຍສາກົນທີ່ນຳໃຊ້, ໂດຍສະເພາະ IHL. ​ໃນ​ການ​ກຳນົດ​ຄຸນ​ນະພາ​ບ ​ແລະ ຂອບ​ເຂດ​ການ​ພົວພັນ​ລະຫວ່າງ​ມະນຸດ​ກັບ​ເຄື່ອງ​ຈັກ, ຄວນ​ໄດ້​ຮັບ​ການ​ພິຈາລະນາ​ບັນດາ​ປັດ​ໄຈ​ຕ່າງໆ ​ເຊິ່ງລວມທັງ​ສະພາບ​ການ​ເຄື່ອນ​ໄຫວ, ລັກສະນະ ​ແລະ ຄວາມ​ສາມາດ​ຂອງ​ລະບົບ​ອາວຸດ​ລວມ;

(d) ຄວາມຮັບຜິດຊອບໃນການພັດທະນາ, ປະຕິບັດແລະນໍາໃຊ້ລະບົບອາວຸດທີ່ພົ້ນເດັ່ນຂື້ນໃນກອບຂອງ CCW ຕ້ອງໄດ້ຮັບການຮັບປະກັນຕາມກົດຫມາຍສາກົນທີ່ນໍາໃຊ້, ລວມທັງການດໍາເນີນການຂອງລະບົບດັ່ງກ່າວພາຍໃນລະບົບຕ່ອງໂສ້ທີ່ຮັບຜິດຊອບຂອງຄໍາສັ່ງແລະການຄວບຄຸມຂອງມະນຸດ;

(e) ອີງຕາມພັນທະຂອງລັດພາຍໃຕ້ກົດຫມາຍສາກົນ, ໃນການສຶກສາ, ການພັດທະນາ, ການຊື້, ຫຼືການຮັບຮອງເອົາອາວຸດໃຫມ່, ວິທີການຫຼືວິທີການຂອງສົງຄາມ, ການກໍານົດການຈ້າງງານຂອງຕົນຈະເປັນ, ໃນບາງສະຖານະການຫຼືທັງຫມົດ. ຫ້າມໂດຍກົດໝາຍສາກົນ;

(f) ເມື່ອພັດທະນາຫຼືໄດ້ຮັບລະບົບອາວຸດໃຫມ່ໂດຍອີງໃສ່ເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນໃນພື້ນທີ່ຂອງລະບົບອາວຸດທີ່ຕາຍແລ້ວ, ຄວາມປອດໄພທາງດ້ານຮ່າງກາຍ, ການປົກປ້ອງທາງກາຍະພາບທີ່ເຫມາະສົມ (ລວມທັງຄວາມປອດໄພທາງອິນເຕີເນັດຕໍ່ກັບການແຮັກຫຼືການຫຼອກລວງຂໍ້ມູນ), ຄວາມສ່ຽງຂອງການໄດ້ມາໂດຍກຸ່ມກໍ່ການຮ້າຍ. ແລະຄວາມສ່ຽງຂອງການແຜ່ຂະຫຍາຍຄວນໄດ້ຮັບການພິຈາລະນາ;

(g) ການປະເມີນຄວາມສ່ຽງແລະມາດຕະການຫຼຸດຜ່ອນຄວນຈະເປັນສ່ວນຫນຶ່ງຂອງການອອກແບບ, ການພັດທະນາ, ການທົດສອບແລະວົງຈອນຂອງການນໍາໃຊ້ທີ່ພົ້ນເດັ່ນຂື້ນໃນລະບົບອາວຸດ;

(h) ຄວນພິຈາລະນາການນໍາໃຊ້ເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນໃນພື້ນທີ່ຂອງລະບົບອາວຸດເອກະລາດທີ່ເປັນອັນຕະລາຍໃນການຮັກສາການປະຕິບັດຕາມ IHL ແລະພັນທະທາງກົດຫມາຍສາກົນອື່ນໆ;

(i) ໃນ​ການ​ສ້າງ​ມາດ​ຕະ​ການ​ນະ​ໂຍ​ບາຍ​ທີ່​ເປັນ​ທ່າ​ແຮງ, ເຕັກ​ໂນ​ໂລ​ຊີ​ທີ່​ພົ້ນ​ເດັ່ນ​ຂື້ນ​ໃນ​ຂົງ​ເຂດ​ຂອງ​ລະ​ບົບ​ອາ​ວຸດ​ທີ່​ເປັນ​ລະ​ບຽບ​ການ​ຕາຍ​ຂອງ​ຕົນ​ບໍ່​ຄວນ​ຈະ​ໄດ້​ຮັບ​ການ anthropomorphized​;

(j) ການສົນທະນາແລະມາດຕະການນະໂຍບາຍທີ່ມີທ່າແຮງທີ່ປະຕິບັດໃນສະພາບການຂອງ CCW ບໍ່ຄວນຂັດຂວາງຄວາມກ້າວຫນ້າໃນຫຼືການເຂົ້າເຖິງການນໍາໃຊ້ໂດຍສັນຕິຂອງເຕັກໂນໂລຢີປົກຄອງຕົນເອງອັດສະລິຍະ;

(k) CCW ສະເຫນີກອບທີ່ເຫມາະສົມສໍາລັບການແກ້ໄຂບັນຫາຂອງເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນໃນພື້ນທີ່ຂອງລະບົບອາວຸດເອກະລາດທີ່ເປັນອັນຕະລາຍໃນຂອບເຂດຂອງຈຸດປະສົງແລະຈຸດປະສົງຂອງສົນທິສັນຍາ, ເຊິ່ງຊອກຫາຄວາມສົມດຸນລະຫວ່າງຄວາມຈໍາເປັນທາງທະຫານແລະການພິຈາລະນາດ້ານມະນຸດສະທໍາ.

ກົດໝາຍເຫຼົ່ານີ້ ແລະກົດໝາຍສົງຄາມ ແລະກົດໝາຍການປະທະກັນດ້ານການປະກອບອາວຸດອື່ນໆ, ຫຼື IHL (ກົດໝາຍມະນຸດສະທໍາສາກົນ) ເປັນຄູ່ມືອັນສຳຄັນ ແລະເປັນນິດຕະຫຼອດການໃນການພິຈາລະນາສິ່ງທີ່ພວກເຮົາອາດຈະພະຍາຍາມເຮັດກ່ຽວກັບການມາເຖິງຂອງລະບົບການປົກຄອງທີ່ເປັນເອກະລາດ, ບໍ່ວ່າຈະເປັນໂດຍຫຼັກ. ການອອກແບບຫຼືໂດຍວິທີການຫຼັງຈາກຄວາມເປັນຈິງ.

ບາງຄົນເວົ້າວ່າພວກເຮົາຄວນຈະຫ້າມຢ່າງຈະແຈ້ງລະບົບ AI ອັດຕະໂນມັດເຫຼົ່ານັ້ນທີ່ສາມາດເປັນອາວຸດໄດ້. ຖືກຕ້ອງແລ້ວ, ໂລກຄວນວາງຕີນລົງ ແລະຮຽກຮ້ອງຢ່າງເຂັ້ມງວດວ່າລະບົບ AI ປົກຄອງຕົນເອງຈະບໍ່ເປັນອາວຸດ. ຈະ​ມີ​ການ​ສັ່ງ​ຫ້າມ​ທັງ​ໝົດ. ສິ້ນສຸດເລື່ອງ. ຢຸດເຕັມ, ໄລຍະເວລາ.

ດີ, ພວກເຮົາສາມາດປາດຖະຫນາຢ່າງຈິງໃຈວ່າການຫ້າມລະບົບປົກຄອງຕົນເອງທີ່ມີອາວຸດຕາຍຈະຖືກປະຕິບັດຕາມຢ່າງເຂັ້ມງວດແລະເຊື່ອຟັງ. ບັນຫາແມ່ນວ່າຫຼາຍຫ້ອງ wiggle ໄດ້ຖືກຜູກມັດກັບ slyly ໄດ້ຖືກພົບເຫັນຢູ່ໃນທຸກຄວາມຈິງໃຈຂອງການຫ້າມ. ຍ້ອນວ່າພວກເຂົາເວົ້າວ່າ, ກົດລະບຽບແມ່ນຫມາຍຄວາມວ່າຈະຖືກທໍາລາຍ. ເຈົ້າສາມາດວາງເດີມພັນໄດ້ວ່າບ່ອນທີ່ສິ່ງທີ່ເປັນຄວາມຫຍາບຄາຍ, riffraff ຈະ ferret ອອກຊ່ອງຫວ່າງແລະພະຍາຍາມ wink-wink ວິທີການຂອງເຂົາເຈົ້າກ່ຽວກັບກົດລະບຽບ.

ນີ້ແມ່ນບາງຊ່ອງຫວ່າງທີ່ອາດມີຄ່າຄວນພິຈາລະນາ:

  • ອ້າງວ່າບໍ່ຕາຍ. ເຮັດໃຫ້ລະບົບອາວຸດເອກະລາດທີ່ບໍ່ເປັນອັນຕະລາຍ (ເບິ່ງຄືວ່າມັນບໍ່ເປັນຫຍັງເພາະວ່າມັນຢູ່ນອກຂອບເຂດຫ້າມ), ເຊິ່ງຫຼັງຈາກນັ້ນທ່ານສາມາດປ່ຽນໄປສູ່ຄວາມຕາຍ (ທ່ານພຽງແຕ່ຈະຢູ່ເຫນືອການຫ້າມໃນນາທີສຸດທ້າຍ).
  • ການອ້າງສິດຂອງລະບົບປົກຄອງຕົນເອງເທົ່ານັ້ນ. ຍຶດ ໝັ້ນ ການເກືອດຫ້າມໂດຍການບໍ່ສ້າງລະບົບປົກຄອງຕົນເອງທີ່ສຸມໃສ່ການຕາຍ, ໃນຂະນະດຽວກັນ, ມີຄວາມຄືບ ໜ້າ ຫຼາຍເທົ່າທີ່ຈະສ້າງລະບົບການປົກຄອງປະ ຈຳ ວັນທີ່ຍັງບໍ່ທັນມີອາວຸດແຕ່ວ່າເຈົ້າສາມາດເອົາຄືນສູ່ການເປັນອາວຸດ.
  • ອ້າງວ່າບໍ່ປະສົມປະສານເປັນອັນດຽວ. ຫັດຖະກໍາລະບົບອັດຕະໂນມັດທີ່ບໍ່ມີອາວຸດທັງຫມົດ, ແລະໃນເວລາທີ່ເວລາມາ, ອາວຸດ piggyback ທີ່ທ່ານສາມາດພະຍາຍາມໂຕ້ຖຽງຢ່າງຫນັກແຫນ້ນວ່າພວກເຂົາເປັນສອງອົງປະກອບທີ່ແຍກຕ່າງຫາກແລະດັ່ງນັ້ນຈິ່ງໂຕ້ຖຽງວ່າພວກເຂົາບໍ່ໄດ້ຕົກຢູ່ໃນຂອບເຂດຂອງທັງຫມົດໃນຫນຶ່ງ. ລະ​ບົບ​ອາ​ວຸດ​ຂອງ​ຕົນ​ເອງ​ຫຼື​ລູກ​ພີ່​ນ້ອງ​ຂອງ​ຕົນ​.
  • ອ້າງ​ວ່າ​ບໍ່​ແມ່ນ​ການ​ປົກຄອງ​ຕົນ​ເອງ. ສ້າງລະບົບອາວຸດທີ່ເບິ່ງຄືວ່າບໍ່ມີຄວາມສາມາດໃນການປົກຄອງຕົນເອງ. ອອກຈາກຫ້ອງຢູ່ໃນລະບົບທີ່ສົມມຸດຕິຖານບໍ່ເປັນເອກະລາດນີ້ສໍາລັບການຫຼຸດລົງຂອງເອກະລາດໂດຍອີງໃສ່ AI. ໃນເວລາທີ່ຕ້ອງການ, ສຽບໃນເອກະລາດແລະທ່ານພ້ອມທີ່ຈະມ້ວນ (ຈົນກ່ວານັ້ນ, ເບິ່ງຄືວ່າທ່ານບໍ່ໄດ້ລະເມີດການຫ້າມ).
  • ອື່ນ ໆ

ມີ​ຄວາມ​ຫຍຸ້ງ​ຍາກ​ຫຼາຍ​ຢ່າງ​ທີ່​ສະ​ແດງ​ອອກ​ກັບ​ການ​ພະ​ຍາ​ຍາມ​ທີ່​ຈະ​ຫ້າມ​ຢ່າງ​ເຕັມ​ທີ່​ລະ​ບົບ​ອາ​ວຸດ​ທີ່​ເປັນ​ຕົນ​ເອງ​ຕາຍ. ຂ້ອຍຈະກວມເອົາພວກເຂົາອີກສອງສາມອັນ.

ນັກວິຊາການບາງຄົນໄດ້ໂຕ້ຖຽງວ່າການຫ້າມແມ່ນບໍ່ເປັນປະໂຫຍດໂດຍສະເພາະແລະແທນທີ່ຈະມີຂໍ້ກໍານົດກົດລະບຽບ. ແນວຄວາມຄິດແມ່ນວ່າ contraptions ເຫຼົ່ານີ້ຈະໄດ້ຮັບການອະນຸຍາດແຕ່ stridely policed. ການ​ນໍາ​ໃຊ້​ທີ່​ຖືກ​ຕ້ອງ​ຕາມ​ກົດ​ຫມາຍ​ແມ່ນ​ໄດ້​ວາງ​ອອກ​, ພ້ອມ​ກັບ​ວິ​ທີ​ການ​ທີ່​ຖືກ​ກົດ​ຫມາຍ​ຂອງ​ການ​ເປົ້າ​ຫມາຍ​, ປະ​ເພດ​ຄວາມ​ສາ​ມາດ​ທີ່​ຖືກ​ກົດ​ຫມາຍ​, ອັດ​ຕາ​ສ່ວນ​ທາງ​ກົດ​ຫມາຍ​, ແລະ​ອື່ນໆ​.

ໃນທັດສະນະຂອງພວກເຂົາ, ການຫ້າມກົງໆແມ່ນຄ້າຍຄືກັບການເອົາຫົວຂອງເຈົ້າເຂົ້າໄປໃນດິນຊາຍແລະທໍາທ່າວ່າຊ້າງຢູ່ໃນຫ້ອງບໍ່ມີຢູ່. ການຂັດແຍ້ງນີ້ເຮັດໃຫ້ເລືອດທີ່ຕົ້ມຂອງຜູ້ທີ່ຕໍ່ຕ້ານກັບການໂຕ້ຖຽງວ່າໂດຍການສ້າງຕັ້ງການເກືອດຫ້າມທ່ານສາມາດຫຼຸດຜ່ອນການລໍ້ລວງທີ່ຈະດໍາເນີນການປະເພດຂອງລະບົບເຫຼົ່ານີ້ຢ່າງຫຼວງຫຼາຍ. ແນ່ນອນ, ບາງຄົນຈະອ້າງເຖິງການຫ້າມ, ແຕ່ຢ່າງ ໜ້ອຍ ຫວັງວ່າສ່ວນໃຫຍ່ຈະບໍ່ເຮັດ. ຫຼັງຈາກນັ້ນທ່ານສາມາດສຸມໃສ່ຄວາມສົນໃຈຂອງທ່ານກ່ຽວກັບ flaunters ແລະບໍ່ຈໍາເປັນຕ້ອງ splinter ຄວາມສົນໃຈຂອງທ່ານກັບທຸກຄົນ.

ການໂຕ້ວາທີເຫຼົ່ານີ້ຮອບແລະຮອບ.

ຄວາມກັງວົນທີ່ສັງເກດເຫັນເລື້ອຍໆແມ່ນວ່າເຖິງແມ່ນວ່າສິ່ງທີ່ດີປະຕິບັດຕາມການຫ້າມ, ບໍ່ດີຈະບໍ່. ນີ້ເຮັດໃຫ້ສິ່ງທີ່ດີຢູ່ໃນທ່າທີ່ຂີ້ຕົວະ. ບໍ່ດີຈະມີລະບົບອັດຕະໂນມັດປະເພດເຫຼົ່ານີ້ທີ່ມີອາວຸດແລະສິ່ງທີ່ດີຈະບໍ່. ເມື່ອສິ່ງທີ່ຖືກເປີດເຜີຍວ່າບໍ່ດີມີພວກມັນ, ມັນຈະຊ້າເກີນໄປສໍາລັບຄວາມດີທີ່ຈະຈັບໄດ້. ໃນສັ້ນ, ສິ່ງດຽວທີ່ສະຫລາດທີ່ຕ້ອງເຮັດຄືການກຽມພ້ອມທີ່ຈະຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟ.

ນອກຈາກນີ້ຍັງມີການຂັດແຍ້ງແບບຂັດຂວາງຄລາສສິກ. ຖ້າທາງເລືອກທີ່ດີທີ່ຈະສ້າງລະບົບປົກຄອງຕົນເອງທີ່ມີອາວຸດ, ນີ້ສາມາດຖືກນໍາໃຊ້ເພື່ອຂັດຂວາງຄວາມບໍ່ດີຈາກການພະຍາຍາມເຂົ້າໄປໃນການຂັດແຍ້ງ. ບໍ່ວ່າສິ່ງທີ່ດີຈະຖືກປະກອບອາວຸດທີ່ດີກວ່າແລະສະກັດກັ້ນສິ່ງທີ່ບໍ່ດີ, ຫຼືຄວາມດີຈະກຽມພ້ອມເມື່ອສິ່ງທີ່ບໍ່ດີອາດຈະເປີດເຜີຍວ່າພວກເຂົາໄດ້ວາງແຜນການລະບົບເຫຼົ່ານັ້ນຢ່າງຈິງຈັງ.

ການຕ້ານການຕ້ານການເຫຼົ່ານີ້ແມ່ນວ່າໂດຍການເຮັດໃຫ້ລະບົບປົກຄອງຕົນເອງທີ່ມີອາວຸດ, ທ່ານກໍາລັງດໍາເນີນການແຂ່ງຂັນອາວຸດ. ອີກດ້ານຫນຶ່ງຈະຊອກຫາວິທີດຽວກັນ. ເຖິງແມ່ນວ່າພວກເຂົາບໍ່ສາມາດສ້າງລະບົບດັ່ງກ່າວໄດ້ທາງເຕັກໂນໂລຢີ, ດຽວນີ້ພວກເຂົາສາມາດລັກເອົາແຜນການຂອງ "ດີ", ຫັນປ່ຽນຄວາມກ້າຫານທີ່ມີເຕັກໂນໂລຢີສູງ, ຫຼືເຮັດຕາມສິ່ງທີ່ພວກເຂົາເບິ່ງຄືວ່າເປັນການພະຍາຍາມແລະເປັນຄວາມຈິງ. ວິ​ທີ​ການ​ເພື່ອ​ໃຫ້​ໄດ້​ຮັບ​ການ​ເຮັດ​ວຽກ​.

Aha, ບາງ retort, ທັງຫມົດນີ້ອາດຈະນໍາໄປສູ່ການຫຼຸດຜ່ອນຄວາມຂັດແຍ້ງໂດຍລັກສະນະເຊິ່ງກັນແລະກັນ. ຖ້າຝ່າຍ A ຮູ້ວ່າຝ່າຍ B ມີອາວຸດລະບົບປົກຄອງຕົນເອງທີ່ຕາຍແລ້ວ, ແລະຝ່າຍ B ຮູ້ວ່າຝ່າຍ A ມີພວກມັນ, ເຂົາເຈົ້າອາດຈະນັ່ງແຫນ້ນແລະບໍ່ຖືກທໍາລາຍ. ນີ້ມີກິ່ນອາຍທີ່ແຕກຕ່າງຂອງການທໍາລາຍທີ່ໝັ້ນໃຈເຊິ່ງກັນແລະກັນ (MAD) vibes.

ແລະອື່ນໆ.

ຊອກຫາຢ່າງໃກ້ຊິດຢູ່ໃນວັກທີສອງ

ພວກເຮົາໄດ້ກວມເອົາພື້ນທີ່ຫຼາຍແລ້ວໃນທີ່ນີ້ແລະພຽງແຕ່ມາຮອດປະຈຸບັນພິຈາລະນາວັກທໍາອິດຫຼືເປີດຂອງຈົດຫມາຍເປີດ (ມີທັງຫມົດສີ່ວັກ).

ເວລາທີ່ຈະເບິ່ງວັກທີສອງ, ທີ່ນີ້ເຈົ້າໄປ:

  • "ເຊັ່ນດຽວກັນກັບເຕັກໂນໂລຢີໃຫມ່ທີ່ສະເຫນີຄວາມສາມາດໃຫມ່, ການປະກົດຕົວຂອງຫຸ່ນຍົນມືຖືກ້າວຫນ້າສະເຫນີຄວາມເປັນໄປໄດ້ຂອງການໃຊ້ໃນທາງທີ່ຜິດ. ຜູ້​ທີ່​ບໍ່​ໜ້າ​ເຊື່ອ​ຖື​ສາ​ມາດ​ໃຊ້​ເຂົາ​ເຈົ້າ​ເພື່ອ​ຮຸກ​ຮານ​ສິດ​ທິ​ພົນ​ລະ​ເມືອງ ຫຼື​ນາບ​ຂູ່, ທໍາ​ຮ້າຍ, ຫຼື​ຂົ່ມ​ຂູ່​ຜູ້​ອື່ນ. ຂົງ​ເຂດ​ໜຶ່ງ​ທີ່​ມີ​ຄວາມ​ເປັນ​ຫ່ວງ​ເປັນ​ພິ​ເສດ​ແມ່ນ​ການ​ສ້າງ​ອາ​ວຸດ. ພວກເຮົາເຊື່ອວ່າການເພີ່ມອາວຸດໃຫ້ກັບຫຸ່ນຍົນທີ່ດໍາເນີນການຫ່າງໄກສອກຫຼີກຫຼືອັດຕະໂນມັດ, ມີໃຫ້ສາທາລະນະຢ່າງກວ້າງຂວາງ, ແລະສາມາດນໍາທາງໄປຫາສະຖານທີ່ທີ່ບໍ່ສາມາດເຂົ້າເຖິງໄດ້ໃນເມື່ອກ່ອນບ່ອນທີ່ຄົນອາໄສຢູ່ແລະເຮັດວຽກ, ເຮັດໃຫ້ເກີດຄວາມສ່ຽງໃຫມ່ຂອງຄວາມເສຍຫາຍແລະບັນຫາດ້ານຈັນຍາບັນທີ່ຮ້າຍແຮງ. ການນໍາໃຊ້ອາວຸດຂອງຫຸ່ນຍົນທີ່ມີຄວາມສາມາດໃຫມ່ເຫຼົ່ານີ້ຍັງຈະເປັນອັນຕະລາຍຕໍ່ຄວາມໄວ້ວາງໃຈຂອງສາທາລະນະໃນເຕັກໂນໂລຢີໃນວິທີທີ່ທໍາລາຍຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງທີ່ພວກເຂົາຈະນໍາມາສູ່ສັງຄົມ. ສໍາລັບເຫດຜົນເຫຼົ່ານີ້, ພວກເຮົາບໍ່ສະຫນັບສະຫນູນການປະກອບອາວຸດຂອງຫຸ່ນຍົນຈຸດປະສົງທົ່ວໄປກ້າວຫນ້າທາງດ້ານການເຄື່ອນຍ້າຍຂອງພວກເຮົາ. ສໍາລັບພວກເຮົາຜູ້ທີ່ໄດ້ເວົ້າກ່ຽວກັບເລື່ອງນີ້ໃນອະດີດ, ແລະຜູ້ທີ່ມີສ່ວນຮ່ວມເປັນຄັ້ງທໍາອິດ, ໃນປັດຈຸບັນພວກເຮົາຮູ້ສຶກເຖິງຄວາມຮີບດ່ວນໃຫມ່ຍ້ອນຄວາມກັງວົນຂອງສາທາລະນະທີ່ເພີ່ມຂຶ້ນໃນເດືອນທີ່ຜ່ານມາເຊິ່ງເກີດຈາກປະຊາຊົນຈໍານວນຫນ້ອຍທີ່ໄດ້ເຜີຍແຜ່ຢ່າງເຫັນໄດ້ຊັດໃນການໂຄສະນາຊົ່ວຄາວຂອງພວກເຂົາ. ຄວາມ​ພະ​ຍາ​ຍາມ​ທີ່​ຈະ​ປະ​ກອບ​ອາ​ວຸດ​ຫຸ່ນ​ຍົນ​ທີ່​ມີ​ຢູ່​ທາງ​ການ​ຄ້າ” (ຕາມ​ທີ່​ໄດ້​ຮັບ​ການ​ລົງ​ໃນ​ອອນ​ໄລ​ນ​໌​)​.

ເມື່ອອ່ານວັກທີສອງນັ້ນ, ຂ້ອຍຫວັງວ່າເຈົ້າຈະເຫັນໄດ້ວ່າການສົນທະນາກ່ອນຫນ້າຂອງຂ້ອຍຢູ່ໃນນີ້ກ່ຽວກັບການສ້າງອາວຸດ AI ເກີດຂື້ນແນວໃດ.

ໃຫ້ກວດເບິ່ງຈຸດເພີ່ມເຕີມຈໍານວນຫນ້ອຍຫນຶ່ງ.

ຄວາມບໍ່ພໍໃຈບາງຢ່າງກ່ຽວກັບລັກສະນະຄໍາສັບສະເພາະທີ່ເຮັດໃຫ້ເກີດຄວາມອັນຕະລາຍໂດຍບາງຄົນແມ່ນວ່າຄໍາບັນຍາຍເບິ່ງຄືວ່າຈະເນັ້ນຫນັກວ່າ "ຄົນທີ່ບໍ່ຫນ້າເຊື່ອຖື" ສາມາດໃຊ້ຫຸ່ນຍົນ AI ເຫຼົ່ານີ້ໃນທາງທີ່ຜິດ. ແມ່ນແລ້ວ, ແທ້ຈິງແລ້ວ, ມັນອາດຈະເປັນຄົນທີ່ບໍ່ດີຫຼືຜູ້ເຮັດຊົ່ວທີ່ເຮັດໃຫ້ເກີດການກະທໍາທີ່ຂີ້ຮ້າຍທີ່ຈະ "ໃຊ້" ຫຸ່ນຍົນ AI ໃນທາງທີ່ຜິດ.

ໃນຂະນະດຽວກັນ, ດັ່ງທີ່ໄດ້ຊີ້ໃຫ້ເຫັນເຖິງການເລີ່ມຕົ້ນຂອງການສົນທະນານີ້, ພວກເຮົາຍັງຈໍາເປັນຕ້ອງເຮັດໃຫ້ຊັດເຈນວ່າ AI ຕົວຂອງມັນເອງອາດຈະຫຍາບຄາຍ, ອາດຈະເປັນຍ້ອນການຝັງຕົວຫຼືຄວາມຜິດພາດແລະອາການແຊກຊ້ອນອື່ນໆ. ຄວາມກັງວົນທີ່ສະແດງອອກແມ່ນພຽງແຕ່ເນັ້ນຫນັກໃສ່ໂອກາດຂອງ ຄົນ​ທີ່​ບໍ່​ໜ້າ​ເຊື່ອ​ຖື ແມ່ນວ່າມັນເບິ່ງຄືວ່າຈະບໍ່ສົນໃຈຄວາມເປັນໄປໄດ້ທາງລົບອື່ນໆ. ເຖິງແມ່ນວ່າບໍລິສັດ AI ແລະຜູ້ຂາຍສ່ວນໃຫຍ່ມີຄວາມລັງກຽດທີ່ຈະຍອມຮັບມັນ, ຍັງມີຫຼາຍບັນຫາຂອງລະບົບ AI ທີ່ສາມາດຕັດຄວາມປອດໄພແລະຄວາມຫນ້າເຊື່ອຖືຂອງລະບົບອັດຕະໂນມັດ. ສໍາລັບການຄຸ້ມຄອງຄວາມປອດໄພ AI ຂອງຂ້ອຍແລະຄວາມຕ້ອງການສໍາລັບການປົກປ້ອງທີ່ເຂັ້ມງວດແລະສາມາດພິສູດໄດ້, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກ​ຕົວ​ຢ່າງ.

ຈຸດທີ່ໂດດເດັ່ນອີກອັນໜຶ່ງທີ່ເກີດຂື້ນໃນບັນດາຜູ້ທີ່ໄດ້ກວດກາຈົດໝາຍເປີດນັ້ນ ປະກອບດ້ວຍການຢືນຢັນລວມວ່າ ອາດຈະເຮັດໃຫ້ຄວາມເຊື່ອຖືຂອງປະຊາຊົນຖືກຕັດຂາດທີ່ກ່ຽວຂ້ອງກັບຫຸ່ນຍົນ AI.

ໃນອີກດ້ານຫນຶ່ງ, ນີ້ແມ່ນການຢືນຢັນທີ່ຖືກຕ້ອງ. ຖ້າຫຸ່ນຍົນ AI ຖືກນໍາໃຊ້ເພື່ອເຮັດການປະມູນທີ່ຊົ່ວຮ້າຍ, ທ່ານສາມາດວາງເດີມພັນວ່າປະຊາຊົນຈະໄດ້ຮັບອາຍແກັສທີ່ຂ້ອນຂ້າງ. ໃນເວລາທີ່ປະຊາຊົນໄດ້ຮັບການອົບໄອນ້ໍາ, ທ່ານສາມາດວາງເດີມພັນວ່ານັກກົດຫມາຍຈະໂດດເຂົ້າໄປໃນ foray ແລະຊອກຫາວິທີທີ່ຈະອອກກົດຫມາຍທີ່ຂັດຂວາງກ່ຽວກັບຫຸ່ນຍົນ AI ແລະຜູ້ຜະລິດຫຸ່ນຍົນ AI. ອັນນີ້ອາດຈະເຮັດໃຫ້ອຸດສາຫະ ກຳ ຫຸ່ນຍົນ AI ເສຍຫາຍຖ້າກົດ ໝາຍ ມີຄວາມສົມບູນແບບແລະປິດຄວາມພະຍາຍາມທີ່ກ່ຽວຂ້ອງກັບຜົນປະໂຫຍດຂອງຫຸ່ນຍົນ AI. ໃນຄວາມຮູ້ສຶກ, ເດັກນ້ອຍສາມາດຖືກຖິ້ມອອກດ້ວຍນ້ໍາອາບນ້ໍາ (ການສະແດງອອກທີ່ເກົ່າແກ່, ອາດຈະສົມຄວນໄດ້ຮັບການກິນເບັ້ຍບໍານານ).

ຄໍາຖາມທີ່ຊັດເຈນໄດ້ເກີດຂຶ້ນເຊັ່ນດຽວກັນແມ່ນວ່າການຢືນຢັນນີ້ກ່ຽວກັບການຫຼຸດຜ່ອນຄວາມໄວ້ວາງໃຈຂອງສາທາລະນະສໍາລັບຫຸ່ນຍົນ AI ແມ່ນການຮັບໃຊ້ຕົນເອງບາງຢ່າງຫຼືວ່າມັນແມ່ນເພື່ອຜົນປະໂຫຍດຂອງພວກເຮົາທັງຫມົດ (ມັນເປັນໄປໄດ້ທັງສອງບໍ?).

ເຈົ້າ​ຕັດ​ສິນ​ໃຈ.

ດຽວນີ້ພວກເຮົາມາຮອດສ່ວນທີ່ແຊບໂດຍສະເພາະຂອງ Open Letter:

  • "ພວກເຮົາສັນຍາວ່າພວກເຮົາຈະບໍ່ປະກອບອາວຸດຫຸ່ນຍົນຈຸດປະສົງທົ່ວໄປທີ່ກ້າວຫນ້າທາງດ້ານການເຄື່ອນໄຫວຂອງພວກເຮົາຫຼືຊອບແວທີ່ພວກເຮົາພັດທະນາທີ່ເຮັດໃຫ້ຫຸ່ນຍົນກ້າວຫນ້າທາງດ້ານແລະພວກເຮົາຈະບໍ່ສະຫນັບສະຫນູນຄົນອື່ນໃຫ້ເຮັດເຊັ່ນນັ້ນ. ເມື່ອເປັນໄປໄດ້, ພວກເຮົາຈະທົບທວນຄືນຄໍາຮ້ອງສະຫມັກທີ່ມີຈຸດປະສົງຂອງລູກຄ້າຂອງພວກເຮົາຢ່າງລະມັດລະວັງເພື່ອຫຼີກເວັ້ນການອາວຸດທີ່ອາດຈະເກີດຂຶ້ນ. ພວກເຮົາຍັງໃຫ້ຄໍາໝັ້ນສັນຍາທີ່ຈະຄົ້ນຄວ້າການພັດທະນາລັກສະນະທາງເທັກໂນໂລຍີທີ່ສາມາດຫຼຸດຜ່ອນ ຫຼືຫຼຸດຜ່ອນຄວາມສ່ຽງເຫຼົ່ານີ້. ເພື່ອຈະແຈ້ງ, ພວກເຮົາບໍ່ໄດ້ເອົາບັນຫາກັບເຕັກໂນໂລຢີທີ່ມີຢູ່ແລ້ວທີ່ປະເທດຊາດແລະອົງການລັດຖະບານຂອງພວກເຂົາໃຊ້ເພື່ອປ້ອງກັນຕົນເອງແລະຮັກສາກົດຫມາຍຂອງພວກເຂົາ” (ຕາມທີ່ຈັດພີມມາອອນໄລນ໌).

ພວກເຮົາສາມາດ unpack ນີ້.

ນັ່ງລົງແລະກະກຽມຕົນເອງຕາມຄວາມເຫມາະສົມ.

ເຈົ້າພ້ອມແລ້ວບໍສໍາລັບການຂົ້ວໂລກຮ້ອນ?

ໃນດ້ານທີ່ເອື້ອອໍານວຍ, ບາງຄົນກໍາລັງຮ້ອງອອກມາວ່າຜູ້ຜະລິດຫຸ່ນຍົນ AI ເຫຼົ່ານີ້ຈະໃຫ້ຄໍາຫມັ້ນສັນຍາດັ່ງກ່າວ. ມັນເບິ່ງຄືວ່າຜູ້ຜະລິດຫຸ່ນຍົນເຫຼົ່ານີ້ຈະພະຍາຍາມຢ່າງດີທີ່ຈະບໍ່ໃຊ້ຫຸ່ນຍົນ "ຈຸດປະສົງທົ່ວໄປທີ່ມີຄວາມກ້າວຫນ້າ" ຂອງພວກເຂົາ. ນອກຈາກນັ້ນ, ຈົດຫມາຍເປີດກ່າວວ່າເຂົາເຈົ້າຈະບໍ່ສະຫນັບສະຫນູນຄົນອື່ນທີ່ເຮັດເຊັ່ນນັ້ນ.

ນັກວິຈານສົງໄສວ່າມີຄໍາເວົ້າທີ່ສະຫລາດບາງຢ່າງເກີດຂຶ້ນ.

ຕົວຢ່າງ, "ການເຄື່ອນໄຫວຂັ້ນສູງ" ເລີ່ມຕົ້ນແລະສິ້ນສຸດຢູ່ໃສ? ຖ້າຜູ້ຜະລິດຫຸ່ນຍົນກໍາລັງວາງແຜນ a ງ່າຍດາຍ-mobility AI ຫຸ່ນຍົນ ແທນທີ່ຈະເປັນແບບພິເສດ (ຊຶ່ງເປັນຊິ້ນສ່ວນຂອງ techie jargon ບໍ່ໄດ້ກໍານົດ), ມັນໄດ້ຖືກຍົກເວັ້ນຈາກຂອບເຂດຂອງສິ່ງທີ່ຈະ. ບໍ່ ຖືກອາວຸດ? ດັ່ງນັ້ນ, ປາກົດຂື້ນ, ມັນເຫມາະສົມທີ່ຈະປະກອບອາວຸດຫຸ່ນຍົນ AI ເຄື່ອນທີ່ງ່າຍດາຍ, ຕາບໃດທີ່ພວກມັນບໍ່ຖືກເອີ້ນວ່າ. ກ້າວຫນ້າທາງດ້ານ.

ດຽວກັນກັບຄໍາເວົ້າຂອງຫຸ່ນຍົນທີ່ມີຈຸດປະສົງທົ່ວໄປ. ຖ້າຫຸ່ນຍົນ AI ໄດ້ຖືກອອກແບບໂດຍສະເພາະສໍາລັບການສ້າງອາວຸດແລະດັ່ງນັ້ນພວກເຮົາບໍ່ຄວນເວົ້າວ່າ a ຈຸດ​ປະ​ສົງ​ທົ່ວ​ໄປ ຫຸ່ນຍົນ, ມັນກາຍເປັນການຍົກເວັ້ນທີ່ມີປະໂຫຍດຈາກຂອບເຂດບໍ?

ເຈົ້າອາດຈະໂຕ້ແຍ້ງກັບຄຳເວົ້າເຫຼົ່ານີ້ ແລະໂຕ້ແຍ້ງຢ່າງແຮງກ້າວ່ານີ້ແມ່ນພຽງແຕ່ຈົດໝາຍເປີດແປນ ແລະບໍ່ແມ່ນເອກະສານທາງກົດໝາຍຫ້າສິບໜ້າທີ່ສະກົດອອກທຸກຈຸດໆ.

ອັນນີ້ເຮັດໃຫ້ພວກເຮົາໄປສູ່ລະດັບມະຫາພາກທີ່ເບິ່ງຄືວ່າຫຼາຍຂື້ນໂດຍບາງຄົນສະແດງອອກ. ໂດຍເນື້ອແທ້ແລ້ວ, "ສັນຍາ" ໝາຍ ເຖິງຫຍັງ?

ບາງຄົນຖາມວ່າ ຊີ້ນງົວຢູ່ໃສ?

ບໍລິສັດທີ່ໃຫ້ຄໍາໝັ້ນສັນຍາແບບນີ້ເບິ່ງຄືວ່າຈະເຮັດແບບນັ້ນໂດຍບໍ່ມີຮຸ້ນສ່ວນທີ່ແທ້ຈິງໃນເກມ. ຖ້າບໍລິສັດທອງເຫລືອງຊັ້ນນໍາຂອງບໍລິສັດໃດທີ່ລົງທະບຽນສໍາລັບຄໍາຫມັ້ນສັນຍານີ້ຕັດສິນໃຈທີ່ຈະບໍ່ເຄົາລົບຄໍາຫມັ້ນສັນຍາອີກຕໍ່ໄປ, ຈະເກີດຫຍັງຂຶ້ນກັບບໍລິສັດດັ່ງກ່າວ? ຜູ້ບໍລິຫານຈະໄດ້ຮັບກະປ໋ອງສະຫຼຸບບໍ? ບໍ​ລິ​ສັດ​ຈະ​ປິດ​ຕົວ​ແລະ​ຂໍ​ອະ​ໄພ​ຢ່າງ​ຫຼວງ​ຫຼາຍ​ທີ່​ໄດ້​ລະ​ເມີດ​ຄໍາ​ຫມັ້ນ​ສັນ​ຍາ​? ແລະອື່ນໆ.

ເທົ່າ​ທີ່​ຈະ​ສາ​ມາດ​ພິ​ສູດ​ໄດ້​, ບໍ່​ມີ​ການ​ລົງ​ໂທດ​ຫຼື​ການ​ລົງ​ໂທດ​ໂດຍ​ສະ​ເພາະ​ສໍາ​ລັບ​ການ​ລະ​ເມີດ​ຄໍາ​ຫມັ້ນ​ສັນ​ຍາ​ໃດໆ​.

ທ່ານອາດຈະໂຕ້ຖຽງວ່າມີຄວາມເປັນໄປໄດ້ຂອງຄວາມເສຍຫາຍຊື່ສຽງ. ບໍລິສັດໃຫ້ຄໍາຫມັ້ນສັນຍາອາດຈະຖືກທໍາລາຍໃນຕະຫຼາດສໍາລັບການໃຫ້ຄໍາຫມັ້ນສັນຍາທີ່ມັນບໍ່ໄດ້ສັງເກດເຫັນອີກຕໍ່ໄປ. ແນ່ນອນ, ນີ້ຍັງສົມມຸດວ່າປະຊາຊົນຈະຈື່ຈໍາວ່າຄໍາຫມັ້ນສັນຍາໄດ້ເຮັດ. ມັນຍັງສົມມຸດວ່າການລະເມີດສັນຍາຈະຖືກກວດພົບຢ່າງໃດກໍ່ຕາມ (ມັນເບິ່ງຄືວ່າບໍ່ຊັດເຈນວ່າບໍລິສັດຈະບອກທັງຫມົດຖ້າມັນເຮັດແນວນັ້ນ). ຜູ້ລະເມີດຄໍາຫມັ້ນສັນຍາຈະຕ້ອງຖືກເອີ້ນອອກແລະແຕ່ບັນຫາດັ່ງກ່າວອາດຈະກາຍເປັນພຽງແຕ່ສິ່ງລົບກວນໃນຄື້ນຟອງຍັກສຸນາມິຂອງຂ່າວກ່ຽວກັບຜູ້ຜະລິດຫຸ່ນຍົນ AI.

ພິຈາລະນາອີກມຸມຫນຶ່ງທີ່ເກີດຂື້ນ.

ບໍລິສັດໃຫ້ຄຳໝັ້ນສັນຍາຖືກຊື້ໂດຍບໍລິສັດໃຫຍ່ກວ່າຈຳນວນໜຶ່ງ. ບໍລິສັດໃຫຍ່ກວ່າເລືອກທີ່ຈະເລີ່ມປ່ຽນຫຸ່ນຍົນທີ່ມີຈຸດປະສົງທົ່ວໄປແບບເຄື່ອນທີ່ທີ່ກ້າວ ໜ້າ ໄປສູ່ລຸ້ນອາວຸດ AI.

ນີ້ແມ່ນການລະເມີດສັນຍາບໍ?

ບໍລິສັດໃຫຍ່ກວ່າອາດຈະຍືນຍັນວ່າມັນບໍ່ແມ່ນການລະເມີດເພາະວ່າພວກເຂົາ (ບໍລິສັດຂະຫນາດໃຫຍ່ກວ່າ) ບໍ່ເຄີຍເຮັດສັນຍາ. ໃນ​ຂະ​ນະ​ດຽວ​ກັນ, ຫຸ່ນ​ຍົນ AI ທີ່​ບໍ່​ມີ​ຊີ​ວິດ​ທີ່​ບໍ​ລິ​ສັດ​ຂະ​ຫນາດ​ນ້ອຍ​ໄດ້​ຮ່ວມ​ກັນ​ແລະ​ການ​ພັດ​ທະ​ນາ​, ເຮັດ​ແນວ​ນັ້ນ​ໂດຍ​ເບິ່ງ​ຄື​ວ່າ​ມີ​ຄວາມ​ຈິງ​ໃຈ​ທີ່​ສຸດ​, ໄດ້​ຮັບ​ການ​ປັບ​ປຸງ​ເກືອບ​ຄືນ​ເປັນ​ອາ​ວຸດ​.

ປະເພດຂອງການທໍາລາຍຄໍາຫມັ້ນສັນຍາ, ເຖິງແມ່ນວ່າທ່ານອາດຈະເວົ້າວ່າບໍລິສັດຂະຫນາດນ້ອຍບໍ່ຮູ້ວ່າມັນຈະເກີດຂຶ້ນໃນມື້ຫນຶ່ງ. ພວກເຂົາເຈົ້າມີຄວາມຕັ້ງໃຈໃນຄວາມປາຖະຫນາຂອງເຂົາເຈົ້າ. ມັນອອກຈາກການຄວບຄຸມຂອງພວກເຂົາກ່ຽວກັບສິ່ງທີ່ບໍລິສັດຊື້ຂະຫນາດໃຫຍ່ເລືອກເຮັດ.

ບາງຄົນຍັງຖາມວ່າມີຄວາມຮັບຜິດຊອບທາງດ້ານກົດຫມາຍໃນເລື່ອງນີ້.

ບໍ​ລິ​ສັດ​ໃຫ້​ຄຳ​ໝັ້ນ​ສັນ​ຍາ​ຕັດ​ສິນ​ໃນ​ບໍ່​ເທົ່າ​ໃດ​ເດືອນ​ຈາກ​ນີ້​ວ່າ​ຈະ​ບໍ່​ໃຫ້​ກຽດ​ແກ່​ຄຳ​ໝັ້ນ​ສັນ​ຍາ. ພວກເຂົາເຈົ້າມີການປ່ຽນແປງຂອງຫົວໃຈ. ບໍ​ລິ​ສັດ​ສາ​ມາດ​ຖືກ​ຟ້ອງ​ສໍາ​ລັບ​ການ​ປະ​ຖິ້ມ​ຄໍາ​ຫມັ້ນ​ສັນ​ຍາ​ທີ່​ຕົນ​ໄດ້​ເຮັດ​? ໃຜຈະຟ້ອງ? ແມ່ນຫຍັງຈະເປັນພື້ນຖານສໍາລັບການດໍາເນີນຄະດີ? ບັນຫາທາງດ້ານກົດໝາຍເກີດຂຶ້ນໜ້ອຍນຶ່ງ. ຍ້ອນວ່າພວກເຂົາເວົ້າວ່າ, ເຈົ້າສາມາດຟ້ອງຮ້ອງໄດ້ຫຼາຍກ່ຽວກັບຜູ້ໃດ, ແຕ່ວ່າເຈົ້າຈະຊະນະແມ່ນເລື່ອງທີ່ແຕກຕ່າງກັນທັງຫມົດ.

ຄິດວ່າວິທີອື່ນ. ບໍລິສັດໃຫ້ຄໍາໝັ້ນສັນຍາໄດ້ຮັບໂອກາດທີ່ຈະເຮັດການຕົກລົງອັນໃຫຍ່ຫຼວງເພື່ອຂາຍຫຸ່ນຍົນທີ່ມີຈຸດປະສົງທົ່ວໄປທີ່ກ້າວຫນ້າທາງດ້ານການເຄື່ອນໄຫວຂອງຕົນທັງຫມົດໃຫ້ກັບບໍລິສັດຂະຫນາດໃຫຍ່ທີ່ເຕັມໃຈທີ່ຈະຈ່າຍເງິນຜ່ານດັງເພື່ອເອົາຫຸ່ນຍົນ. ມັນແມ່ນໜຶ່ງໃນຂໍ້ສະເໜີການຊື້ຄັ້ງໜຶ່ງໃນຊີວິດຕະຫຼອດຊີວິດ.

ບໍລິສັດຫຸ່ນຍົນ AI ຄວນເຮັດແນວໃດ?

ຖ້າບໍລິສັດສັນຍາຫຸ່ນຍົນ AI ໄດ້ຖືກຊື້ຂາຍຢ່າງເປີດເຜີຍ, ພວກເຂົາເກືອບແນ່ນອນຈະມີຈຸດປະສົງເພື່ອຂາຍ (ອັນດຽວກັນອາດຈະເວົ້າໄດ້ວ່າບໍລິສັດທີ່ຖືເປັນເອກະຊົນ, ເຖິງແມ່ນວ່າບໍ່ແມ່ນດັ່ງນັ້ນ). ຈິນຕະນາການວ່າບໍລິສັດສັນຍາມີຄວາມກັງວົນວ່າຜູ້ຊື້ອາດຈະພະຍາຍາມປະກອບອາວຸດຫຸ່ນຍົນ, ເຖິງແມ່ນວ່າຈະເວົ້າວ່າບໍ່ມີການສົນທະນາດັ່ງກ່າວຢູ່ໃນຕາຕະລາງ. ມັນເປັນພຽງແຕ່ຂ່າວລືວ່າຜູ້ຊື້ອາດຈະເຮັດແນວນັ້ນ.

ຕາມ​ນັ້ນ​ແລ້ວ, ບໍລິສັດ​ທີ່​ໃຫ້​ຄຳ​ໝັ້ນ​ສັນຍາ​ໄດ້​ອອກ​ໃບ​ອະນຸຍາດ​ໃຫ້​ພວກ​ເຂົາ​ເຈົ້າ​ວ່າ ​ຫຸ່ນ​ຍົນ​ບໍ່​ໄດ້​ເປັນ​ອາວຸດ. ຜູ້ຊື້ເວົ້າພາສານີ້ ແລະກ້າວອອກໄປຈາກການຊື້.

ບໍລິສັດຫຸ່ນຍົນ AI ທີ່ໃຫ້ຄຳໝັ້ນສັນຍາວ່າໄດ້ກຳໄລເທົ່າໃດ?

ມີຈຸດໃດທີ່ກໍາໄລໃນມືຫຼາຍກວ່າການລວມເອົາຂໍ້ກໍານົດການຈໍາກັດການອອກໃບອະນຸຍາດ (ຫຼື, ບາງທີອາດມີຄໍາເວົ້າຕາມກົດຫມາຍວ່າຂໍ້ຈໍາກັດເພື່ອອະນຸຍາດໃຫ້ມີຫ້ອງ wiggle ແລະຍັງເຮັດໃຫ້ການຕົກລົງ)? ຂ້າ​ພະ​ເຈົ້າ​ຄິດ​ວ່າ​ທ່ານ​ສາ​ມາດ​ເບິ່ງ quandary ມີ​ສ່ວນ​ຮ່ວມ​. ຕັນຂອງສະຖານະການດັ່ງກ່າວໄດ້ຖືກ conjured ໄດ້ຢ່າງງ່າຍດາຍ. ຄໍາຖາມແມ່ນວ່າສັນຍານີ້ຈະມີແຂ້ວ. ຖ້າເປັນດັ່ງນັ້ນ, ແຂ້ວປະເພດໃດ?

ໃນສັ້ນ, ດັ່ງທີ່ໄດ້ກ່າວໃນຕອນເລີ່ມຕົ້ນຂອງການສົນທະນານີ້, ບາງຄົນມີຄວາມກະຕືລືລົ້ນວ່າປະເພດຂອງຄໍາສັນຍານີ້ຈະຖືກເຮັດ, ໃນຂະນະທີ່ຄົນອື່ນກໍາລັງພິຈາລະນາເບິ່ງວ່າຄໍາຫມັ້ນສັນຍາຈະຖືນ້ໍາ.

ພວກເຮົາກ້າວຕໍ່ໄປ.

ໄດ້​ຮັບ​ຄໍາ​ຫມັ້ນ​ສັນ​ຍາ​ໄປ​

ວັກທີສີ່ ແລະສຸດທ້າຍຂອງຈົດໝາຍເປີດເຜີນ ກ່າວດັ່ງນີ້:

  • "ພວກເຮົາເຂົ້າໃຈວ່າຄໍາຫມັ້ນສັນຍາຂອງພວກເຮົາຢ່າງດຽວບໍ່ພຽງພໍທີ່ຈະແກ້ໄຂຄວາມສ່ຽງເຫຼົ່ານີ້ຢ່າງເຕັມສ່ວນ, ແລະດັ່ງນັ້ນພວກເຮົາຮຽກຮ້ອງໃຫ້ຜູ້ສ້າງນະໂຍບາຍເຮັດວຽກກັບພວກເຮົາເພື່ອສົ່ງເສີມການນໍາໃຊ້ຫຸ່ນຍົນເຫຼົ່ານີ້ຢ່າງປອດໄພແລະຫ້າມການນໍາໃຊ້ທີ່ບໍ່ຖືກຕ້ອງ. ພວກເຮົາຍັງຮຽກຮ້ອງໃຫ້ທຸກອົງການຈັດຕັ້ງ, ຜູ້ພັດທະນາ, ນັກຄົ້ນຄວ້າ, ແລະຜູ້ໃຊ້ໃນຊຸມຊົນຫຸ່ນຍົນໃຫ້ຄໍາຫມັ້ນສັນຍາທີ່ຄ້າຍຄືກັນທີ່ຈະບໍ່ສ້າງ, ອະນຸຍາດ, ສະຫນັບສະຫນູນ, ຫຼືເຮັດໃຫ້ການຕິດອາວຸດຂອງຫຸ່ນຍົນດັ່ງກ່າວ. ພວກເຮົາເຊື່ອໝັ້ນວ່າຜົນປະໂຫຍດຕໍ່ມະນຸດຂອງເທັກໂນໂລຍີເຫຼົ່ານີ້ມີຫຼາຍກວ່າຄວາມສ່ຽງຂອງການໃຊ້ໃນທາງທີ່ຜິດ, ແລະພວກເຮົາຕື່ນເຕັ້ນກັບອະນາຄົດທີ່ສົດໃສທີ່ມະນຸດ ແລະຫຸ່ນຍົນເຮັດວຽກຄຽງຄູ່ກັນເພື່ອຮັບມືກັບບາງສິ່ງທ້າທາຍຂອງໂລກ” (ຕາມການປະກາດທາງອອນລາຍ).

ສະບັບສຸດທ້າຍນີ້ຂອງ Open Letter ມີອົງປະກອບເພີ່ມເຕີມຈໍານວນຫນຶ່ງທີ່ເຮັດໃຫ້ເກີດຄວາມອິດເມື່ອຍ.

ການໂທຫາຜູ້ສ້າງນະໂຍບາຍສາມາດໄດ້ຮັບຄໍາແນະນໍາທີ່ດີຫຼືບໍ່ດີ, ບາງຄົນຢືນຢັນ. ເຈົ້າອາດຈະໄດ້ຮັບຜູ້ສ້າງນະໂຍບາຍທີ່ບໍ່ເຂົ້າໃຈໃນເລື່ອງເຫຼົ່ານີ້ ຈາກນັ້ນເຮັດການຕັດສິນແບບຟ້າວຟັ່ງແບບເກົ່າໆ ແລະກົດໝາຍ ແລະ ກົດລະບຽບການຫັດຖະກໍາທີ່ເອົາຊະນະຄວາມຄືບໜ້າຂອງຫຸ່ນຍົນ AI. ຕາມຈຸດທີ່ເຮັດກ່ອນຫນ້ານັ້ນ, ບາງທີການປະດິດສ້າງທີ່ກໍາລັງຊຸກຍູ້ຄວາມກ້າວຫນ້າຂອງຫຸ່ນຍົນ AI ຈະຖືກຂັດຂວາງຫຼືຂັດຂວາງ.

ດີກວ່າໃຫ້ແນ່ໃຈວ່າເຈົ້າຮູ້ວ່າເຈົ້າຕ້ອງການຫຍັງ, ນັກວິຈານເວົ້າວ່າ.

ແນ່ນອນ, ການໂຕ້ຖຽງກັນແມ່ນວ່າຄໍາບັນຍາຍໄດ້ລະບຸຢ່າງຊັດເຈນວ່າຜູ້ສ້າງນະໂຍບາຍຄວນຈະເຮັດວຽກຮ່ວມກັບບໍລິສັດຫຸ່ນຍົນ AI ເພື່ອຊອກຫາວິທີທີ່ຈະສ້າງກົດຫມາຍແລະກົດລະບຽບດັ່ງກ່າວຢ່າງສົມເຫດສົມຜົນ. ກົງກັນຂ້າມກັບການໂຕ້ຖຽງກັນແມ່ນວ່າຜູ້ວາງນະໂຍບາຍອາດຈະຖືກເບິ່ງວ່າເບິ່ງຜູ້ສ້າງຫຸ່ນຍົນ AI ຖ້າພວກເຂົາຕອບສະຫນອງຄວາມກະຕືລືລົ້ນຂອງພວກເຂົາ. ການຕໍ່ຕ້ານການໂຕ້ຖຽງຕ້ານການໂຕ້ຖຽງແມ່ນວ່າທໍາມະຊາດມີຄວາມຈໍາເປັນທີ່ຈະເຮັດວຽກກັບຜູ້ທີ່ຮູ້ກ່ຽວກັບເຕັກໂນໂລຢີ, ຖ້າບໍ່ດັ່ງນັ້ນຜົນໄດ້ຮັບອາດຈະເປັນໄປໄດ້. ເປັນຕົ້ນ.

ບົນພື້ນຖານຄວາມວຸ້ນວາຍ, ບາງຄົນໄດ້ເຈັບຫົວໃຈຢູ່ແຖວນັ້ນ ຮຽກຮ້ອງໃຫ້ທຸກຄົນໃຫ້ຄຳໝັ້ນສັນຍາວ່າຈະບໍ່ເຮັດ. ແນບ ອາວຸດ​ຍຸດ​ໂທ​ປະກອນ​ແບບ​ທັນ​ສະ​ໄໝ ​ແລະ ​ຫຸ່ນ​ຍົນ​ທີ່​ມີ​ຈຸດປະສົງ​ທົ່ວ​ໄປ. ຄໍາສໍາຄັນຢູ່ທີ່ນັ້ນແມ່ນຄໍາສັບ ແນບ. ຖ້າຜູ້ໃດຜູ້ ໜຶ່ງ ກຳ ລັງສ້າງຫຸ່ນຍົນ AI ທີ່ປະກອບຫຼືຝັງອາວຸດຢ່າງບໍ່ຢຸດຢັ້ງ, ມັນເບິ່ງຄືວ່າຈະໄປເຖິງ ຄຳ ເວົ້າຂອງ ແນບ ບາງສິ່ງບາງຢ່າງ. ດຽວນີ້ເຈົ້າສາມາດເຫັນມັນໄດ້, ມີຄົນໂຕ້ຖຽງຢ່າງແຮງກ້າວ່າອາວຸດບໍ່ໄດ້ຕິດຢູ່, ມັນແມ່ນສ່ວນ ໜຶ່ງ ແລະສ່ວນຂອງຫຸ່ນຍົນ AI ຢ່າງສົມບູນ. ຂ້າມມັນໄປ, ເຂົາເຈົ້າຮ້ອງຂຶ້ນວ່າ, ພວກເຮົາບໍ່ຢູ່ໃນຂອບເຂດຂອງສັນຍານັ້ນ, ແລະເຂົາເຈົ້າສາມາດເວົ້າໄດ້ວ່າເຂົາເຈົ້າເປັນ.

ອັນນີ້ເຮັດໃຫ້ເກີດການຮ້ອງຮຽນອີກອັນໜຶ່ງກ່ຽວກັບການຂາດການຍຶດໝັ້ນຂອງສັນຍາ.

ບໍລິສັດ ຫຼືໃຜກໍຕາມທີ່ເລືອກທີ່ຈະເຮັດສັນຍາສະບັບນີ້ ປະກາດວ່າຕົນເອງບໍ່ໄດ້ສັນຍາໄດ້ທຸກເວລາວ່າເຂົາເຈົ້າຕ້ອງການເຮັດແນວນັ້ນ ແລະດ້ວຍເຫດຜົນອັນໃດທີ່ເຂົາເຈົ້າຕ້ອງການ?

ປາກົດຂື້ນວ່າ.

ມີຫຼາຍ bandying ປະມານກ່ຽວກັບການເຮັດຄໍາຫມັ້ນສັນຍາແລະສິ່ງທີ່ traction ເຂົາເຈົ້າ imbue.

ສະຫຼຸບ

Yikes, ທ່ານອາດຈະເວົ້າວ່າ, ບໍລິສັດເຫຼົ່ານີ້ທີ່ພະຍາຍາມເຮັດສິ່ງທີ່ຖືກຕ້ອງແມ່ນໄດ້ຮັບການ drumed ສໍາລັບຄວາມພະຍາຍາມເຮັດສິ່ງທີ່ຖືກຕ້ອງ.

ໂລກຂອງພວກເຮົາມີຫຍັງແດ່?

ໃຜກໍ່ຕາມທີ່ເຮັດສັນຍາດັ່ງກ່າວຄວນຈະໄດ້ຮັບຜົນປະໂຫຍດຂອງຄວາມສົງໃສ, ເຈົ້າອາດຈະຮັກສາຢ່າງຈິງຈັງ. ເຂົາເຈົ້າກຳລັງກ້າວເຂົ້າສູ່ຂົງເຂດສາທາລະນະ ເພື່ອເຮັດໃຫ້ການປະກອບສ່ວນອັນກ້າຫານ ແລະອັນສຳຄັນ. ຖ້າ​ພວກ​ເຮົາ​ເລີ່ມ​ດູ​ຖູກ​ເຂົາ​ເຈົ້າ​ໃນ​ການ​ເຮັດ​ເຊັ່ນ​ນັ້ນ, ມັນ​ຈະ​ເຮັດ​ໃຫ້​ເລື່ອງ​ຮ້າຍ​ແຮງ​ຂຶ້ນ​ຢ່າງ​ແນ່ນອນ. ບໍ່ມີໃຜຈະຕ້ອງການທີ່ຈະເຮັດສັນຍາດັ່ງກ່າວ. ບໍລິສັດແລະອື່ນໆຈະບໍ່ພະຍາຍາມ. ພວກ​ເຂົາ​ເຈົ້າ​ຈະ​ປິດ​ບັງ​ແລະ​ບໍ່​ໃຫ້​ສັງ​ຄົມ​ຮູ້​ລ່ວງ​ໜ້າ​ກ່ຽວ​ກັບ​ສິ່ງ​ທີ່​ຫຸ່ນ​ຍົນ​ເຕັ້ນ​ທີ່​ໜ້າ​ຮັກ​ເຫຼົ່າ​ນັ້ນ​ສາ​ມາດ​ຫັນ​ເປັນ​ອັນ​ຕະ​ລາຍ.

ບໍ່ຄ່ອຍເຊື່ອງ່າຍໆປະກາດວ່າວິທີການເຮັດໃຫ້ສັງຄົມມີສະຕິປັນຍາປະກອບມີການກະ ທຳ ອື່ນໆ, ເຊັ່ນ: ການຖິ້ມການກະ ທຳ ທີ່ ໜ້າ ງຶດງໍ້ຂອງການສະແດງຫຸ່ນຍົນ AI ເຕັ້ນທີ່ ໜ້າ ຕື່ນຕາຕື່ນໃຈ. ຫຼືຢ່າງຫນ້ອຍເຮັດໃຫ້ມັນເປັນການກະທໍາທີ່ສົມດູນກວ່າ. ຕົວຢ່າງ, ແທນທີ່ຈະເຮັດແບບຢ່າງກັບໝາທີ່ສັດຊື່ທີ່ຮັກແພງເທົ່ານັ້ນ, ໃຫ້ສະແດງໃຫ້ເຫັນວ່າຫຸ່ນຍົນເຕັ້ນລໍາສາມາດມີຄວາມຄ້າຍຄືກັນກັບໝາປ່າທີ່ໃຈຮ້າຍທີ່ປ່ອຍອອກມາຈາກປ່າທີ່ສາມາດຈີກມະນຸດເປັນຊິ້ນສ່ວນໄດ້ດ້ວຍຄວາມລັງເລໃຈ.

ທີ່ຈະໄດ້ຮັບຄວາມສົນໃຈຫຼາຍກ່ວາຄໍາຫມັ້ນສັນຍາ, ເຂົາເຈົ້າອ້ອນວອນ.

ຄໍາຫມັ້ນສັນຍາສາມາດ indubitably ຂ້ອນຂ້າງ conundrum.

ດັ່ງທີ່ Mahatma Gandhi ໄດ້ກ່າວຢ່າງເລິກເຊິ່ງວ່າ: "ບໍ່ວ່າຄໍາສັນຍາຈະຊັດເຈນປານໃດ, ປະຊາຊົນຈະຫັນແລະບິດຂໍ້ຄວາມເພື່ອໃຫ້ເຫມາະສົມກັບຈຸດປະສົງຂອງຕົນເອງ."

ບາງທີເພື່ອສະຫຼຸບໃນບົດບັນທຶກທີ່ຍົກຂຶ້ນມາ, Thomas Jefferson ກ່າວເລື່ອງນີ້ກ່ຽວກັບຄໍາຫມັ້ນສັນຍາ: "ພວກເຮົາໃຫ້ຄໍາຫມັ້ນສັນຍາຕໍ່ກັນແລະກັນຕໍ່ຊີວິດຂອງພວກເຮົາ, ໂຊກດີຂອງພວກເຮົາ, ແລະກຽດສັກສີອັນສັກສິດຂອງພວກເຮົາ."

ໃນເວລາທີ່ມັນມາກັບຫຸ່ນຍົນ AI, ຄວາມເປັນເອກະລາດຂອງເຂົາເຈົ້າ, ອາວຸດຂອງເຂົາເຈົ້າ, ແລະຄ້າຍຄືກັນ, ໃນທີ່ສຸດພວກເຮົາທັງຫມົດຈະຢູ່ໃນນີ້ຮ່ວມກັນ. ຄຳໝັ້ນສັນຍາເຊິ່ງກັນແລະກັນຂອງພວກເຮົາຕ້ອງການຢ່າງ ໜ້ອຍ ວ່າພວກເຮົາຈະຮັກສາເລື່ອງເຫຼົ່ານີ້ຢູ່ໃນອັນດັບຕົ້ນໆ, ພວກເຮົາຈະພະຍາຍາມຊອກຫາວິທີທີ່ຈະຮັບມືກັບຄວາມກ້າວ ໜ້າ ເຫຼົ່ານີ້, ແລະຊອກຫາວິທີໃດ ໜຶ່ງ ໄປສູ່ການຮັບປະກັນກຽດສັກສີ, ໂຊກລາບຂອງພວກເຮົາ, ແລະຊີວິດຂອງພວກເຮົາ.

ພວກເຮົາສາມາດສັນຍາກັບສິ່ງນັ້ນບໍ?

ຂ້ອຍ​ຫວັງ​ວ່າ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robot-makers-saying-they-will-avert-ai-weaponization/