ຈັນຍາບັນຂອງ AI ແລະກົດໝາຍ AI ມີການຊັ່ງນໍ້າໜັກວິທີສຳຄັນໃນການປະຕິບັດກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ທີ່ປ່ອຍອອກມາເມື່ອບໍ່ດົນມານີ້ ລວມເຖິງ ແລະໜ້າປະຫລາດໃຈດ້ວຍການໃຊ້ AI ຢ່າງແທ້ຈິງ.

ມີຄວາມສົງໃສເລັກນ້ອຍວ່າພວກເຮົາຕ້ອງການແຜນຜັງໃນຊີວິດປະຈໍາວັນຂອງພວກເຮົາ.

ຖ້າເຈົ້າຈະສ້າງເຮືອນໃນຝັນທີ່ຍາວໄກຂອງເຈົ້າ, ເຈົ້າຈະສະຫລາດທີ່ຈະເອົາແຜນຜັງທີ່ໃຊ້ໄດ້ຮ່ວມກັນກ່ອນ.

ແຜນຜັງທີ່ສະແດງໃຫ້ເຫັນໃນລັກສະນະທີ່ເຫັນໄດ້ຊັດເຈນ ແລະເປັນເອກະສານອັນໃດກໍຕາມ ທັດສະນະວິໄສທັດທີ່ກວ້າງໄກອາດຈະຖືກລັອກຢູ່ໃນໂນກກິນຂອງເຈົ້າ. ຜູ້ທີ່ຈະຖືກຮຽກຮ້ອງໃຫ້ສ້າງເຮືອນທີ່ຮັກແພງຂອງເຈົ້າຈະສາມາດອ້າງອີງໃສ່ແຜນຜັງແລະຂຽນລາຍລະອຽດຂອງວິທີການເຮັດວຽກ. Blueprints ແມ່ນ handy. ການຂາດແຜນຜັງແມ່ນຈະມີບັນຫາສໍາລັບການແກ້ໄຂບັນຫາການຈ້າງງານຫຼືໂຄງການທີ່ສັບສົນ.

ຂໍໃຫ້ປ່ຽນສິ່ງທີ່ເປັນທີ່ປະທັບໃຈແຕ່ຢ່າງຈິງໃຈນີ້ໃຫ້ກັບແຜນຜັງໄປສູ່ຂອບເຂດຂອງປັນຍາປະດິດ (AI).

ບັນດາທ່ານທີ່ເຂົ້າສູ່ AI ຢ່າງຫຼວງຫຼາຍອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່ານະໂຍບາຍທີ່ມີຄວາມສໍາຄັນ. blueprint ບໍ່ດົນມານີ້ໄດ້ປ່ອຍອອກມາໃນສະຫະລັດທີ່ສະແດງໃຫ້ເຫັນເຖິງອະນາຄົດຂອງ AI. ເປັນ​ທີ່​ຮູ້​ຈັກ​ຢ່າງ​ເປັນ​ທາງ​ການ​ເປັນ​ ກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AIຫົວຂໍ້ທີ່ເປັນທາງການຂອງເຈ້ຍສີຂາວທີ່ຖືກປະກາດແມ່ນ "Blueprint for a AI Bill of Rights: ເຮັດໃຫ້ລະບົບອັດຕະໂນມັດເຮັດວຽກສໍາລັບຄົນອາເມລິກາ" ແລະສາມາດໃຊ້ໄດ້ອອນໄລນ໌.

ເອກະສານດັ່ງກ່າວເປັນຜົນມາຈາກຄວາມພະຍາຍາມເປັນເວລາ 1970 ປີ ແລະ ການສຶກສາຢ່າງມີສະຕິໂດຍຫ້ອງການນະໂຍບາຍວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ (OSTP). OSTP ເປັນໜ່ວຍງານຂອງລັດຖະບານກາງທີ່ໄດ້ສ້າງຕັ້ງຂຶ້ນໃນກາງຊຸມປີ XNUMX ແລະເຮັດໜ້າທີ່ໃຫ້ຄຳແນະນຳແກ່ປະທານາທິບໍດີອາເມຣິກາ ແລະ ຫ້ອງການບໍລິຫານຂອງສະຫະລັດ ກ່ຽວກັບດ້ານເທັກໂນໂລຍີ, ວິທະຍາສາດ ແລະ ວິສະວະກຳຕ່າງໆ ທີ່ມີຄວາມສໍາຄັນແຫ່ງຊາດ. ​ໃນ​ຄວາມ​ໝາຍ​ດັ່ງກ່າວ, ທ່ານ​ສາມາດ​ເວົ້າ​ໄດ້​ວ່າ ຮ່າງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ສິດທິ​ຂອງ AI ນີ້​ແມ່ນ​ເອກະສານ​ທີ່​ໄດ້​ຮັບ​ການ​ອະນຸມັດ​ແລະ​ຮັບຮອງ​ຈາກ​ທຳນຽບຂາວ​ຂອງ​ສະຫະລັດ​ທີ່​ມີ​ຢູ່​ແລ້ວ.

ຮ່າງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ສິດທິ​ຂອງ AI ​ໄດ້​ບັນຍາຍ​ເຖິງ ສິດ​ທິ​ມະ​ນຸດ ທີ່ມະນຸດຄວນຈະມີກ່ຽວກັບການມາເຖິງຂອງ AI ໃນຊີວິດປະຈໍາວັນຂອງພວກເຮົາ. ຂ້າພະເຈົ້າເນັ້ນຫນັກເຖິງຈຸດທີ່ຫນັກແຫນ້ນນີ້ເພາະວ່າບາງຄົນກໍ່ສັບສົນໃນຕອນທໍາອິດວ່າບາງທີນີ້ແມ່ນການຮັບຮູ້ບາງຢ່າງຂອງ AI ທີ່ມີບຸກຄົນທີ່ຖືກຕ້ອງຕາມກົດຫມາຍແລະວ່ານີ້ແມ່ນສິດທິຂອງ AI ທີ່ມີຄວາມຮູ້ສຶກແລະຫຸ່ນຍົນຂອງມະນຸດ. ບໍ່, ພວກເຮົາບໍ່ໄດ້ຢູ່ທີ່ນັ້ນເທື່ອ. ດັ່ງທີ່ທ່ານຈະເຫັນໃນເວລາສັ້ນໆ, ພວກເຮົາບໍ່ໄດ້ຢູ່ໃກ້ກັບ AI ທີ່ມີຄວາມຮູ້ສຶກ, ເຖິງວ່າຈະມີຫົວຂໍ້ປ້າຍໂຄສະນາທີ່ເບິ່ງຄືວ່າຈະບອກພວກເຮົາໃນທາງອື່ນ.

ຕົກລົງ, ດັ່ງນັ້ນພວກເຮົາຕ້ອງການແຜນຮ່າງທີ່ສະກົດອອກສິດທິມະນຸດໃນຍຸກຂອງ AI ບໍ?

ແມ່ນແລ້ວ, ພວກເຮົາແນ່ນອນທີ່ສຸດ.

ທ່ານເກືອບຈະຕ້ອງຖືກລັອກຢູ່ໃນຖ້ໍາແລະບໍ່ມີການເຂົ້າເຖິງອິນເຕີເນັດເພື່ອບໍ່ຮູ້ວ່າ AI ແມ່ນແລ້ວແລະນັບມື້ນັບຖືກຮຸກຮານສິດທິຂອງພວກເຮົາ. ຍຸກທີ່ຜ່ານມາຂອງ AI ໄດ້ຖືກເບິ່ງໃນເບື້ອງຕົ້ນວ່າເປັນ AI ສໍາລັບທີ່ດີ, ຊຶ່ງຫມາຍຄວາມວ່າພວກເຮົາສາມາດນໍາໃຊ້ AI ສໍາລັບການປັບປຸງຂອງມະນຸດ. ສຸດ heels ຂອງ AI ສໍາລັບທີ່ດີ ມາເຖິງການຮັບຮູ້ວ່າພວກເຮົາຍັງຈົມຢູ່ໃນ AI ສໍາລັບບໍ່ດີ. ນີ້ຮວມເຖິງ AI ທີ່ຖືກວາງແຜນ ຫຼືປ່ຽນແປງຕົນເອງໃຫ້ເປັນການຈຳແນກ ແລະເຮັດໃຫ້ການເລືອກທາງຄຳນວນເຮັດໃຫ້ມີຄວາມລຳອຽງທີ່ບໍ່ເໝາະສົມ. ບາງຄັ້ງ AI ໄດ້ຖືກສ້າງຂື້ນແບບນັ້ນ, ໃນຂະນະທີ່ໃນກໍລະນີອື່ນໆ, ມັນເຂົ້າໄປໃນອານາເຂດທີ່ບໍ່ເຂົ້າໃຈນັ້ນ.

ສໍາລັບການຄຸ້ມຄອງແລະການວິເຄາະຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບກົດຫມາຍ AI, ຈັນຍາບັນຂອງ AI, ແລະແນວໂນ້ມເຕັກໂນໂລຢີ AI ທີ່ສໍາຄັນແລະສັງຄົມອື່ນໆ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

Unpacking the AI ​​Bill of Rights

ຂ້ອຍເຄີຍສົນທະນາກ່ຽວກັບ AI Bill of Rights ກ່ອນຫນ້ານີ້ແລະຈະສະຫຼຸບຢ່າງໄວວາຢູ່ທີ່ນີ້.

ຫລີກໄປທາງຫນຶ່ງ, ຖ້າທ່ານຕ້ອງການຮູ້ຂໍ້ດີແລະຂໍ້ເສຍຢ່າງເລິກເຊິ່ງຂອງຂ້ອຍຂອງ AI Bill of Rights ທີ່ປ່ອຍອອກມາເມື່ອບໍ່ດົນມານີ້, ຂ້ອຍໄດ້ລາຍລະອຽດການວິເຄາະຂອງຂ້ອຍໃນການປະກາດຢູ່ທີ່ ນິຕິບຸກຄົນ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້. ໄດ້ ນິຕິບຸກຄົນ ເປັນເວັບໄຊຂ່າວທາງກົດໝາຍ ແລະຄໍາຄິດເຫັນທາງອອນໄລນ໌ທີ່ໂດດເດັ່ນ, ເປັນທີ່ຮູ້ຈັກກັນຢ່າງກວ້າງຂວາງວ່າເປັນບໍລິການຂ່າວທາງກົດໝາຍທີ່ໄດ້ຮັບຮາງວັນໂດຍທີມງານທົ່ວໂລກຂອງນັກຂ່າວນັກສຶກສາກົດໝາຍ, ບັນນາທິການ, ນັກສະແດງຄວາມຄິດເຫັນ, ນັກຂ່າວ, ແລະນັກພັດທະນາເນື້ອຫາ, ແລະ ມີສໍານັກງານໃຫຍ່ຢູ່ທີ່ມະຫາວິທະຍາໄລ Pittsburgh School of ກົດຫມາຍໃນ Pittsburgh, ບ່ອນທີ່ມັນໄດ້ເລີ່ມຕົ້ນໃນໄລຍະ 25 ປີກ່ອນຫນ້ານີ້. shoutout ກັບທີມງານທີ່ຍັງຄ້າງຄາແລະ hardworking ຢູ່ ນິຕິບຸກຄົນ.

ໃນ​ບັນ​ຊີ​ລາຍ​ການ​ສິດ​ທິ AI, ມີ​ຫ້າ​ປະ​ເພດ​ແກນ​:

  • ລະບົບທີ່ປອດໄພແລະມີປະສິດທິພາບ
  • ການປົກປ້ອງການຈໍາແນກແບບວິທີ
  • ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ
  • ແຈ້ງ​ການ​ແລະ​ຄໍາ​ອະ​ທິ​ບາຍ​
  • ທາງເລືອກຂອງມະນຸດ, ການພິຈາລະນາ, ແລະການຫຼຸດລົງ

ສັງເກດເຫັນວ່າຂ້ອຍບໍ່ໄດ້ນັບພວກເຂົາຈາກຫນຶ່ງຫາຫ້ານັບຕັ້ງແຕ່ການເຮັດດັ່ງນັ້ນອາດຈະຫມາຍຄວາມວ່າພວກເຂົາຢູ່ໃນລໍາດັບໂດຍສະເພາະຫຼືວ່າສິດທິອັນຫນຶ່ງເບິ່ງຄືວ່າມີຄວາມສໍາຄັນກວ່າອີກ. ພວກ​ເຮົາ​ຈະ​ຖື​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ແຕ່​ລະ​ຄວາມ​ດີ​ຂອງ​ຕົນ​. ເຂົາເຈົ້າລ້ວນແຕ່ມີຄວາມໝາຍຄວາມດີເທົ່າທຽມກັນ.

ເປັນການຊີ້ບອກສັ້ນໆກ່ຽວກັບສິ່ງທີ່ແຕ່ລະອັນປະກອບດ້ວຍ, ນີ້ແມ່ນບົດຄັດຫຍໍ້ຈາກເອກະສານສີຂາວຢ່າງເປັນທາງການ:

  • ລະບົບທີ່ປອດໄພ ແລະ ມີປະສິດທິພາບ: "ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກລະບົບທີ່ບໍ່ປອດໄພຫຼືບໍ່ມີປະສິດຕິຜົນ. ລະບົບອັດຕະໂນມັດຄວນໄດ້ຮັບການພັດທະນາດ້ວຍການປຶກສາຫາລືຈາກຊຸມຊົນທີ່ຫຼາກຫຼາຍ, ພາກສ່ວນກ່ຽວຂ້ອງ, ແລະຜູ້ຊ່ຽວຊານດ້ານໂດເມນເພື່ອກໍານົດຄວາມກັງວົນ, ຄວາມສ່ຽງ, ແລະຜົນກະທົບທີ່ອາດເກີດຂື້ນຂອງລະບົບ."
  • ການປົກປ້ອງການຈໍາແນກແບບວິທີ: “ທ່ານບໍ່ຄວນປະເຊີນກັບການຈໍາແນກໂດຍວິທີ ແລະລະບົບຄວນຖືກໃຊ້ ແລະອອກແບບໃນທາງທີ່ສະເໝີພາບ. ການຈຳແນກລະບົບອັດຕະໂນມັດເກີດຂຶ້ນເມື່ອລະບົບອັດຕະໂນມັດປະກອບສ່ວນເຂົ້າໃນການປິ່ນປົວທີ່ບໍ່ຍຸຕິທຳ ຫຼືຜົນກະທົບຕໍ່ຄົນທີ່ບໍ່ພໍໃຈໂດຍອີງຕາມເຊື້ອຊາດ, ສີຜິວ, ຊົນເຜົ່າ, ເພດ (ລວມທັງການຖືພາ, ການເກີດລູກ, ແລະເງື່ອນໄຂທາງການແພດທີ່ກ່ຽວຂ້ອງ, ຕົວຕົນເພດ, ເພດ, ເພດ, ແລະທັດສະນະທາງເພດ), ສາດສະໜາ, ອາຍຸ. , ຊາດກຳເນີດ, ຄວາມພິການ, ສະຖານະນັກຮົບເກົ່າ, ຂໍ້ມູນພັນທຸກໍາ, ຫຼືການຈັດປະເພດອື່ນໆທີ່ປົກປ້ອງໂດຍກົດໝາຍ."
  • ຄວາມເປັນສ່ວນຕົວຂໍ້ມູນ: "ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການປະຕິບັດຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງໂດຍຜ່ານການປົກປ້ອງທີ່ມີໃນຕົວແລະທ່ານຄວນມີອົງການກ່ຽວກັບວິທີການນໍາໃຊ້ຂໍ້ມູນຂອງທ່ານ. ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການລະເມີດຄວາມເປັນສ່ວນຕົວໂດຍຜ່ານທາງເລືອກໃນການອອກແບບທີ່ຮັບປະກັນວ່າການປົກປ້ອງດັ່ງກ່າວຈະຖືກລວມເຂົ້າໂດຍຄ່າເລີ່ມຕົ້ນ, ລວມທັງການຮັບປະກັນວ່າການລວບລວມຂໍ້ມູນສອດຄ່ອງກັບຄວາມຄາດຫວັງທີ່ສົມເຫດສົມຜົນແລະພຽງແຕ່ຂໍ້ມູນທີ່ຈໍາເປັນຢ່າງເຂັ້ມງວດສໍາລັບສະພາບການສະເພາະເທົ່ານັ້ນທີ່ຖືກລວບລວມ."
  • ແຈ້ງ​ການ​ແລະ​ຄໍາ​ອະ​ທິ​ບາຍ​: "ທ່ານຄວນຮູ້ວ່າລະບົບອັດຕະໂນມັດຖືກນໍາໃຊ້ແລະເຂົ້າໃຈວິທີການແລະເຫດຜົນທີ່ມັນປະກອບສ່ວນກັບຜົນໄດ້ຮັບທີ່ມີຜົນກະທົບທ່ານ. ຜູ້ອອກແບບ, ນັກພັດທະນາ, ແລະຜູ້ນຳໃຊ້ລະບົບອັດຕະໂນມັດຄວນສະໜອງເອກະສານພາສາທຳມະດາທີ່ເຂົ້າເຖິງໄດ້ໂດຍທົ່ວໄປລວມທັງການອະທິບາຍຢ່າງຈະແຈ້ງກ່ຽວກັບການເຮັດວຽກຂອງລະບົບໂດຍລວມ ແລະບົດບາດຂອງລະບົບອັດຕະໂນມັດ, ສັງເກດເຫັນວ່າລະບົບດັ່ງກ່າວກຳລັງນຳໃຊ້ຢູ່, ບຸກຄົນ ຫຼື ອົງກອນທີ່ຮັບຜິດຊອບລະບົບ ແລະ ຄໍາອະທິບາຍຂອງ ຜົນໄດ້ຮັບທີ່ຈະແຈ້ງ, ທັນເວລາ, ແລະສາມາດເຂົ້າເຖິງໄດ້.”
  • ທາງເລືອກຂອງມະນຸດ, ພິຈາລະນາ, ແລະປະຕິເສດ: “ເຈົ້າຄວນຈະສາມາດເລືອກອອກໄດ້, ຖ້າເໝາະສົມ, ແລະເຂົ້າເຖິງບຸກຄົນທີ່ສາມາດພິຈາລະນາ ແລະແກ້ໄຂບັນຫາທີ່ເຈົ້າພົບໄດ້ຢ່າງວ່ອງໄວ. ທ່ານຄວນຈະສາມາດເລືອກອອກຈາກລະບົບອັດຕະໂນມັດເພື່ອເລືອກທາງເລືອກຂອງມະນຸດ, ຖ້າເຫມາະສົມ."

ໂດຍແລະຂະຫນາດໃຫຍ່, ເຫຼົ່ານີ້ແມ່ນລັກສະນະຂອງສິດທິມະນຸດທີ່ໄດ້ຮັບການ bandied ປະມານຂ້ອນຂ້າງໃນຂະນະທີ່ໃນສະພາບການຂອງຈັນຍາບັນ AI ແລະກົດຫມາຍວ່າດ້ວຍ AI, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້າພະເຈົ້າເຊັ່ນ: ຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້. ກະດາດສີຂາວເບິ່ງຄືວ່າບໍ່ໄດ້ດຶງກະຕ່າຍອອກຈາກຫມວກຢ່າງມະຫັດສະຈັນກ່ຽວກັບສິດທິທີ່ຄົ້ນພົບຫຼືຄົ້ນພົບໃຫມ່ທີ່ຍັງບໍ່ທັນໄດ້ເປີດເຜີຍໃນສະພາບການຂອງຍຸກ AI.

ບໍ່​ເປັນ​ຫຍັງ.

ທ່ານ​ສາ​ມາດ​ຢືນ​ຢັນ​ວ່າ​ການ​ລວບ​ລວມ​ຂອງ​ພວກ​ເຂົາ​ເຂົ້າ​ໄປ​ໃນ​ການ​ຫຸ້ມ​ຫໍ່ neatly ແລະ​ການ​ເກັບ​ກໍາ​ເປັນ​ທາງ​ການ​ສະ​ຫນອງ​ການ​ບໍ​ລິ​ການ​ທີ່​ສໍາ​ຄັນ​. ນອກ​ຈາກ​ນັ້ນ​, ໂດຍ​ການ​ຖືກ​ເຈີມ​ເປັນ​ການ​ປະ​ກາດ​ ກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI, ນີ້ເຮັດໃຫ້ເລື່ອງທັງຫມົດ overtly ແລະຄວາມສາມາດເຂົ້າໄປໃນສະຕິຂອງຂອບເຂດສາທາລະນະ. ມັນລວມເອົາການສົນທະນາທີ່ບໍ່ຕ່າງກັນທີ່ມີຢູ່ຫຼາຍອັນເປັນຊຸດດຽວທີ່ປະຈຸບັນສາມາດຖືກ trumpeted ແລະຖ່າຍທອດໃນທົ່ວທຸກປະເພດຂອງພາກສ່ວນກ່ຽວຂ້ອງ.

ອະນຸຍາດໃຫ້ຂ້າພະເຈົ້າສະເຫນີບັນຊີລາຍຊື່ຂອງປະຕິກິລິຍາທີ່ເອື້ອອໍານວຍຕໍ່ກັບໃບປະກາດສິດ AI:

  • ສະຫນອງການລວບລວມຫຼັກການພື້ນຖານທີ່ສໍາຄັນ
  • ເຮັດໜ້າທີ່ເປັນແຜນຜັງ ຫຼືພື້ນຖານເພື່ອສ້າງ
  • ເຮັດຫນ້າທີ່ເປັນສຽງໂທຫາການກະທໍາ
  • Spurs ມີຄວາມສົນໃຈແລະສະແດງໃຫ້ເຫັນວ່າເຫຼົ່ານີ້ແມ່ນການພິຈາລະນາຢ່າງຈິງຈັງ
  • ​ເອົາ​ການ​ສົນ​ທະ​ນາ​ທີ່​ແຕກ​ຕ່າງ​ກັນ​ຢ່າງ​ຫຼວງ​ຫຼາຍ​ເຂົ້າ​ຮ່ວມ
  • Sparks ແລະປະກອບສ່ວນເຂົ້າໃນຄວາມພະຍາຍາມການຮັບຮອງເອົາ AI ດ້ານຈັນຍາບັນ
  • ແນ່ນອນວ່າຈະເຂົ້າໄປໃນການສ້າງຕັ້ງກົດຫມາຍ AI
  • ອື່ນ ໆ

ພວກເຮົາຍັງຈໍາເປັນຕ້ອງໄດ້ພິຈາລະນາປະຕິກິລິຍາຫນ້ອຍກວ່າທີ່ເອື້ອອໍານວຍ, ໂດຍຄໍານຶງເຖິງວ່າມີວຽກງານຫຼາຍທີ່ຕ້ອງເຮັດແລະນີ້ແມ່ນພຽງແຕ່ການເລີ່ມຕົ້ນຂອງການເດີນທາງທີ່ຍາວນານໃນເສັ້ນທາງທີ່ຫຍຸ້ງຍາກໃນການຄຸ້ມຄອງ AI.

ດັ່ງນັ້ນ, ຂ້ອນຂ້າງຮຸນແຮງຫຼືພວກເຮົາຈະເວົ້າວ່າການວິພາກວິຈານທີ່ສ້າງສັນກ່ຽວກັບສິດທິຂອງ AI ປະກອບມີ:

  • ບໍ່​ມີ​ຜົນ​ບັງ​ຄັບ​ໃຊ້​ຕາມ​ກົດ​ຫມາຍ​ແລະ​ບໍ່​ມີ​ການ​ຜູກ​ມັດ​ຢ່າງ​ສົມ​ບູນ​
  • ທີ່ປຶກສາເທົ່ານັ້ນ ແລະບໍ່ໄດ້ພິຈາລະນານະໂຍບາຍຂອງລັດຖະບານ
  • ມີຄວາມສົມບູນໜ້ອຍກວ່າເມື່ອປຽບທຽບກັບວຽກງານອື່ນໆທີ່ພິມເຜີຍແຜ່
  • ຕົ້ນຕໍແມ່ນປະກອບດ້ວຍແນວຄວາມຄິດທີ່ກວ້າງຂວາງແລະຂາດລາຍລະອຽດການປະຕິບັດ
  • ຈະເປັນສິ່ງທ້າທາຍທີ່ຈະຫັນໄປສູ່ກົດຫມາຍພາກປະຕິບັດຕົວຈິງ
  • ເບິ່ງຄືວ່າມີຄວາມງຽບສະຫງົບກ່ຽວກັບບັນຫາທີ່ອາດຈະເກີດຂື້ນຂອງການຫ້າມ AI ໃນບາງສະພາບການ
  • ເກືອບຈະຮັບຮູ້ເຖິງຂໍ້ໄດ້ປຽບຂອງການໃຊ້ AI ທີ່ຖືກວາງແຜນໄວ້ເປັນຢ່າງດີ
  • ອື່ນ ໆ

ບາງທີຄໍາຄິດຄໍາເຫັນທີ່ຊັດເຈນທີ່ສຸດແມ່ນເນັ້ນໃສ່ຄວາມຈິງທີ່ວ່າກົດຫມາຍວ່າດ້ວຍສິດທິຂອງ AI ນີ້ບໍ່ມີຜົນບັງຄັບໃຊ້ຕາມກົດຫມາຍແລະດັ່ງນັ້ນຈຶ່ງບໍ່ມີນ້ໍາໃນເວລາທີ່ມັນມາກັບການສ້າງເປົ້າຫມາຍທີ່ຊັດເຈນ. ບາງ​ຄົນ​ໄດ້​ເວົ້າ​ວ່າ​ເຖິງ​ວ່າ​ເຈ້ຍ​ຂາວ​ຈະ​ເປັນ​ປະ​ໂຫຍດ​ແລະ​ໃຫ້​ກໍາ​ລັງ​ໃຈ, ມັນ​ຕັດ​ສິນ​ໃຈ​ຂາດ​ແຂ້ວ. ເຂົາ​ເຈົ້າ​ຕັ້ງ​ຄຳ​ຖາມ​ວ່າ​ອັນ​ໃດ​ທີ່​ຈະ​ເກີດ​ຂຶ້ນ​ຈາກ​ການ​ກ່າວ​ເຖິງ​ເປັນ​ແຂ້ວ​ເລື່ອຍ​ຂອງ​ກົດ​ເກນ​ອັນ​ດີ.

ຂ້າ​ພະ​ເຈົ້າ​ຈະ​ກ່າວ​ຄໍາ​ປາ​ໄສ​ທີ່​ບິດ​ເບືອນ​ເຫຼົ່າ​ນັ້ນ​ໃນ​ປັດ​ຈຸ​ບັນ​.

ໃນ​ຂະ​ນະ​ດຽວ​ກັນ​, ກະ​ສານ​ສີ​ຂາວ​ອຸ​ດົມ​ສົມ​ບູນ​ລະ​ບຸ​ຂໍ້​ຈໍາ​ກັດ​ຂອງ​ສິ່ງ​ທີ່​ບັນ​ຊີ​ລາຍ​ການ​ສິດ​ທິ AI ນີ້​ປະ​ກອບ​ມີ​:

  • “ແຜນຮ່າງຂອງກົດໝາຍວ່າດ້ວຍສິດທິ AI ແມ່ນບໍ່ມີຜົນຜູກມັດ ແລະບໍ່ໄດ້ເປັນນະໂຍບາຍຂອງລັດຖະບານສະຫະລັດ. ມັນ​ບໍ່​ໄດ້​ປ່ຽນ​ແທນ, ດັດ​ແກ້, ຫຼື​ຊີ້​ນຳ​ການ​ຕີ​ລາ​ຄາ​ຂອງ​ກົດ​ໝາຍ, ລະ​ບຽບ​ການ, ນະ​ໂຍ​ບາຍ, ຫຼື​ເຄື່ອງ​ມື​ສາ​ກົນ​ທີ່​ມີ​ຢູ່​ແລ້ວ. ມັນບໍ່ໄດ້ເປັນຄໍາແນະນໍາທີ່ຜູກມັດສໍາລັບສາທາລະນະຫຼືອົງການຂອງລັດຖະບານກາງແລະດັ່ງນັ້ນຈຶ່ງບໍ່ຈໍາເປັນຕ້ອງປະຕິບັດຕາມຫຼັກການທີ່ໄດ້ອະທິບາຍໄວ້ໃນນີ້. ນອກ​ນີ້​ຍັງ​ບໍ່​ໄດ້​ກຳນົດ​ວ່າ​ທ່າ​ທີ​ຂອງ​ລັດຖະບານ​ອາ​ເມ​ລິ​ກາ​ຈະ​ເປັນ​ແນວ​ໃດ​ໃນ​ການ​ເຈລະຈາ​ສາກົນ. ການຮັບຮອງເອົາຫຼັກການເຫຼົ່ານີ້ອາດຈະບໍ່ຕອບສະຫນອງຂໍ້ກໍານົດທີ່ມີຢູ່ແລ້ວຂອງລັດຖະບັນຍັດ, ກົດລະບຽບ, ນະໂຍບາຍ, ຫຼືເຄື່ອງມືສາກົນ, ຫຼືຂໍ້ກໍານົດຂອງອົງການຂອງລັດຖະບານກາງທີ່ບັງຄັບໃຊ້ພວກມັນ. ຫຼັກ​ການ​ເຫຼົ່າ​ນີ້​ບໍ່​ມີ​ຈຸດ​ປະ​ສົງ​ເພື່ອ, ແລະ​ບໍ່, ຫ້າມ​ຫຼື​ຈໍາ​ກັດ​ກິດ​ຈະ​ກໍາ​ທາງ​ກົດ​ຫມາຍ​ຂອງ​ອົງ​ການ​ລັດ​ຖະ​ບານ, ລວມ​ທັງ​ການ​ບັງ​ຄັບ​ໃຊ້​ກົດ​ຫມາຍ, ຄວາມ​ປອດ​ໄພ​ແຫ່ງ​ຊາດ, ຫຼື​ກິດ​ຈະ​ກໍາ​ຂ່າວ​ສານ” (ຕາມ​ຫນັງ​ສື​ພິມ​ຂາວ).

ສໍາລັບຜູ້ທີ່ໄດ້ໄວທີ່ຈະຕັດສິດທິຂອງ AI ວ່າເປັນການບໍ່ຜູກມັດທາງກົດຫມາຍ, ໃຫ້ພວກເຮົາເຮັດການທົດລອງຄວາມຄິດເລັກນ້ອຍກ່ຽວກັບຂໍ້ກ່າວຫາທີ່ໂຫດຮ້າຍນັ້ນ. ສົມມຸດວ່າເຈ້ຍສີຂາວໄດ້ຖືກປ່ອຍອອກມາແລະມີຜົນບັງຄັບໃຊ້ຂອງກົດຫມາຍຢ່າງເຕັມທີ່. ຂ້າພະ​ເຈົ້າ​ກ້າ​ເວົ້າ​ວ່າ ຜົນ​ໄດ້​ຮັບ​ຈະ​ຮ້າຍ​ແຮງ​ບາງ​ຢ່າງ, ຢ່າງ​ໜ້ອຍ​ເຖິງ​ລະດັບ​ການ​ຕອບ​ໂຕ້​ທາງ​ກົດໝາຍ ​ແລະ ສັງຄົມ​ຕໍ່​ການ​ປະກາດ.

ບັນດາສະມາຊິກສະພາຈະຢູ່ໃນອາວຸດທີ່ຄວາມພະຍາຍາມບໍ່ໄດ້ປະຕິບັດຂະບວນການມາດຕະຖານແລະຂັ້ນຕອນທາງດ້ານກົດຫມາຍໃນການປະກອບກົດຫມາຍດັ່ງກ່າວ. ທຸລະກິດຈະມີຄວາມໂກດແຄ້ນ, ຖືກຕ້ອງ, ຍ້ອນວ່າມີກົດ ໝາຍ ໃໝ່ ອອກມາໂດຍບໍ່ມີການແຈ້ງເຕືອນພຽງພໍແລະຮັບຮູ້ວ່າກົດ ໝາຍ ເຫຼົ່ານັ້ນແມ່ນຫຍັງ. ທຸກ​ວິ​ທີ​ຂອງ​ຄວາມ​ໂສກ​ເສົ້າ​ແລະ​ຄວາມ​ໂກດ​ແຄ້ນ​ຈະ​ເກີດ​ຂຶ້ນ.

ບໍ່ແມ່ນວິທີທີ່ດີທີ່ຈະເລັ່ງໃສ່ການຮັດແໜ້ນສິດທິມະນຸດໃນຍຸກ AI.

ຈື່ໄວ້ວ່າຂ້າພະເຈົ້າໄດ້ເລີ່ມຕົ້ນການສົນທະນານີ້ກ່ອນຫນ້ານີ້ໂດຍການນໍາເອົາມູນຄ່າແລະຄວາມສໍາຄັນຂອງແຜນຜັງ.

ຈິນຕະນາການວ່າມີຄົນຂ້າມຜ່ານຂັ້ນຕອນຂອງການສ້າງແຜນຜັງແລະໂດດເຂົ້າໄປໃນການສ້າງເຮືອນໃນຝັນຂອງເຈົ້າທັນທີ. ເຈົ້າຄິດວ່າເຮືອນຈະເປັນແນວໃດ? ມັນເບິ່ງຄືວ່າເປັນການເດີມພັນທີ່ຍຸດຕິທໍາທີ່ເຮືອນຈະບໍ່ກົງກັບສິ່ງທີ່ທ່ານມີຢູ່ໃນໃຈຂອງທ່ານໂດຍສະເພາະ. ຜົນໄດ້ຮັບຂອງ homestead ອາດຈະເປັນບັນຫາທີ່ສັບສົນ.

ຄວາມສໍາຄັນແມ່ນວ່າພວກເຮົາຕ້ອງການແຜນຜັງແລະປະຈຸບັນພວກເຮົາມີອັນຫນຶ່ງເພື່ອຄວາມມຸ່ງຫວັງທີ່ຈະກ້າວໄປຂ້າງຫນ້າໃນການຄົ້ນຫາກົດຫມາຍ AI ທີ່ມີການພິພາກສາແລະສ້າງຄວາມເຂັ້ມແຂງການຮັບຮອງເອົາດ້ານຈັນຍາບັນ AI.

ຂ້າພະເຈົ້າຢາກຈະແກ້ໄຂດັ່ງນັ້ນວິທີການທີ່ແຜນຮ່າງໃບບິນສິດທິຂອງ AI ນີ້ສາມາດຖືກປ່ຽນເປັນເຮືອນ, ຍ້ອນວ່າມັນເປັນ. ເຮົາຈະນຳໃຊ້ແຜນຜັງແນວໃດ? ຂັ້ນຕອນຕໍ່ໄປທີ່ເຫມາະສົມແມ່ນຫຍັງ? ແຜນຜັງນີ້ສາມາດພຽງພໍ, ຫຼືມັນຕ້ອງການຊີ້ນຫຼາຍກ່ຽວກັບກະດູກ?

ກ່ອນທີ່ພວກເຮົາຈະກະໂດດເຂົ້າໄປໃນເລື່ອງທີ່ຫນັກແຫນ້ນນັ້ນ, ຂ້າພະເຈົ້າຕ້ອງການທໍາອິດໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ແລະສະຖານະພາບຂອງມື້ນີ້.

ກໍານົດບັນທຶກຊື່ກ່ຽວກັບ AI ໃນມື້ນີ້

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄໍາຖະແຫຼງທີ່ເນັ້ນຫນັກທີ່ສຸດ.

ເຈົ້າ​ພ້ອມ​ແລ້ວ​ບໍ?

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ.

ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າພວກເຮົາຕ້ອງການຄາດເດົາຢ່າງຈິງຈັງກ່ຽວກັບ AI ທີ່ມີຄວາມຮູ້ສຶກ, ການສົນທະນານີ້ອາດຈະໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນມັນສະ ໝອງ ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ເນື່ອງຈາກບາງການຄາດເດົາວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດລົງໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂ້ອຍຂໍແນະ ນຳ ຢ່າງແຂງແຮງວ່າພວກເຮົາເກັບສິ່ງຂອງລົງມາສູ່ໂລກແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄອມພິວເຕີ້ໃນມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ຈົ່ງລະມັດລະວັງຫຼາຍຕໍ່ການເປັນມະນຸດຂອງ AI ໃນມື້ນີ້.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຕົວແບບທີ່ກົງກັບຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ທັງຫມົດນີ້ມີຜົນກະທົບດ້ານຈັນຍາບັນຂອງ AI ທີ່ສໍາຄັນແລະສະເຫນີປ່ອງຢ້ຽມທີ່ເປັນປະໂຫຍດເຂົ້າໄປໃນບົດຮຽນທີ່ຖອດຖອນໄດ້ (ເຖິງແມ່ນວ່າກ່ອນທີ່ບົດຮຽນທັງຫມົດຈະເກີດຂື້ນ) ເມື່ອເວົ້າເຖິງການພະຍາຍາມສ້າງນິຕິກໍາ AI.

ນອກເຫນືອຈາກການໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ໂດຍທົ່ວໄປແລ້ວ, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອຄວບຄຸມການນໍາໃຊ້ຕ່າງໆຂອງ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມ​ພະ​ຍາ​ຍາມ​ເພື່ອ​ຮ່າງ​ກົດ​ໝາຍ​ດັ່ງ​ກ່າວ​ແມ່ນ​ເປັນ​ໄປ​ເທື່ອ​ລະ​ກ້າວ. ຈັນຍາບັນ AI ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.

ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ພວກ​ເຂົາ​ເຈົ້າ​ໄດ້​ເຕືອນ​ລ່ວງ​ໜ້າ​ວ່າ ຖ້າ​ຫາກ​ພວກ​ເຮົາ​ອອກ​ກົດ​ໝາຍ AI ບາງ​ຂໍ້​ນີ້, ພວກ​ເຮົາ​ຈະ​ຂ້າ​ໝີ​ທອງ​ໂດຍ​ການ​ຍຶດ​ໝັ້ນ​ຄວາມ​ກ້າວ​ໜ້າ​ຂອງ AI ທີ່​ໃຫ້​ຄວາມ​ໄດ້​ປຽບ​ທາງ​ສັງ​ຄົມ​ອັນ​ໃຫຍ່​ຫລວງ.

ໃນຄໍລໍາທີ່ຜ່ານມາ, ຂ້າພະເຈົ້າໄດ້ກວມເອົາຄວາມພະຍາຍາມລະດັບຊາດແລະສາກົນຕ່າງໆເພື່ອຫັດຖະກໍາແລະອອກກົດຫມາຍຄວບຄຸມ AI, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກ​ຕົວ​ຢ່າງ. ຂ້າພະເຈົ້າຍັງໄດ້ກວມເອົາຫຼັກການດ້ານຈັນຍາບັນ AI ຕ່າງໆແລະຄໍາແນະນໍາທີ່ປະເທດຕ່າງໆໄດ້ກໍານົດແລະຮັບຮອງເອົາ, ລວມທັງຄວາມພະຍາຍາມຂອງສະຫະປະຊາຊາດເຊັ່ນ: UNESCO ກໍານົດຈັນຍາບັນ AI ທີ່ເກືອບ 200 ປະເທດໄດ້ຮັບຮອງເອົາ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ນີ້ແມ່ນລາຍການຫຼັກທີ່ເປັນປະໂຫຍດຂອງມາດຖານ AI ດ້ານຈັນຍາບັນ ຫຼືຄຸນລັກສະນະກ່ຽວກັບລະບົບ AI ທີ່ຂ້າພະເຈົ້າໄດ້ຄົ້ນຫາຢ່າງໃກ້ຊິດກ່ອນຫນ້ານີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ເຫຼົ່ານັ້ນແມ່ນຄວນຈະຖືກນໍາໃຊ້ຢ່າງຈິງຈັງໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI.

ພາກສ່ວນກ່ຽວຂ້ອງທັງຫມົດຕະຫຼອດວົງຈອນຊີວິດຂອງ AI ທັງຫມົດຂອງການພັດທະນາແລະການນໍາໃຊ້ແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ຖືກສ້າງຕັ້ງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ເນັ້ນໜັກໄວ້ກ່ອນນີ້, ມັນຕ້ອງໃຊ້ເວລາບ້ານໜຶ່ງເພື່ອວາງແຜນ ແລະ ປະຕິບັດວຽກງານ AI, ແລະ ເພື່ອໃຫ້ໝູ່ບ້ານທັງໝົດຕ້ອງຮັບຮູ້ ແລະ ປະຕິບັດຕາມຫຼັກຈັນຍາບັນຂອງ AI.

ຕອນນີ້ຂ້ອຍໄດ້ວາງພື້ນຖານທີ່ເປັນປະໂຫຍດແລ້ວ, ພວກເຮົາພ້ອມທີ່ຈະລົງເລິກເຂົ້າໄປໃນ AI Bill of Rights ຕື່ມອີກ.

ສີ່ວິທີທີ່ສໍາຄັນເພື່ອປະຕິບັດບັນຊີລາຍການ AI ຂອງສິດທິ

ມີຄົນຍື່ນແຜນຜັງໃຫ້ທ່ານ ແລະບອກໃຫ້ເຈົ້າໄປເຮັດວຽກ.

ທ່ານເຮັດແນວໃດ?

ໃນ​ກໍ​ລະ​ນີ​ຂອງ​ບັນ​ຊີ​ລາຍ​ການ​ສິດ​ທິ AI ເປັນ​ແຜນ​ຮ່າງ​, ພິ​ຈາ​ລະ​ນາ​ສີ່​ຂັ້ນ​ຕອນ​ທີ່​ສໍາ​ຄັນ​ໃນ​ການ​ກ້າວ​ໄປ​ຂ້າງ​ຫນ້າ​:

  • ຮັບໃຊ້ເປັນການປ້ອນຂໍ້ມູນໃນການສ້າງກົດໝາຍ AI: ໃຊ້ແຜນຜັງເພື່ອຊ່ວຍໃນການສ້າງກົດຫມາຍ AI, ຫວັງວ່າຈະອີງໃສ່ການສອດຄ່ອງໃນລະດັບລັດຖະບານກາງ, ລັດ, ແລະທ້ອງຖິ່ນ (ບາງທີອາດຊ່ວຍຄວາມພະຍາຍາມທາງດ້ານກົດຫມາຍ AI ສາກົນເຊັ່ນກັນ).
  • ການຊ່ວຍເຫຼືອໃນການໄດ້ຮັບການຮັບຮອງເອົາຈັນຍາບັນ AI ຢ່າງກວ້າງຂວາງຫຼາຍ: ໃຊ້ແຜນຜັງເພື່ອສົ່ງເສີມການສ້າງຈັນຍາບັນຂອງ AI (ບາງເທື່ອເອີ້ນວ່າ “ກົດໝາຍອ່ອນ” ເມື່ອສົມທຽບກັບ “ກົດໝາຍແຂງ” ທີ່ຜູກມັດທາງກົດໝາຍ), ການເຮັດແນວນັ້ນເພື່ອສ້າງແຮງບັນດານໃຈ ແລະ ແນະນຳທຸລະກິດ, ບຸກຄົນ, ໜ່ວຍງານລັດຖະບານ ແລະ ເຂດເລືອກຕັ້ງອື່ນໆໄປສູ່ຈັນຍາບັນທີ່ດີຂຶ້ນ ແລະ ສອດຄ່ອງກວ່າ. ຜົນໄດ້ຮັບຂອງ AI.
  • ກິດ​ຈະ​ກໍາ​ການ​ພັດ​ທະ​ນາ​ຮູບ​ຮ່າງ AI​: ໃຊ້ແຜນຜັງເພື່ອກະຕຸ້ນການສ້າງວິທີການພັດທະນາ AI ແລະລັກສະນະການຝຶກອົບຮົມ, ການເຮັດແນວນັ້ນເພື່ອພະຍາຍາມເຮັດໃຫ້ຜູ້ພັດທະນາ AI ແລະຜູ້ທີ່ເຮັດວຽກຫຼືຈ້າງ AI ມີຄວາມຮູ້ກ່ຽວກັບວິທີການສ້າງ AI ໄປຕາມເສັ້ນທາງຂອງຈັນຍາບັນຂອງ AI ທີ່ຕ້ອງການແລະໃນຄວາມຄາດຫວັງ. ກົດໝາຍ AI ທີ່ກຳລັງຈະປະກາດໃຊ້.
  • ກະຕຸ້ນການມາເຖິງຂອງ AI ເພື່ອຊ່ວຍໃນການຄວບຄຸມ AI: ໃຊ້ແຜນຜັງເພື່ອວາງແຜນ AI ທີ່ຈະໃຊ້ເພື່ອທົດລອງໃຊ້ ແລະເປັນການກວດສອບການດຸ່ນດ່ຽງຕໍ່ກັບ AI ອື່ນໆທີ່ອາດຈະເຂົ້າມາໃນອານາເຂດທີ່ບໍ່ເຂົ້າໃຈ. ນີ້ແມ່ນໜຶ່ງໃນມຸມເບິ່ງ macroscopic ເຫຼົ່ານັ້ນ ເຊິ່ງພວກເຮົາສາມາດໃຊ້ສິ່ງທີ່ພວກເຮົາເຫັນວ່າເປັນຕາເປັນຫ່ວງເປັນຢ່າງຍິ່ງ (ອາດເວົ້າໄດ້ວ່າ) ຊ່ວຍເຫຼືອໃນການປົກປ້ອງພວກເຮົາ.

ຂ້າພະເຈົ້າໄດ້ສົນທະນາແຕ່ລະສີ່ຂັ້ນຕອນຂ້າງເທິງນີ້ຕະຫຼອດການປະກາດຖັນຂອງຂ້ອຍ.

ສໍາລັບການສົນທະນານີ້, ຂ້າພະເຈົ້າຢາກເນັ້ນໃສ່ຂັ້ນຕອນທີສີ່, ຄືວ່າ AI Bill of Rights ສາມາດເປັນຕົວກະຕຸ້ນໄປສູ່ການມາເຖິງຂອງ AI ເພື່ອຊ່ວຍໃນການຄວບຄຸມ AI. ນີ້ແມ່ນບາດກ້າວທີ່ໜ້າຕົກໃຈ ຫຼື ແປກປະຫຼາດສຳລັບຫຼາຍໆຄົນທີ່ຍັງບໍ່ທັນໄດ້ເຂົ້າສູ່ໂລກທີ່ກ້າວໜ້າ AI ນີ້.

ອະນຸຍາດໃຫ້ຂ້ອຍອະທິບາຍຢ່າງລະອຽດ.

ການປຽບທຽບທີ່ງ່າຍດາຍຄວນເຮັດ trick ໄດ້. ພວກ​ເຮົາ​ທຸກ​ຄົນ​ທຸກ​ມື້​ນີ້​ມັກ​ລະ​ເມີດ​ຄວາມ​ປອດ​ໄພ​ທາງ​ອິນ​ເຕີ​ເນັດ​ແລະ​ການ​ບຸກ​ໂຈມ​ຕີ​ຂອງ​ແຮກ​ເກີ. ເກືອບທຸກໆມື້ທີ່ພວກເຮົາໄດ້ຍິນກ່ຽວກັບຫຼືໄດ້ຮັບຜົນກະທົບຈາກຊ່ອງຫວ່າງຫລ້າສຸດໃນຄອມພິວເຕີຂອງພວກເຮົາທີ່ຈະອະນຸຍາດໃຫ້ຜູ້ຊົ່ວຮ້າຍທີ່ຊົ່ວຮ້າຍສາມາດລັກເອົາຂໍ້ມູນຂອງພວກເຮົາຫຼືວາງຊິ້ນສ່ວນຂອງ ransomware ທີ່ບໍ່ດີຢູ່ໃນຄອມພິວເຕີ້ຂອງພວກເຮົາ.

ຫນຶ່ງໃນວິທີການຕໍ່ສູ້ກັບຄວາມພະຍາຍາມທີ່ຫນ້າກຽດຊັງເຫຼົ່ານັ້ນປະກອບດ້ວຍການນໍາໃຊ້ຊອບແວພິເສດທີ່ພະຍາຍາມປ້ອງກັນການແຕກແຍກເຫຼົ່ານັ້ນ. ທ່ານເກືອບແນ່ນອນມີຊຸດຊອບແວຕ້ານເຊື້ອໄວຣັສຢູ່ໃນຄອມພິວເຕີຂອງທ່ານຢູ່ເຮືອນຫຼືບ່ອນເຮັດວຽກ. ມັນອາດຈະມີບາງສິ່ງບາງຢ່າງທີ່ຄ້າຍຄືກັນຢູ່ໃນໂທລະສັບສະຫຼາດຂອງທ່ານ, ບໍ່ວ່າທ່ານຮູ້ວ່າມັນຢູ່ໃນນັ້ນຫຼືບໍ່.

ຈຸດຂອງຂ້ອຍແມ່ນວ່າບາງຄັ້ງເຈົ້າຕ້ອງຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍກ່ຽວກັບເລື່ອງນີ້, ເຊັ່ນ: ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນກໍລະນີຂອງ AI ທີ່ເຂົ້າໄປໃນພື້ນທີ່ verboten ຂອງ AI ສໍາລັບບໍ່ດີ, ພວກເຮົາສາມາດຊອກຫາການນໍາໃຊ້ AI ສໍາລັບທີ່ດີ ທີ່ຂັດແຍ້ງກັບສິ່ງທີ່ເປັນອັນຕະລາຍນັ້ນ AI ສໍາລັບບໍ່ດີ. ນີ້ແນ່ນອນບໍ່ແມ່ນການປິ່ນປົວມະຫັດສະຈັນ. ດັ່ງທີ່ເຈົ້າຮູ້, ມີການຫຼອກລວງຂອງແມວ ແລະ ໜູ ຢ່າງຕໍ່ເນື່ອງລະຫວ່າງຜູ້ກະທຳຊົ່ວທີ່ພະຍາຍາມບຸກເຂົ້າຄອມພິວເຕີຂອງພວກເຮົາ ແລະ ມີຄວາມກ້າວໜ້າໃນການປົກປ້ອງຄວາມປອດໄພທາງອິນເຕີເນັດ. ມັນເປັນເກມເກືອບບໍ່ມີທີ່ສິ້ນສຸດ.

ພວກເຮົາສາມາດໃຊ້ AI ເພື່ອພະຍາຍາມແລະຈັດການກັບ AI ທີ່ໄດ້ເຂົ້າໄປໃນເສັ້ນທາງທີ່ຕ້ອງຫ້າມ. ການເຮັດດັ່ງນັ້ນຈະຊ່ວຍໄດ້. ມັນຈະບໍ່ໂດຍສະເພາະແມ່ນລູກປືນເງິນເພາະວ່າ AI ທີ່ບໍ່ດີທີ່ຖືກເປົ້າຫມາຍເກືອບແນ່ນອນຈະຖືກວາງແຜນເພື່ອຫຼີກເວັ້ນການປົກປ້ອງດັ່ງກ່າວ. ນີ້ຈະເປັນ cat-and-mouse ຢ່າງຕໍ່ເນື່ອງຂອງ AI ທຽບກັບ AI.

ໃນກໍລະນີໃດກໍ່ຕາມ, AI ທີ່ພວກເຮົາໃຊ້ເພື່ອປົກປ້ອງຕົວເຮົາເອງຈະສະຫນອງການປົກປ້ອງ AI ທີ່ບໍ່ດີ. ດັ່ງນັ້ນ, ພວກເຮົາ ຈຳ ເປັນຕ້ອງສ້າງ AI ທີ່ສາມາດປົກປ້ອງຫຼືປົກປ້ອງພວກເຮົາຢ່າງບໍ່ຢຸດຢັ້ງ. ແລະພວກເຮົາຄວນຊອກຫາວິທີການສ້າງ AI ປ້ອງກັນເພື່ອປັບຕົວຕາມ AI ທີ່ບໍ່ດີປັບ. ຈະມີລັກສະນະທີ່ໂຫດຮ້າຍຂອງແມວແລະຫນູທີ່ມີຄວາມໄວຟ້າຜ່າ.

ບໍ່ແມ່ນທຸກຄົນພໍໃຈກັບການຂະຫຍາຍບົດບາດຂອງ AI ນີ້.

ຜູ້ທີ່ຮັບຮູ້ AI ວ່າເປັນການລວມຕົວຂອງ amorphous ທີ່ເປັນເອກະພາບແລ້ວ, ຈະໄດ້ຮັບຄວາມວຸ້ນວາຍແລະຝັນຮ້າຍຢູ່ທີ່ AI-versus-AI gambit ທີ່ປອມແປງນີ້. ຖ້າ​ຫາກ​ວ່າ​ພວກ​ເຮົາ​ພະ​ຍາ​ຍາມ​ທີ່​ຈະ​ເຜົາ​ໄຫມ້​ໄຟ​, ບາງ​ທີ​ພວກ​ເຮົາ​ພຽງ​ແຕ່​ເຮັດ​ໃຫ້​ໄຟ​ທີ່​ໃຫຍ່​ກວ່າ​ນັ້ນ​. AI ຈະ​ກາຍ​ເປັນ​ໄຟ​ອັນ​ໃຫຍ່​ຫລວງ, ອັນ​ທີ່​ພວກ​ເຮົາ​ບໍ່​ຄວບ​ຄຸມ​ໄດ້​ອີກ​ຕໍ່​ໄປ ແລະ​ຈະ​ເລືອກ​ທີ່​ຈະ​ເປັນ​ທາດ​ຂອງ​ມະ​ນຸດ​ຫຼື​ລົບ​ລ້າງ​ພວກ​ເຮົາ​ຈາກ​ໂລກ. ເມື່ອເວົ້າເຖິງ AI ເປັນຄວາມສ່ຽງທີ່ມີຢູ່ແລ້ວ, ພວກເຮົາມັກຈະເຊື່ອວ່າ AI ທັງຫມົດຈະຮ່ວມກັນ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍກ່ຽວກັບບັນຫາເຫຼົ່ານີ້ຢູ່ທີ່. ການເຊື່ອມຕໍ່ທີ່ນີ້. ເຈົ້າເຫັນ, ພວກເຮົາໄດ້ຖືກບອກວ່າທຸກຊິ້ນສ່ວນຂອງ AI ຈະຍຶດເອົາ AI ອ້າຍນ້ອງຂອງຕົນແລະກາຍເປັນຄອບຄົວດຽວທີ່ມີການປົກຄອງໃຫຍ່.

ນັ້ນແມ່ນສະຖານະການທີ່ໜ້າຢ້ານ ແລະ ຄວາມບໍ່ສະຫງົບຂອງ AI ທີ່ເປັນມາເຟຍທັງໝົດແບບບໍ່ຕິດຂັດ ແລະ ເປັນມາເຟຍທັງໝົດ.

ເຖິງແມ່ນວ່າທ່ານຍິນດີຕ້ອນຮັບຢ່າງເສລີໃນການຄາດເດົາກ່ຽວກັບວ່ານີ້ອາດຈະເກີດຂື້ນໃນມື້ຫນຶ່ງ, ຂ້າພະເຈົ້າຮັບປະກັນທ່ານວ່າໃນປັດຈຸບັນ, AI ທີ່ພວກເຮົາມີໃນມື້ນີ້ປະກອບດ້ວຍລົດບັນທຸກຂອງໂປລແກລມ AI ທີ່ແຕກແຍກກັນທີ່ບໍ່ມີວິທີສະເພາະທີ່ຈະສົມຮູ້ຮ່ວມຄິດກັບກັນແລະກັນ.

ໂດຍເວົ້າແນວນັ້ນ, ຂ້ອຍແນ່ໃຈວ່າຜູ້ທີ່ເຊື່ອຢ່າງຈິງຈັງໃນທິດສະດີການສົມຮູ້ຮ່ວມຄິດຂອງ AI ຈະຮຽກຮ້ອງໃຫ້ຂ້ອຍເວົ້າເລື່ອງນີ້ຢ່າງຕັ້ງໃຈເພື່ອປິດບັງຄວາມຈິງ. ອ້າວ! ບາງທີຂ້ອຍອາດຈະໄດ້ຮັບຄ່າຈ້າງໂດຍ AI ໃນມື້ນີ້ທີ່ກໍາລັງວາງແຜນການຄອບຄອງ AI ທີ່ຍິ່ງໃຫຍ່ (ແມ່ນແລ້ວ, ຂ້ອຍຈະໄດ້ຮັບການອາບນ້ໍາໃນຄວາມຮັ່ງມີເມື່ອກົດລະບຽບຂອງ AI overlords). ຫຼື, ແລະແນ່ນອນວ່າຂ້າພະເຈົ້າບໍ່ມັກມຸມອື່ນນີ້, ບາງທີຂ້າພະເຈົ້າຕາບອດບໍ່ຮູ້ວ່າ AI ກໍາລັງວາງແຜນຢ່າງລັບໆຢູ່ເບື້ອງຫຼັງຂອງພວກເຮົາແນວໃດ. ຂ້ອຍຄິດວ່າພວກເຮົາຈະຕ້ອງລໍຖ້າເບິ່ງວ່າຂ້ອຍເປັນສ່ວນຫນຶ່ງຂອງການກໍ່ລັດຖະປະຫານ AI ຫຼື AI abject patsy (ouch, ເຈັບ).

ກັບຄືນສູ່ການພິຈາລະນາທາງໂລກ, ຂໍໃຫ້ພິຈາລະນາສັ້ນໆວ່າ AI ຍຸກປະຈຸບັນສາມາດຖືກນໍາໃຊ້ເພື່ອຊ່ວຍການປະຕິບັດບັນຊີລາຍການສິດທິຂອງ AI. ຂ້າພະເຈົ້າຈະສະດວກແລະສະຫຼຸບໂດຍຫຍໍ້ກ່ຽວກັບເລື່ອງນີ້ AI ທີ່ດີ.

ພວກເຮົາຈະນໍາໃຊ້ຫ້າແກນຫຼັກທີ່ປະກອບຢູ່ໃນ AI Bill of Rights:

  • AI ທີ່ດີສໍາລັບການສົ່ງເສີມ ລະບົບທີ່ປອດໄພ ແລະ ມີປະສິດທິພາບ: ເມື່ອໃດກໍ່ຕາມທີ່ທ່ານຂຶ້ນກັບຫຼືໃຊ້ລະບົບ AI, AI ທີ່ດີພະຍາຍາມຊອກຫາວ່າ AI ທີ່ຖືກ ນຳ ໃຊ້ແມ່ນບໍ່ປອດໄພຫຼືບໍ່ມີປະສິດຕິຜົນ. ເມື່ອກວດພົບດັ່ງກ່າວ, AI ທີ່ດີອາດຈະແຈ້ງເຕືອນທ່ານຫຼືດໍາເນີນການອື່ນໆລວມທັງການສະກັດ AI ທີ່ບໍ່ດີ.
  • AI ທີ່ດີສໍາລັບການສະຫນອງ ການປົກປ້ອງການຈໍາແນກແບບວິທີ: ໃນຂະນະທີ່ນໍາໃຊ້ລະບົບ AI ທີ່ອາດຈະປະກອບດ້ວຍລະບົບຈໍາແນກຈໍາແນກ, ໄດ້ AI ທີ່ດີ ຄວາມພະຍາຍາມທີ່ຈະກວດສອບວ່າມີການປົກປ້ອງທີ່ບໍ່ພຽງພໍສໍາລັບທ່ານແລະຊອກຫາການກໍານົດວ່າຄວາມລໍາອຽງທີ່ບໍ່ສົມຄວນມີຢູ່ໃນ AI ທີ່ໃຊ້. AI ທີ່ດີສາມາດແຈ້ງໃຫ້ທ່ານຮູ້ແລະອາດຈະລາຍງານ AI ອື່ນໆໂດຍອັດຕະໂນມັດກັບເຈົ້າຫນ້າທີ່ຕ່າງໆຕາມທີ່ອາດຈະຖືກກໍານົດໄວ້ໃນກົດຫມາຍ AI ແລະຂໍ້ກໍານົດທາງດ້ານກົດຫມາຍ.
  • AI ທີ່ດີສໍາລັບການຮັກສາ ຄວາມເປັນສ່ວນຕົວຂໍ້ມູນ: ປະເພດຂອງ AI ທີ່ດີນີ້ພະຍາຍາມປົກປ້ອງທ່ານຈາກການບຸກລຸກຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ. ເມື່ອ AI ອື່ນກໍາລັງຊອກຫາການຮ້ອງຂໍຂໍ້ມູນທີ່ບາງທີບໍ່ຈໍາເປັນແທ້ໆຈາກທ່ານ, AI ທີ່ດີຈະເຮັດໃຫ້ເຈົ້າຮູ້ເຖິງການກະທໍາທີ່ເກີນຂອບເຂດ. AI ທີ່ດີຍັງສາມາດປິດບັງຂໍ້ມູນຂອງທ່ານໃນລັກສະນະທີ່ຈະຖືກປ້ອນໃຫ້ AI ອື່ນໆຍັງຮັກສາສິດທິຄວາມເປັນສ່ວນຕົວຂໍ້ມູນຂອງທ່ານ. ເປັນຕົ້ນ.
  • AI ທີ່ດີສໍາລັບການສ້າງຕັ້ງ ແຈ້ງການ ແລະຄໍາອະທິບາຍ: ພວກເຮົາທຸກຄົນມີແນວໂນ້ມທີ່ຈະພົບກັບລະບົບ AI ທີ່ຂາດແຄນການໃຫ້ການແຈ້ງເຕືອນທີ່ເໝາະສົມ ແລະ ເໝາະສົມ ແລະເປັນສິ່ງທີ່ໜ້າເສົ້າທີ່ບໍ່ສາມາດສະແດງຄຳອະທິບາຍທີ່ພຽງພໍສຳລັບການກະທຳຂອງເຂົາເຈົ້າ. AI ທີ່ດີສາມາດພະຍາຍາມຕີຄວາມ ໝາຍ ຫຼືສອບສວນ AI ອື່ນ, ເຮັດແນວນັ້ນເພື່ອສາມາດລະບຸການແຈ້ງເຕືອນແລະຄໍາອະທິບາຍທີ່ຄວນຈະໄດ້ຮັບການສະຫນອງໃຫ້. ເຖິງແມ່ນວ່າມັນເປັນໄປບໍ່ໄດ້ທີ່ຈະເຮັດໃນຕົວຢ່າງໃດກໍ່ຕາມ, ຢ່າງຫນ້ອຍ AI ທີ່ດີຈະເຕືອນທ່ານກ່ຽວກັບຄວາມລົ້ມເຫຼວຂອງ AI ອື່ນໆ, ແລະອາດຈະລາຍງານ AI ກັບເຈົ້າຫນ້າທີ່ທີ່ຖືກກໍານົດໂດຍອີງໃສ່ກົດຫມາຍ AI ແລະຂໍ້ກໍານົດທາງດ້ານກົດຫມາຍ.
  • AI ທີ່ດີສໍາລັບການສະເຫນີ ທາງເລືອກຂອງມະນຸດ, ພິຈາລະນາ, ແລະປະຕິເສດ: ສົມມຸດວ່າທ່ານກໍາລັງໃຊ້ລະບົບ AI ແລະ AI ເບິ່ງຄືວ່າບໍ່ຂຶ້ນກັບວຽກງານທີ່ມີຢູ່ໃນມື. ເຈົ້າອາດບໍ່ຮູ້ຕົວວ່າສິ່ງຕ່າງໆກຳລັງຈະສົ້ມ, ຫຼື ເຈົ້າອາດຈະລະວັງ ແລະ ບໍ່ແນ່ໃຈວ່າຈະເຮັດແນວໃດກ່ຽວກັບສະຖານະການ. ໃນກໍລະນີດັ່ງກ່າວ, Good AI ຈະກວດສອບຢ່າງງຽບໆວ່າ AI ອື່ນໆກໍາລັງເຮັດຫຍັງແລະສາມາດເຕືອນທ່ານກ່ຽວກັບຄວາມກັງວົນທີ່ສໍາຄັນກ່ຽວກັບ AI ນັ້ນ. ຫຼັງຈາກນັ້ນ, ເຈົ້າຈະຖືກກະຕຸ້ນໃຫ້ຮ້ອງຂໍທາງເລືອກຂອງມະນຸດກັບ AI (ຫຼື AI ທີ່ດີສາມາດເຮັດແນວນັ້ນແທນເຈົ້າ).

ເພື່ອເຂົ້າໃຈຕື່ມອີກວ່າປະເພດນີ້ແນວໃດ AI ທີ່ດີ ສາມາດໄດ້ຮັບການພັດທະນາແລະພາກສະຫນາມ, ເບິ່ງປື້ມ AI ທີ່ນິຍົມແລະຈັດອັນດັບສູງຂອງຂ້ອຍ (ເປັນກຽດທີ່ເວົ້າວ່າມັນໄດ້ຖືກບັນທຶກໄວ້ວ່າເປັນ "Top Ten") ກ່ຽວກັບສິ່ງທີ່ຂ້ອຍໄດ້ກ່າວເຖິງໂດຍທົ່ວໄປວ່າເປັນເທວະດາຜູ້ປົກຄອງ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ສະຫຼຸບ

ຂ້ອຍຮູ້ວ່າເຈົ້າກຳລັງຄິດຫຍັງ. ຖ້າພວກເຮົາມີ AI ທີ່ດີທີ່ຕັ້ງໄວ້ເພື່ອປົກປ້ອງພວກເຮົາ, ສົມມຸດວ່າ AI ທີ່ດີຖືກທໍາລາຍກາຍເປັນ Bad AI. ປະໂຫຍກພາສາລາຕິນທີ່ມີຊື່ສຽງ ຫຼືບໍ່ມີຊື່ສຽງເບິ່ງຄືວ່າກ່ຽວຂ້ອງກັບຄວາມເປັນໄປໄດ້ນີ້: ການດູແລຮັກສາແມ່ນບໍ່?

ປະໂຫຍກນີ້ແມ່ນມາຈາກນັກກະວີ Roman Juvenal ແລະສາມາດພົບໄດ້ໃນວຽກງານຂອງລາວທີ່ມີຊື່ວ່າ ອີ່ມຕົວ, ແລະ​ສາ​ມາດ​ແປ​ໄດ້​ວ່າງ​ເປັນ​ຄວາມ​ຫມາຍ​ຜູ້​ທີ່​ຈະ​ປົກ​ຄອງ​ຫຼື​ເບິ່ງ​ກອງ​ດ້ວຍ​ຕົນ​ເອງ​. ຮູບເງົາແລະລາຍການໂທລະພາບຈໍານວນຫຼາຍເຊັ່ນ: Star Trek ໄດ້ນຳໃຊ້ເສັ້ນນີ້ຊ້ຳແລ້ວຊ້ຳອີກ.

ນັ້ນແນ່ນອນເພາະວ່າມັນເປັນຈຸດທີ່ດີເລີດ.

ແນ່ນອນວ່າ, ກົດຫມາຍ AI ໃດໆທີ່ຖືກປະກາດໃຊ້ຈະຕ້ອງກວມເອົາທັງ AI ທີ່ບໍ່ດີແລະແມ້ກະທັ້ງ AI ທີ່ດີທີ່ຈະບໍ່ດີ. ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າມັນຈະເປັນການສໍາຄັນທີ່ຈະຂຽນກົດຫມາຍ AI ທີ່ສົມເຫດສົມຜົນແລະຄົບຖ້ວນ. ບັນດານັກກົດໝາຍທີ່ພະຍາຍາມຖິ້ມນັກກົດໝາຍແບບສຸ່ມໃສ່ຝາ ແລະຫວັງວ່າມັນຍຶດໝັ້ນກັບກົດໝາຍ AI ຈະພົບວ່າຕົນເອງຂາດເປົ້າໝາຍຢ່າງເລິກເຊິ່ງ.

ພວກເຮົາບໍ່ຕ້ອງການນັ້ນ.

ພວກ​ເຮົາ​ບໍ່​ມີ​ເວລາ​ຫຼື​ບໍ່​ສາມາດ​ແບກ​ຫາບ​ຄ່າ​ໃຊ້​ຈ່າຍ​ຂອງ​ສັງຄົມ​ເພື່ອ​ຮັບ​ມື​ກັບ​ກົດໝາຍ AI ທີ່​ວາງ​ໄວ້​ບໍ່​ພຽງພໍ. ຂ້ອຍໄດ້ຊີ້ໃຫ້ເຫັນວ່າເປັນຕາເສຍໃຈໃນບາງຄັ້ງທີ່ພວກເຮົາກໍາລັງເຫັນກົດຫມາຍທີ່ກ່ຽວຂ້ອງກັບ AI ໃຫມ່ທີ່ປະກອບດ້ວຍບໍ່ດີແລະເຕັມໄປດ້ວຍພະຍາດທາງດ້ານກົດຫມາຍທຸກປະເພດ, ເບິ່ງຕົວຢ່າງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບກົດຫມາຍການກວດສອບ AI Biases ຂອງນະຄອນນິວຢອກ (NYC) ຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົານໍາໃຊ້ແຜນຮ່າງຂອງ AI Bill of Rights ທີ່ພວກເຮົາມີຢູ່ໃນມືໃນປັດຈຸບັນກ່ຽວກັບ AI ຢ່າງເຫມາະສົມ. ຖ້າ​ຫາກ​ວ່າ​ພວກ​ເຮົາ​ບໍ່​ສົນ​ໃຈ​ແຜນ​ການ​, ພວກ​ເຮົາ​ໄດ້​ສູນ​ເສຍ​ການ​ທີ່​ໄດ້​ກ້າວ​ຂຶ້ນ​ເກມ​ຂອງ​ພວກ​ເຮົາ​. ຖ້າ​ຫາກ​ວ່າ​ພວກ​ເຮົາ​ປະ​ຕິ​ບັດ​ແຜນ​ຮ່າງ​ທີ່​ຜິດ​ພາດ​, ຄວາມ​ອັບ​ອາຍ​ກ່ຽວ​ກັບ​ພວກ​ເຮົາ​ສໍາ​ລັບ​ການ usurped ພື້ນ​ຖານ​ທີ່​ເປັນ​ປະ​ໂຫຍດ​.

ນັກກະວີຊາວໂຣມັນທີ່ນັບຖື Juvenal ເວົ້າອີກຢ່າງ ໜຶ່ງ ທີ່ພວກເຮົາສາມາດ ນຳ ໃຊ້ໃນສະຖານະການນີ້: Anima sana ໃນ corpore sano.

ໂດຍ​ທົ່ວ​ໄປ, ນີ້​ແປ​ວ່າ​ການ​ຢືນ​ຢັນ​ວ່າ​ມັນ​ຈະ​ເປັນ​ການ​ສຸ​ຂະ​ພາບ​ທີ່​ມີ​ທັງ​ຈິດ​ໃຈ​ທີ່​ມີ​ສຸ​ຂະ​ພາບ​ແລະ​ສຸ​ພາບ​ຫຼື​ຮ່າງ​ກາຍ​ທີ່​ມີ​ສຸ​ຂະ​ພາບ. ນີ້ອະນຸຍາດໃຫ້ພວກເຮົາທົນທຸກປະເພດຂອງການຍາກລໍາບາກ, ອີງຕາມການ Juvenal, ແລະແນ່ນອນວ່າຈະເປັນເສັ້ນທາງດຽວກັບຊີວິດຂອງສັນຕິພາບຫຼືຄຸນງາມຄວາມດີ.

ເວລາທີ່ພວກເຮົາຕ້ອງໃຊ້ຈິດໃຈທີ່ດີແລະຮ່າງກາຍທີ່ດີເພື່ອໃຫ້ແນ່ໃຈວ່າພວກເຮົາຮັບປະກັນວ່າມະນຸດຈະມີສິດທິມະນຸດຂອງພວກເຮົາຖືກຮັກສາໄວ້ແລະເຂັ້ມແຂງຢ່າງຫນັກແຫນ້ນໃນໂລກທີ່ພົ້ນເດັ່ນຂື້ນທີ່ເກີດຂື້ນຢູ່ທົ່ວທຸກແຫ່ງແລະບາງຄັ້ງກໍ່ບໍ່ຂຶ້ນກັບ AI. ນັ້ນແມ່ນ ຄຳ ແນະ ນຳ ທີ່ດີຈາກຊາວໂຣມັນທີ່ພວກເຮົາຄວນຍຶດ ໝັ້ນ ໃນຄວາມຮີບດ່ວນຂອງມື້ນີ້ທ່າມກາງຍຸກ AI pell-mell ແລະອະນາຄົດທີ່ເຕັມໄປດ້ວຍ AI ທັງດີແລະບໍ່ດີ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- ໃບບິນສິດ-ລວມທັງ-ແລະ-ອັດສະຈັນ-ໂດຍ-ນຳໃຊ້-ai-outrightly/