ມີຄວາມສົງໃສເລັກນ້ອຍວ່າພວກເຮົາຕ້ອງການແຜນຜັງໃນຊີວິດປະຈໍາວັນຂອງພວກເຮົາ.
ຖ້າເຈົ້າຈະສ້າງເຮືອນໃນຝັນທີ່ຍາວໄກຂອງເຈົ້າ, ເຈົ້າຈະສະຫລາດທີ່ຈະເອົາແຜນຜັງທີ່ໃຊ້ໄດ້ຮ່ວມກັນກ່ອນ.
ແຜນຜັງທີ່ສະແດງໃຫ້ເຫັນໃນລັກສະນະທີ່ເຫັນໄດ້ຊັດເຈນ ແລະເປັນເອກະສານອັນໃດກໍຕາມ ທັດສະນະວິໄສທັດທີ່ກວ້າງໄກອາດຈະຖືກລັອກຢູ່ໃນໂນກກິນຂອງເຈົ້າ. ຜູ້ທີ່ຈະຖືກຮຽກຮ້ອງໃຫ້ສ້າງເຮືອນທີ່ຮັກແພງຂອງເຈົ້າຈະສາມາດອ້າງອີງໃສ່ແຜນຜັງແລະຂຽນລາຍລະອຽດຂອງວິທີການເຮັດວຽກ. Blueprints ແມ່ນ handy. ການຂາດແຜນຜັງແມ່ນຈະມີບັນຫາສໍາລັບການແກ້ໄຂບັນຫາການຈ້າງງານຫຼືໂຄງການທີ່ສັບສົນ.
ຂໍໃຫ້ປ່ຽນສິ່ງທີ່ເປັນທີ່ປະທັບໃຈແຕ່ຢ່າງຈິງໃຈນີ້ໃຫ້ກັບແຜນຜັງໄປສູ່ຂອບເຂດຂອງປັນຍາປະດິດ (AI).
ບັນດາທ່ານທີ່ເຂົ້າສູ່ AI ຢ່າງຫຼວງຫຼາຍອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່ານະໂຍບາຍທີ່ມີຄວາມສໍາຄັນ. blueprint ບໍ່ດົນມານີ້ໄດ້ປ່ອຍອອກມາໃນສະຫະລັດທີ່ສະແດງໃຫ້ເຫັນເຖິງອະນາຄົດຂອງ AI. ເປັນທີ່ຮູ້ຈັກຢ່າງເປັນທາງການເປັນ ກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AIຫົວຂໍ້ທີ່ເປັນທາງການຂອງເຈ້ຍສີຂາວທີ່ຖືກປະກາດແມ່ນ "Blueprint for a AI Bill of Rights: ເຮັດໃຫ້ລະບົບອັດຕະໂນມັດເຮັດວຽກສໍາລັບຄົນອາເມລິກາ" ແລະສາມາດໃຊ້ໄດ້ອອນໄລນ໌.
ເອກະສານດັ່ງກ່າວເປັນຜົນມາຈາກຄວາມພະຍາຍາມເປັນເວລາ 1970 ປີ ແລະ ການສຶກສາຢ່າງມີສະຕິໂດຍຫ້ອງການນະໂຍບາຍວິທະຍາສາດ ແລະ ເຕັກໂນໂລຊີ (OSTP). OSTP ເປັນໜ່ວຍງານຂອງລັດຖະບານກາງທີ່ໄດ້ສ້າງຕັ້ງຂຶ້ນໃນກາງຊຸມປີ XNUMX ແລະເຮັດໜ້າທີ່ໃຫ້ຄຳແນະນຳແກ່ປະທານາທິບໍດີອາເມຣິກາ ແລະ ຫ້ອງການບໍລິຫານຂອງສະຫະລັດ ກ່ຽວກັບດ້ານເທັກໂນໂລຍີ, ວິທະຍາສາດ ແລະ ວິສະວະກຳຕ່າງໆ ທີ່ມີຄວາມສໍາຄັນແຫ່ງຊາດ. ໃນຄວາມໝາຍດັ່ງກ່າວ, ທ່ານສາມາດເວົ້າໄດ້ວ່າ ຮ່າງກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ນີ້ແມ່ນເອກະສານທີ່ໄດ້ຮັບການອະນຸມັດແລະຮັບຮອງຈາກທຳນຽບຂາວຂອງສະຫະລັດທີ່ມີຢູ່ແລ້ວ.
ຮ່າງກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ໄດ້ບັນຍາຍເຖິງ ສິດທິມະນຸດ ທີ່ມະນຸດຄວນຈະມີກ່ຽວກັບການມາເຖິງຂອງ AI ໃນຊີວິດປະຈໍາວັນຂອງພວກເຮົາ. ຂ້າພະເຈົ້າເນັ້ນຫນັກເຖິງຈຸດທີ່ຫນັກແຫນ້ນນີ້ເພາະວ່າບາງຄົນກໍ່ສັບສົນໃນຕອນທໍາອິດວ່າບາງທີນີ້ແມ່ນການຮັບຮູ້ບາງຢ່າງຂອງ AI ທີ່ມີບຸກຄົນທີ່ຖືກຕ້ອງຕາມກົດຫມາຍແລະວ່ານີ້ແມ່ນສິດທິຂອງ AI ທີ່ມີຄວາມຮູ້ສຶກແລະຫຸ່ນຍົນຂອງມະນຸດ. ບໍ່, ພວກເຮົາບໍ່ໄດ້ຢູ່ທີ່ນັ້ນເທື່ອ. ດັ່ງທີ່ທ່ານຈະເຫັນໃນເວລາສັ້ນໆ, ພວກເຮົາບໍ່ໄດ້ຢູ່ໃກ້ກັບ AI ທີ່ມີຄວາມຮູ້ສຶກ, ເຖິງວ່າຈະມີຫົວຂໍ້ປ້າຍໂຄສະນາທີ່ເບິ່ງຄືວ່າຈະບອກພວກເຮົາໃນທາງອື່ນ.
ຕົກລົງ, ດັ່ງນັ້ນພວກເຮົາຕ້ອງການແຜນຮ່າງທີ່ສະກົດອອກສິດທິມະນຸດໃນຍຸກຂອງ AI ບໍ?
ແມ່ນແລ້ວ, ພວກເຮົາແນ່ນອນທີ່ສຸດ.
ທ່ານເກືອບຈະຕ້ອງຖືກລັອກຢູ່ໃນຖ້ໍາແລະບໍ່ມີການເຂົ້າເຖິງອິນເຕີເນັດເພື່ອບໍ່ຮູ້ວ່າ AI ແມ່ນແລ້ວແລະນັບມື້ນັບຖືກຮຸກຮານສິດທິຂອງພວກເຮົາ. ຍຸກທີ່ຜ່ານມາຂອງ AI ໄດ້ຖືກເບິ່ງໃນເບື້ອງຕົ້ນວ່າເປັນ AI ສໍາລັບທີ່ດີ, ຊຶ່ງຫມາຍຄວາມວ່າພວກເຮົາສາມາດນໍາໃຊ້ AI ສໍາລັບການປັບປຸງຂອງມະນຸດ. ສຸດ heels ຂອງ AI ສໍາລັບທີ່ດີ ມາເຖິງການຮັບຮູ້ວ່າພວກເຮົາຍັງຈົມຢູ່ໃນ AI ສໍາລັບບໍ່ດີ. ນີ້ຮວມເຖິງ AI ທີ່ຖືກວາງແຜນ ຫຼືປ່ຽນແປງຕົນເອງໃຫ້ເປັນການຈຳແນກ ແລະເຮັດໃຫ້ການເລືອກທາງຄຳນວນເຮັດໃຫ້ມີຄວາມລຳອຽງທີ່ບໍ່ເໝາະສົມ. ບາງຄັ້ງ AI ໄດ້ຖືກສ້າງຂື້ນແບບນັ້ນ, ໃນຂະນະທີ່ໃນກໍລະນີອື່ນໆ, ມັນເຂົ້າໄປໃນອານາເຂດທີ່ບໍ່ເຂົ້າໃຈນັ້ນ.
ສໍາລັບການຄຸ້ມຄອງແລະການວິເຄາະຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບກົດຫມາຍ AI, ຈັນຍາບັນຂອງ AI, ແລະແນວໂນ້ມເຕັກໂນໂລຢີ AI ທີ່ສໍາຄັນແລະສັງຄົມອື່ນໆ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.
Unpacking the AI Bill of Rights
ຂ້ອຍເຄີຍສົນທະນາກ່ຽວກັບ AI Bill of Rights ກ່ອນຫນ້ານີ້ແລະຈະສະຫຼຸບຢ່າງໄວວາຢູ່ທີ່ນີ້.
ຫລີກໄປທາງຫນຶ່ງ, ຖ້າທ່ານຕ້ອງການຮູ້ຂໍ້ດີແລະຂໍ້ເສຍຢ່າງເລິກເຊິ່ງຂອງຂ້ອຍຂອງ AI Bill of Rights ທີ່ປ່ອຍອອກມາເມື່ອບໍ່ດົນມານີ້, ຂ້ອຍໄດ້ລາຍລະອຽດການວິເຄາະຂອງຂ້ອຍໃນການປະກາດຢູ່ທີ່ ນິຕິບຸກຄົນ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້. ໄດ້ ນິຕິບຸກຄົນ ເປັນເວັບໄຊຂ່າວທາງກົດໝາຍ ແລະຄໍາຄິດເຫັນທາງອອນໄລນ໌ທີ່ໂດດເດັ່ນ, ເປັນທີ່ຮູ້ຈັກກັນຢ່າງກວ້າງຂວາງວ່າເປັນບໍລິການຂ່າວທາງກົດໝາຍທີ່ໄດ້ຮັບຮາງວັນໂດຍທີມງານທົ່ວໂລກຂອງນັກຂ່າວນັກສຶກສາກົດໝາຍ, ບັນນາທິການ, ນັກສະແດງຄວາມຄິດເຫັນ, ນັກຂ່າວ, ແລະນັກພັດທະນາເນື້ອຫາ, ແລະ ມີສໍານັກງານໃຫຍ່ຢູ່ທີ່ມະຫາວິທະຍາໄລ Pittsburgh School of ກົດຫມາຍໃນ Pittsburgh, ບ່ອນທີ່ມັນໄດ້ເລີ່ມຕົ້ນໃນໄລຍະ 25 ປີກ່ອນຫນ້ານີ້. shoutout ກັບທີມງານທີ່ຍັງຄ້າງຄາແລະ hardworking ຢູ່ ນິຕິບຸກຄົນ.
ໃນບັນຊີລາຍການສິດທິ AI, ມີຫ້າປະເພດແກນ:
- ລະບົບທີ່ປອດໄພແລະມີປະສິດທິພາບ
- ການປົກປ້ອງການຈໍາແນກແບບວິທີ
- ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ
- ແຈ້ງການແລະຄໍາອະທິບາຍ
- ທາງເລືອກຂອງມະນຸດ, ການພິຈາລະນາ, ແລະການຫຼຸດລົງ
ສັງເກດເຫັນວ່າຂ້ອຍບໍ່ໄດ້ນັບພວກເຂົາຈາກຫນຶ່ງຫາຫ້ານັບຕັ້ງແຕ່ການເຮັດດັ່ງນັ້ນອາດຈະຫມາຍຄວາມວ່າພວກເຂົາຢູ່ໃນລໍາດັບໂດຍສະເພາະຫຼືວ່າສິດທິອັນຫນຶ່ງເບິ່ງຄືວ່າມີຄວາມສໍາຄັນກວ່າອີກ. ພວກເຮົາຈະຖືວ່າພວກເຂົາເຈົ້າແຕ່ລະຄວາມດີຂອງຕົນ. ເຂົາເຈົ້າລ້ວນແຕ່ມີຄວາມໝາຍຄວາມດີເທົ່າທຽມກັນ.
ເປັນການຊີ້ບອກສັ້ນໆກ່ຽວກັບສິ່ງທີ່ແຕ່ລະອັນປະກອບດ້ວຍ, ນີ້ແມ່ນບົດຄັດຫຍໍ້ຈາກເອກະສານສີຂາວຢ່າງເປັນທາງການ:
- ລະບົບທີ່ປອດໄພ ແລະ ມີປະສິດທິພາບ: "ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກລະບົບທີ່ບໍ່ປອດໄພຫຼືບໍ່ມີປະສິດຕິຜົນ. ລະບົບອັດຕະໂນມັດຄວນໄດ້ຮັບການພັດທະນາດ້ວຍການປຶກສາຫາລືຈາກຊຸມຊົນທີ່ຫຼາກຫຼາຍ, ພາກສ່ວນກ່ຽວຂ້ອງ, ແລະຜູ້ຊ່ຽວຊານດ້ານໂດເມນເພື່ອກໍານົດຄວາມກັງວົນ, ຄວາມສ່ຽງ, ແລະຜົນກະທົບທີ່ອາດເກີດຂື້ນຂອງລະບົບ."
- ການປົກປ້ອງການຈໍາແນກແບບວິທີ: “ທ່ານບໍ່ຄວນປະເຊີນກັບການຈໍາແນກໂດຍວິທີ ແລະລະບົບຄວນຖືກໃຊ້ ແລະອອກແບບໃນທາງທີ່ສະເໝີພາບ. ການຈຳແນກລະບົບອັດຕະໂນມັດເກີດຂຶ້ນເມື່ອລະບົບອັດຕະໂນມັດປະກອບສ່ວນເຂົ້າໃນການປິ່ນປົວທີ່ບໍ່ຍຸຕິທຳ ຫຼືຜົນກະທົບຕໍ່ຄົນທີ່ບໍ່ພໍໃຈໂດຍອີງຕາມເຊື້ອຊາດ, ສີຜິວ, ຊົນເຜົ່າ, ເພດ (ລວມທັງການຖືພາ, ການເກີດລູກ, ແລະເງື່ອນໄຂທາງການແພດທີ່ກ່ຽວຂ້ອງ, ຕົວຕົນເພດ, ເພດ, ເພດ, ແລະທັດສະນະທາງເພດ), ສາດສະໜາ, ອາຍຸ. , ຊາດກຳເນີດ, ຄວາມພິການ, ສະຖານະນັກຮົບເກົ່າ, ຂໍ້ມູນພັນທຸກໍາ, ຫຼືການຈັດປະເພດອື່ນໆທີ່ປົກປ້ອງໂດຍກົດໝາຍ."
- ຄວາມເປັນສ່ວນຕົວຂໍ້ມູນ: "ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການປະຕິບັດຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງໂດຍຜ່ານການປົກປ້ອງທີ່ມີໃນຕົວແລະທ່ານຄວນມີອົງການກ່ຽວກັບວິທີການນໍາໃຊ້ຂໍ້ມູນຂອງທ່ານ. ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການລະເມີດຄວາມເປັນສ່ວນຕົວໂດຍຜ່ານທາງເລືອກໃນການອອກແບບທີ່ຮັບປະກັນວ່າການປົກປ້ອງດັ່ງກ່າວຈະຖືກລວມເຂົ້າໂດຍຄ່າເລີ່ມຕົ້ນ, ລວມທັງການຮັບປະກັນວ່າການລວບລວມຂໍ້ມູນສອດຄ່ອງກັບຄວາມຄາດຫວັງທີ່ສົມເຫດສົມຜົນແລະພຽງແຕ່ຂໍ້ມູນທີ່ຈໍາເປັນຢ່າງເຂັ້ມງວດສໍາລັບສະພາບການສະເພາະເທົ່ານັ້ນທີ່ຖືກລວບລວມ."
- ແຈ້ງການແລະຄໍາອະທິບາຍ: "ທ່ານຄວນຮູ້ວ່າລະບົບອັດຕະໂນມັດຖືກນໍາໃຊ້ແລະເຂົ້າໃຈວິທີການແລະເຫດຜົນທີ່ມັນປະກອບສ່ວນກັບຜົນໄດ້ຮັບທີ່ມີຜົນກະທົບທ່ານ. ຜູ້ອອກແບບ, ນັກພັດທະນາ, ແລະຜູ້ນຳໃຊ້ລະບົບອັດຕະໂນມັດຄວນສະໜອງເອກະສານພາສາທຳມະດາທີ່ເຂົ້າເຖິງໄດ້ໂດຍທົ່ວໄປລວມທັງການອະທິບາຍຢ່າງຈະແຈ້ງກ່ຽວກັບການເຮັດວຽກຂອງລະບົບໂດຍລວມ ແລະບົດບາດຂອງລະບົບອັດຕະໂນມັດ, ສັງເກດເຫັນວ່າລະບົບດັ່ງກ່າວກຳລັງນຳໃຊ້ຢູ່, ບຸກຄົນ ຫຼື ອົງກອນທີ່ຮັບຜິດຊອບລະບົບ ແລະ ຄໍາອະທິບາຍຂອງ ຜົນໄດ້ຮັບທີ່ຈະແຈ້ງ, ທັນເວລາ, ແລະສາມາດເຂົ້າເຖິງໄດ້.”
- ທາງເລືອກຂອງມະນຸດ, ພິຈາລະນາ, ແລະປະຕິເສດ: “ເຈົ້າຄວນຈະສາມາດເລືອກອອກໄດ້, ຖ້າເໝາະສົມ, ແລະເຂົ້າເຖິງບຸກຄົນທີ່ສາມາດພິຈາລະນາ ແລະແກ້ໄຂບັນຫາທີ່ເຈົ້າພົບໄດ້ຢ່າງວ່ອງໄວ. ທ່ານຄວນຈະສາມາດເລືອກອອກຈາກລະບົບອັດຕະໂນມັດເພື່ອເລືອກທາງເລືອກຂອງມະນຸດ, ຖ້າເຫມາະສົມ."
ໂດຍແລະຂະຫນາດໃຫຍ່, ເຫຼົ່ານີ້ແມ່ນລັກສະນະຂອງສິດທິມະນຸດທີ່ໄດ້ຮັບການ bandied ປະມານຂ້ອນຂ້າງໃນຂະນະທີ່ໃນສະພາບການຂອງຈັນຍາບັນ AI ແລະກົດຫມາຍວ່າດ້ວຍ AI, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້າພະເຈົ້າເຊັ່ນ: ຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້. ກະດາດສີຂາວເບິ່ງຄືວ່າບໍ່ໄດ້ດຶງກະຕ່າຍອອກຈາກຫມວກຢ່າງມະຫັດສະຈັນກ່ຽວກັບສິດທິທີ່ຄົ້ນພົບຫຼືຄົ້ນພົບໃຫມ່ທີ່ຍັງບໍ່ທັນໄດ້ເປີດເຜີຍໃນສະພາບການຂອງຍຸກ AI.
ບໍ່ເປັນຫຍັງ.
ທ່ານສາມາດຢືນຢັນວ່າການລວບລວມຂອງພວກເຂົາເຂົ້າໄປໃນການຫຸ້ມຫໍ່ neatly ແລະການເກັບກໍາເປັນທາງການສະຫນອງການບໍລິການທີ່ສໍາຄັນ. ນອກຈາກນັ້ນ, ໂດຍການຖືກເຈີມເປັນການປະກາດ ກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI, ນີ້ເຮັດໃຫ້ເລື່ອງທັງຫມົດ overtly ແລະຄວາມສາມາດເຂົ້າໄປໃນສະຕິຂອງຂອບເຂດສາທາລະນະ. ມັນລວມເອົາການສົນທະນາທີ່ບໍ່ຕ່າງກັນທີ່ມີຢູ່ຫຼາຍອັນເປັນຊຸດດຽວທີ່ປະຈຸບັນສາມາດຖືກ trumpeted ແລະຖ່າຍທອດໃນທົ່ວທຸກປະເພດຂອງພາກສ່ວນກ່ຽວຂ້ອງ.
ອະນຸຍາດໃຫ້ຂ້າພະເຈົ້າສະເຫນີບັນຊີລາຍຊື່ຂອງປະຕິກິລິຍາທີ່ເອື້ອອໍານວຍຕໍ່ກັບໃບປະກາດສິດ AI:
- ສະຫນອງການລວບລວມຫຼັກການພື້ນຖານທີ່ສໍາຄັນ
- ເຮັດໜ້າທີ່ເປັນແຜນຜັງ ຫຼືພື້ນຖານເພື່ອສ້າງ
- ເຮັດຫນ້າທີ່ເປັນສຽງໂທຫາການກະທໍາ
- Spurs ມີຄວາມສົນໃຈແລະສະແດງໃຫ້ເຫັນວ່າເຫຼົ່ານີ້ແມ່ນການພິຈາລະນາຢ່າງຈິງຈັງ
- ເອົາການສົນທະນາທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍເຂົ້າຮ່ວມ
- Sparks ແລະປະກອບສ່ວນເຂົ້າໃນຄວາມພະຍາຍາມການຮັບຮອງເອົາ AI ດ້ານຈັນຍາບັນ
- ແນ່ນອນວ່າຈະເຂົ້າໄປໃນການສ້າງຕັ້ງກົດຫມາຍ AI
- ອື່ນ ໆ
ພວກເຮົາຍັງຈໍາເປັນຕ້ອງໄດ້ພິຈາລະນາປະຕິກິລິຍາຫນ້ອຍກວ່າທີ່ເອື້ອອໍານວຍ, ໂດຍຄໍານຶງເຖິງວ່າມີວຽກງານຫຼາຍທີ່ຕ້ອງເຮັດແລະນີ້ແມ່ນພຽງແຕ່ການເລີ່ມຕົ້ນຂອງການເດີນທາງທີ່ຍາວນານໃນເສັ້ນທາງທີ່ຫຍຸ້ງຍາກໃນການຄຸ້ມຄອງ AI.
ດັ່ງນັ້ນ, ຂ້ອນຂ້າງຮຸນແຮງຫຼືພວກເຮົາຈະເວົ້າວ່າການວິພາກວິຈານທີ່ສ້າງສັນກ່ຽວກັບສິດທິຂອງ AI ປະກອບມີ:
- ບໍ່ມີຜົນບັງຄັບໃຊ້ຕາມກົດຫມາຍແລະບໍ່ມີການຜູກມັດຢ່າງສົມບູນ
- ທີ່ປຶກສາເທົ່ານັ້ນ ແລະບໍ່ໄດ້ພິຈາລະນານະໂຍບາຍຂອງລັດຖະບານ
- ມີຄວາມສົມບູນໜ້ອຍກວ່າເມື່ອປຽບທຽບກັບວຽກງານອື່ນໆທີ່ພິມເຜີຍແຜ່
- ຕົ້ນຕໍແມ່ນປະກອບດ້ວຍແນວຄວາມຄິດທີ່ກວ້າງຂວາງແລະຂາດລາຍລະອຽດການປະຕິບັດ
- ຈະເປັນສິ່ງທ້າທາຍທີ່ຈະຫັນໄປສູ່ກົດຫມາຍພາກປະຕິບັດຕົວຈິງ
- ເບິ່ງຄືວ່າມີຄວາມງຽບສະຫງົບກ່ຽວກັບບັນຫາທີ່ອາດຈະເກີດຂື້ນຂອງການຫ້າມ AI ໃນບາງສະພາບການ
- ເກືອບຈະຮັບຮູ້ເຖິງຂໍ້ໄດ້ປຽບຂອງການໃຊ້ AI ທີ່ຖືກວາງແຜນໄວ້ເປັນຢ່າງດີ
- ອື່ນ ໆ
ບາງທີຄໍາຄິດຄໍາເຫັນທີ່ຊັດເຈນທີ່ສຸດແມ່ນເນັ້ນໃສ່ຄວາມຈິງທີ່ວ່າກົດຫມາຍວ່າດ້ວຍສິດທິຂອງ AI ນີ້ບໍ່ມີຜົນບັງຄັບໃຊ້ຕາມກົດຫມາຍແລະດັ່ງນັ້ນຈຶ່ງບໍ່ມີນ້ໍາໃນເວລາທີ່ມັນມາກັບການສ້າງເປົ້າຫມາຍທີ່ຊັດເຈນ. ບາງຄົນໄດ້ເວົ້າວ່າເຖິງວ່າເຈ້ຍຂາວຈະເປັນປະໂຫຍດແລະໃຫ້ກໍາລັງໃຈ, ມັນຕັດສິນໃຈຂາດແຂ້ວ. ເຂົາເຈົ້າຕັ້ງຄຳຖາມວ່າອັນໃດທີ່ຈະເກີດຂຶ້ນຈາກການກ່າວເຖິງເປັນແຂ້ວເລື່ອຍຂອງກົດເກນອັນດີ.
ຂ້າພະເຈົ້າຈະກ່າວຄໍາປາໄສທີ່ບິດເບືອນເຫຼົ່ານັ້ນໃນປັດຈຸບັນ.
ໃນຂະນະດຽວກັນ, ກະສານສີຂາວອຸດົມສົມບູນລະບຸຂໍ້ຈໍາກັດຂອງສິ່ງທີ່ບັນຊີລາຍການສິດທິ AI ນີ້ປະກອບມີ:
- “ແຜນຮ່າງຂອງກົດໝາຍວ່າດ້ວຍສິດທິ AI ແມ່ນບໍ່ມີຜົນຜູກມັດ ແລະບໍ່ໄດ້ເປັນນະໂຍບາຍຂອງລັດຖະບານສະຫະລັດ. ມັນບໍ່ໄດ້ປ່ຽນແທນ, ດັດແກ້, ຫຼືຊີ້ນຳການຕີລາຄາຂອງກົດໝາຍ, ລະບຽບການ, ນະໂຍບາຍ, ຫຼືເຄື່ອງມືສາກົນທີ່ມີຢູ່ແລ້ວ. ມັນບໍ່ໄດ້ເປັນຄໍາແນະນໍາທີ່ຜູກມັດສໍາລັບສາທາລະນະຫຼືອົງການຂອງລັດຖະບານກາງແລະດັ່ງນັ້ນຈຶ່ງບໍ່ຈໍາເປັນຕ້ອງປະຕິບັດຕາມຫຼັກການທີ່ໄດ້ອະທິບາຍໄວ້ໃນນີ້. ນອກນີ້ຍັງບໍ່ໄດ້ກຳນົດວ່າທ່າທີຂອງລັດຖະບານອາເມລິກາຈະເປັນແນວໃດໃນການເຈລະຈາສາກົນ. ການຮັບຮອງເອົາຫຼັກການເຫຼົ່ານີ້ອາດຈະບໍ່ຕອບສະຫນອງຂໍ້ກໍານົດທີ່ມີຢູ່ແລ້ວຂອງລັດຖະບັນຍັດ, ກົດລະບຽບ, ນະໂຍບາຍ, ຫຼືເຄື່ອງມືສາກົນ, ຫຼືຂໍ້ກໍານົດຂອງອົງການຂອງລັດຖະບານກາງທີ່ບັງຄັບໃຊ້ພວກມັນ. ຫຼັກການເຫຼົ່ານີ້ບໍ່ມີຈຸດປະສົງເພື່ອ, ແລະບໍ່, ຫ້າມຫຼືຈໍາກັດກິດຈະກໍາທາງກົດຫມາຍຂອງອົງການລັດຖະບານ, ລວມທັງການບັງຄັບໃຊ້ກົດຫມາຍ, ຄວາມປອດໄພແຫ່ງຊາດ, ຫຼືກິດຈະກໍາຂ່າວສານ” (ຕາມຫນັງສືພິມຂາວ).
ສໍາລັບຜູ້ທີ່ໄດ້ໄວທີ່ຈະຕັດສິດທິຂອງ AI ວ່າເປັນການບໍ່ຜູກມັດທາງກົດຫມາຍ, ໃຫ້ພວກເຮົາເຮັດການທົດລອງຄວາມຄິດເລັກນ້ອຍກ່ຽວກັບຂໍ້ກ່າວຫາທີ່ໂຫດຮ້າຍນັ້ນ. ສົມມຸດວ່າເຈ້ຍສີຂາວໄດ້ຖືກປ່ອຍອອກມາແລະມີຜົນບັງຄັບໃຊ້ຂອງກົດຫມາຍຢ່າງເຕັມທີ່. ຂ້າພະເຈົ້າກ້າເວົ້າວ່າ ຜົນໄດ້ຮັບຈະຮ້າຍແຮງບາງຢ່າງ, ຢ່າງໜ້ອຍເຖິງລະດັບການຕອບໂຕ້ທາງກົດໝາຍ ແລະ ສັງຄົມຕໍ່ການປະກາດ.
ບັນດາສະມາຊິກສະພາຈະຢູ່ໃນອາວຸດທີ່ຄວາມພະຍາຍາມບໍ່ໄດ້ປະຕິບັດຂະບວນການມາດຕະຖານແລະຂັ້ນຕອນທາງດ້ານກົດຫມາຍໃນການປະກອບກົດຫມາຍດັ່ງກ່າວ. ທຸລະກິດຈະມີຄວາມໂກດແຄ້ນ, ຖືກຕ້ອງ, ຍ້ອນວ່າມີກົດ ໝາຍ ໃໝ່ ອອກມາໂດຍບໍ່ມີການແຈ້ງເຕືອນພຽງພໍແລະຮັບຮູ້ວ່າກົດ ໝາຍ ເຫຼົ່ານັ້ນແມ່ນຫຍັງ. ທຸກວິທີຂອງຄວາມໂສກເສົ້າແລະຄວາມໂກດແຄ້ນຈະເກີດຂຶ້ນ.
ບໍ່ແມ່ນວິທີທີ່ດີທີ່ຈະເລັ່ງໃສ່ການຮັດແໜ້ນສິດທິມະນຸດໃນຍຸກ AI.
ຈື່ໄວ້ວ່າຂ້າພະເຈົ້າໄດ້ເລີ່ມຕົ້ນການສົນທະນານີ້ກ່ອນຫນ້ານີ້ໂດຍການນໍາເອົາມູນຄ່າແລະຄວາມສໍາຄັນຂອງແຜນຜັງ.
ຈິນຕະນາການວ່າມີຄົນຂ້າມຜ່ານຂັ້ນຕອນຂອງການສ້າງແຜນຜັງແລະໂດດເຂົ້າໄປໃນການສ້າງເຮືອນໃນຝັນຂອງເຈົ້າທັນທີ. ເຈົ້າຄິດວ່າເຮືອນຈະເປັນແນວໃດ? ມັນເບິ່ງຄືວ່າເປັນການເດີມພັນທີ່ຍຸດຕິທໍາທີ່ເຮືອນຈະບໍ່ກົງກັບສິ່ງທີ່ທ່ານມີຢູ່ໃນໃຈຂອງທ່ານໂດຍສະເພາະ. ຜົນໄດ້ຮັບຂອງ homestead ອາດຈະເປັນບັນຫາທີ່ສັບສົນ.
ຄວາມສໍາຄັນແມ່ນວ່າພວກເຮົາຕ້ອງການແຜນຜັງແລະປະຈຸບັນພວກເຮົາມີອັນຫນຶ່ງເພື່ອຄວາມມຸ່ງຫວັງທີ່ຈະກ້າວໄປຂ້າງຫນ້າໃນການຄົ້ນຫາກົດຫມາຍ AI ທີ່ມີການພິພາກສາແລະສ້າງຄວາມເຂັ້ມແຂງການຮັບຮອງເອົາດ້ານຈັນຍາບັນ AI.
ຂ້າພະເຈົ້າຢາກຈະແກ້ໄຂດັ່ງນັ້ນວິທີການທີ່ແຜນຮ່າງໃບບິນສິດທິຂອງ AI ນີ້ສາມາດຖືກປ່ຽນເປັນເຮືອນ, ຍ້ອນວ່າມັນເປັນ. ເຮົາຈະນຳໃຊ້ແຜນຜັງແນວໃດ? ຂັ້ນຕອນຕໍ່ໄປທີ່ເຫມາະສົມແມ່ນຫຍັງ? ແຜນຜັງນີ້ສາມາດພຽງພໍ, ຫຼືມັນຕ້ອງການຊີ້ນຫຼາຍກ່ຽວກັບກະດູກ?
ກ່ອນທີ່ພວກເຮົາຈະກະໂດດເຂົ້າໄປໃນເລື່ອງທີ່ຫນັກແຫນ້ນນັ້ນ, ຂ້າພະເຈົ້າຕ້ອງການທໍາອິດໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ແລະສະຖານະພາບຂອງມື້ນີ້.
ກໍານົດບັນທຶກຊື່ກ່ຽວກັບ AI ໃນມື້ນີ້
ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄໍາຖະແຫຼງທີ່ເນັ້ນຫນັກທີ່ສຸດ.
ເຈົ້າພ້ອມແລ້ວບໍ?
ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ.
ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).
ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າພວກເຮົາຕ້ອງການຄາດເດົາຢ່າງຈິງຈັງກ່ຽວກັບ AI ທີ່ມີຄວາມຮູ້ສຶກ, ການສົນທະນານີ້ອາດຈະໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນມັນສະ ໝອງ ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ເນື່ອງຈາກບາງການຄາດເດົາວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດລົງໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).
ຂ້ອຍຂໍແນະ ນຳ ຢ່າງແຂງແຮງວ່າພວກເຮົາເກັບສິ່ງຂອງລົງມາສູ່ໂລກແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄອມພິວເຕີ້ໃນມື້ນີ້.
ຮັບຮູ້ວ່າ AI ໃນທຸກມື້ນີ້ບໍ່ສາມາດ “ຄິດ” ໃນແບບໃດກໍຕາມເທົ່າກັບການຄິດຂອງມະນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.
ຈົ່ງລະມັດລະວັງຫຼາຍຕໍ່ການເປັນມະນຸດຂອງ AI ໃນມື້ນີ້.
ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.
ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.
ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຕົວແບບທີ່ກົງກັບຮູບແບບຂອງ ML/DL.
ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.
ບໍ່ດີ.
ທັງຫມົດນີ້ມີຜົນກະທົບດ້ານຈັນຍາບັນຂອງ AI ທີ່ສໍາຄັນແລະສະເຫນີປ່ອງຢ້ຽມທີ່ເປັນປະໂຫຍດເຂົ້າໄປໃນບົດຮຽນທີ່ຖອດຖອນໄດ້ (ເຖິງແມ່ນວ່າກ່ອນທີ່ບົດຮຽນທັງຫມົດຈະເກີດຂື້ນ) ເມື່ອເວົ້າເຖິງການພະຍາຍາມສ້າງນິຕິກໍາ AI.
ນອກເຫນືອຈາກການໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ໂດຍທົ່ວໄປແລ້ວ, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອຄວບຄຸມການນໍາໃຊ້ຕ່າງໆຂອງ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມພະຍາຍາມເພື່ອຮ່າງກົດໝາຍດັ່ງກ່າວແມ່ນເປັນໄປເທື່ອລະກ້າວ. ຈັນຍາບັນ AI ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.
ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ພວກເຂົາເຈົ້າໄດ້ເຕືອນລ່ວງໜ້າວ່າ ຖ້າຫາກພວກເຮົາອອກກົດໝາຍ AI ບາງຂໍ້ນີ້, ພວກເຮົາຈະຂ້າໝີທອງໂດຍການຍຶດໝັ້ນຄວາມກ້າວໜ້າຂອງ AI ທີ່ໃຫ້ຄວາມໄດ້ປຽບທາງສັງຄົມອັນໃຫຍ່ຫລວງ.
ໃນຄໍລໍາທີ່ຜ່ານມາ, ຂ້າພະເຈົ້າໄດ້ກວມເອົາຄວາມພະຍາຍາມລະດັບຊາດແລະສາກົນຕ່າງໆເພື່ອຫັດຖະກໍາແລະອອກກົດຫມາຍຄວບຄຸມ AI, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກຕົວຢ່າງ. ຂ້າພະເຈົ້າຍັງໄດ້ກວມເອົາຫຼັກການດ້ານຈັນຍາບັນ AI ຕ່າງໆແລະຄໍາແນະນໍາທີ່ປະເທດຕ່າງໆໄດ້ກໍານົດແລະຮັບຮອງເອົາ, ລວມທັງຄວາມພະຍາຍາມຂອງສະຫະປະຊາຊາດເຊັ່ນ: UNESCO ກໍານົດຈັນຍາບັນ AI ທີ່ເກືອບ 200 ປະເທດໄດ້ຮັບຮອງເອົາ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້.
ນີ້ແມ່ນລາຍການຫຼັກທີ່ເປັນປະໂຫຍດຂອງມາດຖານ AI ດ້ານຈັນຍາບັນ ຫຼືຄຸນລັກສະນະກ່ຽວກັບລະບົບ AI ທີ່ຂ້າພະເຈົ້າໄດ້ຄົ້ນຫາຢ່າງໃກ້ຊິດກ່ອນຫນ້ານີ້:
- ຄວາມໂປ່ງໃສ
- ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
- ຄວາມບໍ່ເປັນອັນຕະລາຍ
- ຄວາມຮັບຜິດຊອບ
- ຄວາມເປັນສ່ວນຕົວ
- ຜົນປະໂຫຍດ
- ເສລີພາບ & ການປົກຄອງຕົນເອງ
- ຄວາມໄວ້ວາງໃຈ
- ຄວາມຍືນຍົງ
- ກຽດຕິຍົດ
- ຄວາມສົມດຸນ
ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ເຫຼົ່ານັ້ນແມ່ນຄວນຈະຖືກນໍາໃຊ້ຢ່າງຈິງຈັງໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI.
ພາກສ່ວນກ່ຽວຂ້ອງທັງຫມົດຕະຫຼອດວົງຈອນຊີວິດຂອງ AI ທັງຫມົດຂອງການພັດທະນາແລະການນໍາໃຊ້ແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ຖືກສ້າງຕັ້ງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ເນັ້ນໜັກໄວ້ກ່ອນນີ້, ມັນຕ້ອງໃຊ້ເວລາບ້ານໜຶ່ງເພື່ອວາງແຜນ ແລະ ປະຕິບັດວຽກງານ AI, ແລະ ເພື່ອໃຫ້ໝູ່ບ້ານທັງໝົດຕ້ອງຮັບຮູ້ ແລະ ປະຕິບັດຕາມຫຼັກຈັນຍາບັນຂອງ AI.
ຕອນນີ້ຂ້ອຍໄດ້ວາງພື້ນຖານທີ່ເປັນປະໂຫຍດແລ້ວ, ພວກເຮົາພ້ອມທີ່ຈະລົງເລິກເຂົ້າໄປໃນ AI Bill of Rights ຕື່ມອີກ.
ສີ່ວິທີທີ່ສໍາຄັນເພື່ອປະຕິບັດບັນຊີລາຍການ AI ຂອງສິດທິ
ມີຄົນຍື່ນແຜນຜັງໃຫ້ທ່ານ ແລະບອກໃຫ້ເຈົ້າໄປເຮັດວຽກ.
ທ່ານເຮັດແນວໃດ?
ໃນກໍລະນີຂອງບັນຊີລາຍການສິດທິ AI ເປັນແຜນຮ່າງ, ພິຈາລະນາສີ່ຂັ້ນຕອນທີ່ສໍາຄັນໃນການກ້າວໄປຂ້າງຫນ້າ:
- ຮັບໃຊ້ເປັນການປ້ອນຂໍ້ມູນໃນການສ້າງກົດໝາຍ AI: ໃຊ້ແຜນຜັງເພື່ອຊ່ວຍໃນການສ້າງກົດຫມາຍ AI, ຫວັງວ່າຈະອີງໃສ່ການສອດຄ່ອງໃນລະດັບລັດຖະບານກາງ, ລັດ, ແລະທ້ອງຖິ່ນ (ບາງທີອາດຊ່ວຍຄວາມພະຍາຍາມທາງດ້ານກົດຫມາຍ AI ສາກົນເຊັ່ນກັນ).
- ການຊ່ວຍເຫຼືອໃນການໄດ້ຮັບການຮັບຮອງເອົາຈັນຍາບັນ AI ຢ່າງກວ້າງຂວາງຫຼາຍ: ໃຊ້ແຜນຜັງເພື່ອສົ່ງເສີມການສ້າງຈັນຍາບັນຂອງ AI (ບາງເທື່ອເອີ້ນວ່າ “ກົດໝາຍອ່ອນ” ເມື່ອສົມທຽບກັບ “ກົດໝາຍແຂງ” ທີ່ຜູກມັດທາງກົດໝາຍ), ການເຮັດແນວນັ້ນເພື່ອສ້າງແຮງບັນດານໃຈ ແລະ ແນະນຳທຸລະກິດ, ບຸກຄົນ, ໜ່ວຍງານລັດຖະບານ ແລະ ເຂດເລືອກຕັ້ງອື່ນໆໄປສູ່ຈັນຍາບັນທີ່ດີຂຶ້ນ ແລະ ສອດຄ່ອງກວ່າ. ຜົນໄດ້ຮັບຂອງ AI.
- ກິດຈະກໍາການພັດທະນາຮູບຮ່າງ AI: ໃຊ້ແຜນຜັງເພື່ອກະຕຸ້ນການສ້າງວິທີການພັດທະນາ AI ແລະລັກສະນະການຝຶກອົບຮົມ, ການເຮັດແນວນັ້ນເພື່ອພະຍາຍາມເຮັດໃຫ້ຜູ້ພັດທະນາ AI ແລະຜູ້ທີ່ເຮັດວຽກຫຼືຈ້າງ AI ມີຄວາມຮູ້ກ່ຽວກັບວິທີການສ້າງ AI ໄປຕາມເສັ້ນທາງຂອງຈັນຍາບັນຂອງ AI ທີ່ຕ້ອງການແລະໃນຄວາມຄາດຫວັງ. ກົດໝາຍ AI ທີ່ກຳລັງຈະປະກາດໃຊ້.
- ກະຕຸ້ນການມາເຖິງຂອງ AI ເພື່ອຊ່ວຍໃນການຄວບຄຸມ AI: ໃຊ້ແຜນຜັງເພື່ອວາງແຜນ AI ທີ່ຈະໃຊ້ເພື່ອທົດລອງໃຊ້ ແລະເປັນການກວດສອບການດຸ່ນດ່ຽງຕໍ່ກັບ AI ອື່ນໆທີ່ອາດຈະເຂົ້າມາໃນອານາເຂດທີ່ບໍ່ເຂົ້າໃຈ. ນີ້ແມ່ນໜຶ່ງໃນມຸມເບິ່ງ macroscopic ເຫຼົ່ານັ້ນ ເຊິ່ງພວກເຮົາສາມາດໃຊ້ສິ່ງທີ່ພວກເຮົາເຫັນວ່າເປັນຕາເປັນຫ່ວງເປັນຢ່າງຍິ່ງ (ອາດເວົ້າໄດ້ວ່າ) ຊ່ວຍເຫຼືອໃນການປົກປ້ອງພວກເຮົາ.
ຂ້າພະເຈົ້າໄດ້ສົນທະນາແຕ່ລະສີ່ຂັ້ນຕອນຂ້າງເທິງນີ້ຕະຫຼອດການປະກາດຖັນຂອງຂ້ອຍ.
ສໍາລັບການສົນທະນານີ້, ຂ້າພະເຈົ້າຢາກເນັ້ນໃສ່ຂັ້ນຕອນທີສີ່, ຄືວ່າ AI Bill of Rights ສາມາດເປັນຕົວກະຕຸ້ນໄປສູ່ການມາເຖິງຂອງ AI ເພື່ອຊ່ວຍໃນການຄວບຄຸມ AI. ນີ້ແມ່ນບາດກ້າວທີ່ໜ້າຕົກໃຈ ຫຼື ແປກປະຫຼາດສຳລັບຫຼາຍໆຄົນທີ່ຍັງບໍ່ທັນໄດ້ເຂົ້າສູ່ໂລກທີ່ກ້າວໜ້າ AI ນີ້.
ອະນຸຍາດໃຫ້ຂ້ອຍອະທິບາຍຢ່າງລະອຽດ.
ການປຽບທຽບທີ່ງ່າຍດາຍຄວນເຮັດ trick ໄດ້. ພວກເຮົາທຸກຄົນທຸກມື້ນີ້ມັກລະເມີດຄວາມປອດໄພທາງອິນເຕີເນັດແລະການບຸກໂຈມຕີຂອງແຮກເກີ. ເກືອບທຸກໆມື້ທີ່ພວກເຮົາໄດ້ຍິນກ່ຽວກັບຫຼືໄດ້ຮັບຜົນກະທົບຈາກຊ່ອງຫວ່າງຫລ້າສຸດໃນຄອມພິວເຕີຂອງພວກເຮົາທີ່ຈະອະນຸຍາດໃຫ້ຜູ້ຊົ່ວຮ້າຍທີ່ຊົ່ວຮ້າຍສາມາດລັກເອົາຂໍ້ມູນຂອງພວກເຮົາຫຼືວາງຊິ້ນສ່ວນຂອງ ransomware ທີ່ບໍ່ດີຢູ່ໃນຄອມພິວເຕີ້ຂອງພວກເຮົາ.
ຫນຶ່ງໃນວິທີການຕໍ່ສູ້ກັບຄວາມພະຍາຍາມທີ່ຫນ້າກຽດຊັງເຫຼົ່ານັ້ນປະກອບດ້ວຍການນໍາໃຊ້ຊອບແວພິເສດທີ່ພະຍາຍາມປ້ອງກັນການແຕກແຍກເຫຼົ່ານັ້ນ. ທ່ານເກືອບແນ່ນອນມີຊຸດຊອບແວຕ້ານເຊື້ອໄວຣັສຢູ່ໃນຄອມພິວເຕີຂອງທ່ານຢູ່ເຮືອນຫຼືບ່ອນເຮັດວຽກ. ມັນອາດຈະມີບາງສິ່ງບາງຢ່າງທີ່ຄ້າຍຄືກັນຢູ່ໃນໂທລະສັບສະຫຼາດຂອງທ່ານ, ບໍ່ວ່າທ່ານຮູ້ວ່າມັນຢູ່ໃນນັ້ນຫຼືບໍ່.
ຈຸດຂອງຂ້ອຍແມ່ນວ່າບາງຄັ້ງເຈົ້າຕ້ອງຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍກ່ຽວກັບເລື່ອງນີ້, ເຊັ່ນ: ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້).
ໃນກໍລະນີຂອງ AI ທີ່ເຂົ້າໄປໃນພື້ນທີ່ verboten ຂອງ AI ສໍາລັບບໍ່ດີ, ພວກເຮົາສາມາດຊອກຫາການນໍາໃຊ້ AI ສໍາລັບທີ່ດີ ທີ່ຂັດແຍ້ງກັບສິ່ງທີ່ເປັນອັນຕະລາຍນັ້ນ AI ສໍາລັບບໍ່ດີ. ນີ້ແນ່ນອນບໍ່ແມ່ນການປິ່ນປົວມະຫັດສະຈັນ. ດັ່ງທີ່ເຈົ້າຮູ້, ມີການຫຼອກລວງຂອງແມວ ແລະ ໜູ ຢ່າງຕໍ່ເນື່ອງລະຫວ່າງຜູ້ກະທຳຊົ່ວທີ່ພະຍາຍາມບຸກເຂົ້າຄອມພິວເຕີຂອງພວກເຮົາ ແລະ ມີຄວາມກ້າວໜ້າໃນການປົກປ້ອງຄວາມປອດໄພທາງອິນເຕີເນັດ. ມັນເປັນເກມເກືອບບໍ່ມີທີ່ສິ້ນສຸດ.
ພວກເຮົາສາມາດໃຊ້ AI ເພື່ອພະຍາຍາມແລະຈັດການກັບ AI ທີ່ໄດ້ເຂົ້າໄປໃນເສັ້ນທາງທີ່ຕ້ອງຫ້າມ. ການເຮັດດັ່ງນັ້ນຈະຊ່ວຍໄດ້. ມັນຈະບໍ່ໂດຍສະເພາະແມ່ນລູກປືນເງິນເພາະວ່າ AI ທີ່ບໍ່ດີທີ່ຖືກເປົ້າຫມາຍເກືອບແນ່ນອນຈະຖືກວາງແຜນເພື່ອຫຼີກເວັ້ນການປົກປ້ອງດັ່ງກ່າວ. ນີ້ຈະເປັນ cat-and-mouse ຢ່າງຕໍ່ເນື່ອງຂອງ AI ທຽບກັບ AI.
ໃນກໍລະນີໃດກໍ່ຕາມ, AI ທີ່ພວກເຮົາໃຊ້ເພື່ອປົກປ້ອງຕົວເຮົາເອງຈະສະຫນອງການປົກປ້ອງ AI ທີ່ບໍ່ດີ. ດັ່ງນັ້ນ, ພວກເຮົາ ຈຳ ເປັນຕ້ອງສ້າງ AI ທີ່ສາມາດປົກປ້ອງຫຼືປົກປ້ອງພວກເຮົາຢ່າງບໍ່ຢຸດຢັ້ງ. ແລະພວກເຮົາຄວນຊອກຫາວິທີການສ້າງ AI ປ້ອງກັນເພື່ອປັບຕົວຕາມ AI ທີ່ບໍ່ດີປັບ. ຈະມີລັກສະນະທີ່ໂຫດຮ້າຍຂອງແມວແລະຫນູທີ່ມີຄວາມໄວຟ້າຜ່າ.
ບໍ່ແມ່ນທຸກຄົນພໍໃຈກັບການຂະຫຍາຍບົດບາດຂອງ AI ນີ້.
ຜູ້ທີ່ຮັບຮູ້ AI ວ່າເປັນການລວມຕົວຂອງ amorphous ທີ່ເປັນເອກະພາບແລ້ວ, ຈະໄດ້ຮັບຄວາມວຸ້ນວາຍແລະຝັນຮ້າຍຢູ່ທີ່ AI-versus-AI gambit ທີ່ປອມແປງນີ້. ຖ້າຫາກວ່າພວກເຮົາພະຍາຍາມທີ່ຈະເຜົາໄຫມ້ໄຟ, ບາງທີພວກເຮົາພຽງແຕ່ເຮັດໃຫ້ໄຟທີ່ໃຫຍ່ກວ່ານັ້ນ. AI ຈະກາຍເປັນໄຟອັນໃຫຍ່ຫລວງ, ອັນທີ່ພວກເຮົາບໍ່ຄວບຄຸມໄດ້ອີກຕໍ່ໄປ ແລະຈະເລືອກທີ່ຈະເປັນທາດຂອງມະນຸດຫຼືລົບລ້າງພວກເຮົາຈາກໂລກ. ເມື່ອເວົ້າເຖິງ AI ເປັນຄວາມສ່ຽງທີ່ມີຢູ່ແລ້ວ, ພວກເຮົາມັກຈະເຊື່ອວ່າ AI ທັງຫມົດຈະຮ່ວມກັນ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍກ່ຽວກັບບັນຫາເຫຼົ່ານີ້ຢູ່ທີ່. ການເຊື່ອມຕໍ່ທີ່ນີ້. ເຈົ້າເຫັນ, ພວກເຮົາໄດ້ຖືກບອກວ່າທຸກຊິ້ນສ່ວນຂອງ AI ຈະຍຶດເອົາ AI ອ້າຍນ້ອງຂອງຕົນແລະກາຍເປັນຄອບຄົວດຽວທີ່ມີການປົກຄອງໃຫຍ່.
ນັ້ນແມ່ນສະຖານະການທີ່ໜ້າຢ້ານ ແລະ ຄວາມບໍ່ສະຫງົບຂອງ AI ທີ່ເປັນມາເຟຍທັງໝົດແບບບໍ່ຕິດຂັດ ແລະ ເປັນມາເຟຍທັງໝົດ.
ເຖິງແມ່ນວ່າທ່ານຍິນດີຕ້ອນຮັບຢ່າງເສລີໃນການຄາດເດົາກ່ຽວກັບວ່ານີ້ອາດຈະເກີດຂື້ນໃນມື້ຫນຶ່ງ, ຂ້າພະເຈົ້າຮັບປະກັນທ່ານວ່າໃນປັດຈຸບັນ, AI ທີ່ພວກເຮົາມີໃນມື້ນີ້ປະກອບດ້ວຍລົດບັນທຸກຂອງໂປລແກລມ AI ທີ່ແຕກແຍກກັນທີ່ບໍ່ມີວິທີສະເພາະທີ່ຈະສົມຮູ້ຮ່ວມຄິດກັບກັນແລະກັນ.
ໂດຍເວົ້າແນວນັ້ນ, ຂ້ອຍແນ່ໃຈວ່າຜູ້ທີ່ເຊື່ອຢ່າງຈິງຈັງໃນທິດສະດີການສົມຮູ້ຮ່ວມຄິດຂອງ AI ຈະຮຽກຮ້ອງໃຫ້ຂ້ອຍເວົ້າເລື່ອງນີ້ຢ່າງຕັ້ງໃຈເພື່ອປິດບັງຄວາມຈິງ. ອ້າວ! ບາງທີຂ້ອຍອາດຈະໄດ້ຮັບຄ່າຈ້າງໂດຍ AI ໃນມື້ນີ້ທີ່ກໍາລັງວາງແຜນການຄອບຄອງ AI ທີ່ຍິ່ງໃຫຍ່ (ແມ່ນແລ້ວ, ຂ້ອຍຈະໄດ້ຮັບການອາບນ້ໍາໃນຄວາມຮັ່ງມີເມື່ອກົດລະບຽບຂອງ AI overlords). ຫຼື, ແລະແນ່ນອນວ່າຂ້າພະເຈົ້າບໍ່ມັກມຸມອື່ນນີ້, ບາງທີຂ້າພະເຈົ້າຕາບອດບໍ່ຮູ້ວ່າ AI ກໍາລັງວາງແຜນຢ່າງລັບໆຢູ່ເບື້ອງຫຼັງຂອງພວກເຮົາແນວໃດ. ຂ້ອຍຄິດວ່າພວກເຮົາຈະຕ້ອງລໍຖ້າເບິ່ງວ່າຂ້ອຍເປັນສ່ວນຫນຶ່ງຂອງການກໍ່ລັດຖະປະຫານ AI ຫຼື AI abject patsy (ouch, ເຈັບ).
ກັບຄືນສູ່ການພິຈາລະນາທາງໂລກ, ຂໍໃຫ້ພິຈາລະນາສັ້ນໆວ່າ AI ຍຸກປະຈຸບັນສາມາດຖືກນໍາໃຊ້ເພື່ອຊ່ວຍການປະຕິບັດບັນຊີລາຍການສິດທິຂອງ AI. ຂ້າພະເຈົ້າຈະສະດວກແລະສະຫຼຸບໂດຍຫຍໍ້ກ່ຽວກັບເລື່ອງນີ້ AI ທີ່ດີ.
ພວກເຮົາຈະນໍາໃຊ້ຫ້າແກນຫຼັກທີ່ປະກອບຢູ່ໃນ AI Bill of Rights:
- AI ທີ່ດີສໍາລັບການສົ່ງເສີມ ລະບົບທີ່ປອດໄພ ແລະ ມີປະສິດທິພາບ: ເມື່ອໃດກໍ່ຕາມທີ່ທ່ານຂຶ້ນກັບຫຼືໃຊ້ລະບົບ AI, AI ທີ່ດີພະຍາຍາມຊອກຫາວ່າ AI ທີ່ຖືກ ນຳ ໃຊ້ແມ່ນບໍ່ປອດໄພຫຼືບໍ່ມີປະສິດຕິຜົນ. ເມື່ອກວດພົບດັ່ງກ່າວ, AI ທີ່ດີອາດຈະແຈ້ງເຕືອນທ່ານຫຼືດໍາເນີນການອື່ນໆລວມທັງການສະກັດ AI ທີ່ບໍ່ດີ.
- AI ທີ່ດີສໍາລັບການສະຫນອງ ການປົກປ້ອງການຈໍາແນກແບບວິທີ: ໃນຂະນະທີ່ນໍາໃຊ້ລະບົບ AI ທີ່ອາດຈະປະກອບດ້ວຍລະບົບຈໍາແນກຈໍາແນກ, ໄດ້ AI ທີ່ດີ ຄວາມພະຍາຍາມທີ່ຈະກວດສອບວ່າມີການປົກປ້ອງທີ່ບໍ່ພຽງພໍສໍາລັບທ່ານແລະຊອກຫາການກໍານົດວ່າຄວາມລໍາອຽງທີ່ບໍ່ສົມຄວນມີຢູ່ໃນ AI ທີ່ໃຊ້. AI ທີ່ດີສາມາດແຈ້ງໃຫ້ທ່ານຮູ້ແລະອາດຈະລາຍງານ AI ອື່ນໆໂດຍອັດຕະໂນມັດກັບເຈົ້າຫນ້າທີ່ຕ່າງໆຕາມທີ່ອາດຈະຖືກກໍານົດໄວ້ໃນກົດຫມາຍ AI ແລະຂໍ້ກໍານົດທາງດ້ານກົດຫມາຍ.
- AI ທີ່ດີສໍາລັບການຮັກສາ ຄວາມເປັນສ່ວນຕົວຂໍ້ມູນ: ປະເພດຂອງ AI ທີ່ດີນີ້ພະຍາຍາມປົກປ້ອງທ່ານຈາກການບຸກລຸກຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ. ເມື່ອ AI ອື່ນກໍາລັງຊອກຫາການຮ້ອງຂໍຂໍ້ມູນທີ່ບາງທີບໍ່ຈໍາເປັນແທ້ໆຈາກທ່ານ, AI ທີ່ດີຈະເຮັດໃຫ້ເຈົ້າຮູ້ເຖິງການກະທໍາທີ່ເກີນຂອບເຂດ. AI ທີ່ດີຍັງສາມາດປິດບັງຂໍ້ມູນຂອງທ່ານໃນລັກສະນະທີ່ຈະຖືກປ້ອນໃຫ້ AI ອື່ນໆຍັງຮັກສາສິດທິຄວາມເປັນສ່ວນຕົວຂໍ້ມູນຂອງທ່ານ. ເປັນຕົ້ນ.
- AI ທີ່ດີສໍາລັບການສ້າງຕັ້ງ ແຈ້ງການ ແລະຄໍາອະທິບາຍ: ພວກເຮົາທຸກຄົນມີແນວໂນ້ມທີ່ຈະພົບກັບລະບົບ AI ທີ່ຂາດແຄນການໃຫ້ການແຈ້ງເຕືອນທີ່ເໝາະສົມ ແລະ ເໝາະສົມ ແລະເປັນສິ່ງທີ່ໜ້າເສົ້າທີ່ບໍ່ສາມາດສະແດງຄຳອະທິບາຍທີ່ພຽງພໍສຳລັບການກະທຳຂອງເຂົາເຈົ້າ. AI ທີ່ດີສາມາດພະຍາຍາມຕີຄວາມ ໝາຍ ຫຼືສອບສວນ AI ອື່ນ, ເຮັດແນວນັ້ນເພື່ອສາມາດລະບຸການແຈ້ງເຕືອນແລະຄໍາອະທິບາຍທີ່ຄວນຈະໄດ້ຮັບການສະຫນອງໃຫ້. ເຖິງແມ່ນວ່າມັນເປັນໄປບໍ່ໄດ້ທີ່ຈະເຮັດໃນຕົວຢ່າງໃດກໍ່ຕາມ, ຢ່າງຫນ້ອຍ AI ທີ່ດີຈະເຕືອນທ່ານກ່ຽວກັບຄວາມລົ້ມເຫຼວຂອງ AI ອື່ນໆ, ແລະອາດຈະລາຍງານ AI ກັບເຈົ້າຫນ້າທີ່ທີ່ຖືກກໍານົດໂດຍອີງໃສ່ກົດຫມາຍ AI ແລະຂໍ້ກໍານົດທາງດ້ານກົດຫມາຍ.
- AI ທີ່ດີສໍາລັບການສະເຫນີ ທາງເລືອກຂອງມະນຸດ, ພິຈາລະນາ, ແລະປະຕິເສດ: ສົມມຸດວ່າທ່ານກໍາລັງໃຊ້ລະບົບ AI ແລະ AI ເບິ່ງຄືວ່າບໍ່ຂຶ້ນກັບວຽກງານທີ່ມີຢູ່ໃນມື. ເຈົ້າອາດບໍ່ຮູ້ຕົວວ່າສິ່ງຕ່າງໆກຳລັງຈະສົ້ມ, ຫຼື ເຈົ້າອາດຈະລະວັງ ແລະ ບໍ່ແນ່ໃຈວ່າຈະເຮັດແນວໃດກ່ຽວກັບສະຖານະການ. ໃນກໍລະນີດັ່ງກ່າວ, Good AI ຈະກວດສອບຢ່າງງຽບໆວ່າ AI ອື່ນໆກໍາລັງເຮັດຫຍັງແລະສາມາດເຕືອນທ່ານກ່ຽວກັບຄວາມກັງວົນທີ່ສໍາຄັນກ່ຽວກັບ AI ນັ້ນ. ຫຼັງຈາກນັ້ນ, ເຈົ້າຈະຖືກກະຕຸ້ນໃຫ້ຮ້ອງຂໍທາງເລືອກຂອງມະນຸດກັບ AI (ຫຼື AI ທີ່ດີສາມາດເຮັດແນວນັ້ນແທນເຈົ້າ).
ເພື່ອເຂົ້າໃຈຕື່ມອີກວ່າປະເພດນີ້ແນວໃດ AI ທີ່ດີ ສາມາດໄດ້ຮັບການພັດທະນາແລະພາກສະຫນາມ, ເບິ່ງປື້ມ AI ທີ່ນິຍົມແລະຈັດອັນດັບສູງຂອງຂ້ອຍ (ເປັນກຽດທີ່ເວົ້າວ່າມັນໄດ້ຖືກບັນທຶກໄວ້ວ່າເປັນ "Top Ten") ກ່ຽວກັບສິ່ງທີ່ຂ້ອຍໄດ້ກ່າວເຖິງໂດຍທົ່ວໄປວ່າເປັນເທວະດາຜູ້ປົກຄອງ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ສະຫຼຸບ
ຂ້ອຍຮູ້ວ່າເຈົ້າກຳລັງຄິດຫຍັງ. ຖ້າພວກເຮົາມີ AI ທີ່ດີທີ່ຕັ້ງໄວ້ເພື່ອປົກປ້ອງພວກເຮົາ, ສົມມຸດວ່າ AI ທີ່ດີຖືກທໍາລາຍກາຍເປັນ Bad AI. ປະໂຫຍກພາສາລາຕິນທີ່ມີຊື່ສຽງ ຫຼືບໍ່ມີຊື່ສຽງເບິ່ງຄືວ່າກ່ຽວຂ້ອງກັບຄວາມເປັນໄປໄດ້ນີ້: ການດູແລຮັກສາແມ່ນບໍ່?
ປະໂຫຍກນີ້ແມ່ນມາຈາກນັກກະວີ Roman Juvenal ແລະສາມາດພົບໄດ້ໃນວຽກງານຂອງລາວທີ່ມີຊື່ວ່າ ອີ່ມຕົວ, ແລະສາມາດແປໄດ້ວ່າງເປັນຄວາມຫມາຍຜູ້ທີ່ຈະປົກຄອງຫຼືເບິ່ງກອງດ້ວຍຕົນເອງ. ຮູບເງົາແລະລາຍການໂທລະພາບຈໍານວນຫຼາຍເຊັ່ນ: Star Trek ໄດ້ນຳໃຊ້ເສັ້ນນີ້ຊ້ຳແລ້ວຊ້ຳອີກ.
ນັ້ນແນ່ນອນເພາະວ່າມັນເປັນຈຸດທີ່ດີເລີດ.
ແນ່ນອນວ່າ, ກົດຫມາຍ AI ໃດໆທີ່ຖືກປະກາດໃຊ້ຈະຕ້ອງກວມເອົາທັງ AI ທີ່ບໍ່ດີແລະແມ້ກະທັ້ງ AI ທີ່ດີທີ່ຈະບໍ່ດີ. ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າມັນຈະເປັນການສໍາຄັນທີ່ຈະຂຽນກົດຫມາຍ AI ທີ່ສົມເຫດສົມຜົນແລະຄົບຖ້ວນ. ບັນດານັກກົດໝາຍທີ່ພະຍາຍາມຖິ້ມນັກກົດໝາຍແບບສຸ່ມໃສ່ຝາ ແລະຫວັງວ່າມັນຍຶດໝັ້ນກັບກົດໝາຍ AI ຈະພົບວ່າຕົນເອງຂາດເປົ້າໝາຍຢ່າງເລິກເຊິ່ງ.
ພວກເຮົາບໍ່ຕ້ອງການນັ້ນ.
ພວກເຮົາບໍ່ມີເວລາຫຼືບໍ່ສາມາດແບກຫາບຄ່າໃຊ້ຈ່າຍຂອງສັງຄົມເພື່ອຮັບມືກັບກົດໝາຍ AI ທີ່ວາງໄວ້ບໍ່ພຽງພໍ. ຂ້ອຍໄດ້ຊີ້ໃຫ້ເຫັນວ່າເປັນຕາເສຍໃຈໃນບາງຄັ້ງທີ່ພວກເຮົາກໍາລັງເຫັນກົດຫມາຍທີ່ກ່ຽວຂ້ອງກັບ AI ໃຫມ່ທີ່ປະກອບດ້ວຍບໍ່ດີແລະເຕັມໄປດ້ວຍພະຍາດທາງດ້ານກົດຫມາຍທຸກປະເພດ, ເບິ່ງຕົວຢ່າງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບກົດຫມາຍການກວດສອບ AI Biases ຂອງນະຄອນນິວຢອກ (NYC) ຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.
ໃຫ້ແນ່ໃຈວ່າພວກເຮົານໍາໃຊ້ແຜນຮ່າງຂອງ AI Bill of Rights ທີ່ພວກເຮົາມີຢູ່ໃນມືໃນປັດຈຸບັນກ່ຽວກັບ AI ຢ່າງເຫມາະສົມ. ຖ້າຫາກວ່າພວກເຮົາບໍ່ສົນໃຈແຜນການ, ພວກເຮົາໄດ້ສູນເສຍການທີ່ໄດ້ກ້າວຂຶ້ນເກມຂອງພວກເຮົາ. ຖ້າຫາກວ່າພວກເຮົາປະຕິບັດແຜນຮ່າງທີ່ຜິດພາດ, ຄວາມອັບອາຍກ່ຽວກັບພວກເຮົາສໍາລັບການ usurped ພື້ນຖານທີ່ເປັນປະໂຫຍດ.
ນັກກະວີຊາວໂຣມັນທີ່ນັບຖື Juvenal ເວົ້າອີກຢ່າງ ໜຶ່ງ ທີ່ພວກເຮົາສາມາດ ນຳ ໃຊ້ໃນສະຖານະການນີ້: Anima sana ໃນ corpore sano.
ໂດຍທົ່ວໄປ, ນີ້ແປວ່າການຢືນຢັນວ່າມັນຈະເປັນການສຸຂະພາບທີ່ມີທັງຈິດໃຈທີ່ມີສຸຂະພາບແລະສຸພາບຫຼືຮ່າງກາຍທີ່ມີສຸຂະພາບ. ນີ້ອະນຸຍາດໃຫ້ພວກເຮົາທົນທຸກປະເພດຂອງການຍາກລໍາບາກ, ອີງຕາມການ Juvenal, ແລະແນ່ນອນວ່າຈະເປັນເສັ້ນທາງດຽວກັບຊີວິດຂອງສັນຕິພາບຫຼືຄຸນງາມຄວາມດີ.
ເວລາທີ່ພວກເຮົາຕ້ອງໃຊ້ຈິດໃຈທີ່ດີແລະຮ່າງກາຍທີ່ດີເພື່ອໃຫ້ແນ່ໃຈວ່າພວກເຮົາຮັບປະກັນວ່າມະນຸດຈະມີສິດທິມະນຸດຂອງພວກເຮົາຖືກຮັກສາໄວ້ແລະເຂັ້ມແຂງຢ່າງຫນັກແຫນ້ນໃນໂລກທີ່ພົ້ນເດັ່ນຂື້ນທີ່ເກີດຂື້ນຢູ່ທົ່ວທຸກແຫ່ງແລະບາງຄັ້ງກໍ່ບໍ່ຂຶ້ນກັບ AI. ນັ້ນແມ່ນ ຄຳ ແນະ ນຳ ທີ່ດີຈາກຊາວໂຣມັນທີ່ພວກເຮົາຄວນຍຶດ ໝັ້ນ ໃນຄວາມຮີບດ່ວນຂອງມື້ນີ້ທ່າມກາງຍຸກ AI pell-mell ແລະອະນາຄົດທີ່ເຕັມໄປດ້ວຍ AI ທັງດີແລະບໍ່ດີ.
ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- ໃບບິນສິດ-ລວມທັງ-ແລະ-ອັດສະຈັນ-ໂດຍ-ນຳໃຊ້-ai-outrightly/