ຈັນຍາບັນ AI ແລະກົດ ໝາຍ AI ຊີ້ແຈງສິ່ງທີ່ເປັນຄວາມຈິງ AI ທີ່ເຊື່ອຖືໄດ້

ຄວາມໄວ້ວາງໃຈແມ່ນທຸກສິ່ງທຸກຢ່າງ, ດັ່ງນັ້ນເຂົາເຈົ້າເວົ້າວ່າ.

ນັກປັດຊະຍາລາວ ຈູ່ ກ່າວໄວ້ວ່າ ຜູ້ທີ່ບໍ່ເຊື່ອຖືພຽງພໍຈະບໍ່ເຊື່ອຖືໄດ້. Ernest Hemingway, ນັກຂຽນນະວະນິຍາຍທີ່ມີຊື່ສຽງ, ກ່າວວ່າວິທີທີ່ດີທີ່ສຸດທີ່ຈະຮູ້ວ່າທ່ານສາມາດໄວ້ວາງໃຈບາງຄົນໄດ້ໂດຍການໄວ້ວາງໃຈພວກເຂົາ.

ໃນ​ຂະ​ນະ​ດຽວ​ກັນ, ມັນ​ເບິ່ງ​ຄື​ວ່າ​ຄວາມ​ໄວ້​ວາງ​ໃຈ​ແມ່ນ​ທັງ​ມີ​ຄ່າ​ແລະ brittle. ຄວາມ​ໄວ້​ວາງ​ໃຈ​ທີ່​ຄົນ​ເຮົາ​ມີ​ສາ​ມາດ​ພັງ​ທະ​ລາຍ​ລົງ​ຄື​ກັບ​ເຮືອນ​ຂອງ​ບັດ​ຫຼື​ກະ​ທັນ​ຫັນ​ຄື​ກັບ​ປູມ​ເປົ້າ​ທີ່​ແຕກ​ອອກ​.

Sophocles ໂສກເສົ້າຂອງຊາວກຣີກບູຮານໄດ້ຢືນຢັນວ່າຄວາມໄວ້ວາງໃຈຕາຍແຕ່ຄວາມໄວ້ວາງໃຈບໍ່ຫນ້າເຊື່ອ. ນັກປັດຊະຍາຊາວຝຣັ່ງ ແລະນັກຄະນິດສາດ Descartes ໂຕ້ແຍ້ງວ່າມັນເປັນເລື່ອງທີ່ສຸຂຸມທີ່ຈະບໍ່ໄວ້ວາງໃຈຜູ້ທີ່ຫລອກລວງພວກເຮົາທັງໝົດຈັກເທື່ອ. ມະຫາເສດຖີນັກລົງທືນທາງທຸລະກິດ ມະຫາເສດຖີ Warren Buffett ໄດ້ຊັກຊວນວ່າຕ້ອງໃຊ້ເວລາຊາວປີເພື່ອສ້າງຊື່ສຽງທີ່ໜ້າເຊື່ອຖື ແລະຫ້ານາທີເພື່ອທຳລາຍມັນ.

ທ່ານອາດຈະຕົກຕະລຶງທີ່ຮູ້ວ່າທັດສະນະທີ່ແຕກຕ່າງກັນທັງຫມົດເຫຼົ່ານີ້ແລະຄວາມຄິດເຫັນທີ່ກະຕຸ້ນກ່ຽວກັບຄວາມໄວ້ວາງໃຈແມ່ນສໍາຄັນຕໍ່ການມາເຖິງຂອງ Artificial Intelligence (AI).

ແມ່ນແລ້ວ, ມີບາງສິ່ງບາງຢ່າງທີ່ອ້າງເຖິງຢ່າງຈິງຈັງ AI ທີ່ເຊື່ອຖືໄດ້ ເຊິ່ງເຮັດໃຫ້ໄດ້ຮັບຄວາມສົນໃຈເປັນຈຳນວນຫຼວງຫຼາຍໃນທຸກວັນນີ້, ລວມທັງການຈັບມືກັນດ້ວຍມືຈາກພາຍໃນສະໜາມຂອງ AI ແລະຍັງມີສຽງດັງທີ່ອອກມາຈາກຜູ້ທີ່ຢູ່ນອກໂລກ AI. ແນວຄິດໂດຍລວມປະກອບມີວ່າສັງຄົມຈະເຕັມໃຈທີ່ຈະໄວ້ວາງໃຈໃນລະບົບ AI ຫຼືບໍ່.

ສົມມຸດວ່າ, ຖ້າສັງຄົມບໍ່ເຊື່ອ AI, ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າລະບົບ AI ຈະລົ້ມເຫລວ. AI ດັ່ງທີ່ພວກເຮົາຮູ້ໃນປັດຈຸບັນມັນຈະຖືກຍູ້ອອກໄປແລະພຽງແຕ່ເກັບຂີ້ຝຸ່ນ. ເປັນເລື່ອງທີ່ໜ້າຕົກໃຈ, AI ສາມາດຈົບລົງໃນກອງຂີ້ເຫຍື້ອ, ໄດ້ຖືກປ່ອຍຕົວໄປໃນປະຫວັດສາດ ບໍ່ມີຫຍັງນອກເໜືອໄປຈາກການທົດລອງເທັກໂນໂລຍີສູງທີ່ພະຍາຍາມຢ່າງສິ້ນເຊີງ ແຕ່ປະສົບຄວາມສຳເລັດຢ່າງໜ້າປະທັບໃຈ. ຄວາມພະຍາຍາມໃດໆທີ່ຈະຟື້ນຟູ AI ອາດຈະປະເຊີນກັບການສູ້ຮົບທີ່ສູງຂື້ນຢ່າງໃຫຍ່ຫຼວງແລະຖືກຢຸດໂດຍການຄັດຄ້ານແລະການປະທ້ວງຢ່າງຈິງຈັງ. ແນ່ນອນວ່າ, ເນື່ອງຈາກການຂາດຄວາມໄວ້ວາງໃຈໃນ AI.

ມັນຈະເປັນອັນໃດ, ພວກເຮົາໄວ້ວາງໃຈໃນ AI, ຫຼືພວກເຮົາບໍ່ໄວ້ວາງໃຈໃນ AI?

ໂດຍເນື້ອແທ້ແລ້ວ, ພວກເຮົາຈະມີ AI ທີ່ເຊື່ອຖືໄດ້ແທ້ໆບໍ?

ເຫຼົ່ານັ້ນແມ່ນຄໍາຖາມທີ່ຜ່ານມາແລະຍັງບໍ່ໄດ້ຮັບການແກ້ໄຂ. ໃຫ້ພວກເຮົາເອົາມັນອອກ.

ຈັນຍາບັນ AI ແລະການຕໍ່ສູ້ກັບ AI ທີ່ເຊື່ອຖືໄດ້

ຄວາມເຊື່ອຂອງຫຼາຍໆຄົນພາຍໃນ AI ແມ່ນວ່າຜູ້ພັດທະນາລະບົບ AI ສາມາດສ້າງຄວາມໄວ້ວາງໃຈໃນ AI ໂດຍການສ້າງ AI ທີ່ເຊື່ອຖືໄດ້ຢ່າງເຫມາະສົມ. ໂດຍເນື້ອແທ້ແລ້ວແມ່ນທ່ານບໍ່ສາມາດຫວັງວ່າຈະໄດ້ຮັບຄວາມໄວ້ວາງໃຈຖ້າ AI ເບິ່ງຄືວ່າບໍ່ມີຄວາມຫນ້າເຊື່ອຖືໃນເວລາໄປ. ໂດຍການສ້າງລະບົບ AI ໃນຮູບແບບທີ່ຮັບຮູ້ວ່າມີຄວາມຫນ້າເຊື່ອຖື, ມີໂອກາດທີ່ເຂັ້ມແຂງທີ່ປະຊາຊົນຈະຍອມຮັບ AI ແລະຮັບຮອງເອົາ AI ນໍາໃຊ້.

ສິ່ງຫນຶ່ງທີ່ຂີ້ຕົວະຢູ່ໃນການພິຈາລະນາ AI ທີ່ຫນ້າເຊື່ອຖືນີ້ແມ່ນວ່າພວກເຮົາອາດຈະຢູ່ໃນ a ການ​ຂາດ​ດຸນ​ຄວາມ​ເຊື່ອ​ຖື​ສາ​ທາ​ລະ​ນະ ໃນເວລາທີ່ມັນມາກັບ AI. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າ AI ທີ່ພວກເຮົາໄດ້ເຫັນແລ້ວໄດ້ຂຸດຂຸມແລະໄດ້ຖິ້ມຄວາມໄວ້ວາງໃຈໃນຈໍານວນຫຼວງຫຼາຍ. ດັ່ງນັ້ນ, ແທນທີ່ຈະເລີ່ມຕົ້ນຢູ່ໃນພື້ນຖານຄວາມຫນ້າເຊື່ອຖືທີ່ພຽງພໍ, AI ຈະຕ້ອງປີນຂຶ້ນອອກຈາກການຂາດດຸນຢ່າງປະຫລາດໃຈ, ຍຶດເອົາແຕ່ລະອໍຂອງຄວາມຫນ້າເຊື່ອຖືເພີ່ມເຕີມທີ່ຕ້ອງການເພື່ອເຮັດໃຫ້ຄົນເຊື່ອວ່າ AI ມີຄວາມຫນ້າເຊື່ອຖື.

ເຂົ້າໄປໃນສິ່ງທ້າທາຍນີ້ມາເຖິງຈັນຍາບັນ AI ແລະກົດຫມາຍ AI.

ຈັນຍາບັນຂອງ AI ແລະກົດໝາຍ AI ກໍາລັງຕໍ່ສູ້ຢ່າງແຮງກັບການພະຍາຍາມຊອກຫາສິ່ງທີ່ມັນຈະຕ້ອງໃຊ້ເພື່ອເຮັດໃຫ້ AI ເຊື່ອຖືໄດ້. ບາງຄົນແນະນໍາວ່າມີສູດຫຼືກົດຫມາຍທາດເຫຼັກທີ່ຈະເຮັດໃຫ້ AI ເຂົ້າໄປໃນສະຫວັນທີ່ຫນ້າເຊື່ອຖື. ຄົນອື່ນຊີ້ໃຫ້ເຫັນວ່າມັນຈະຕ້ອງເຮັດວຽກຫນັກແລະສອດຄ່ອງແລະບໍ່ຍຶດຫມັ້ນກັບຈັນຍາບັນຂອງ AI ແລະຫຼັກການກົດຫມາຍ AI ເພື່ອໃຫ້ໄດ້ຮັບຄວາມໄວ້ວາງໃຈຂອງສັງຄົມ.

enigma ປະຈຸບັນກ່ຽວກັບຄວາມໄວ້ວາງໃຈໃນ AI ບໍ່ແມ່ນສິ່ງໃຫມ່ໂດຍສະເພາະ.

ທ່ານສາມາດກັບຄືນສູ່ທ້າຍຊຸມປີ 1990 ໄດ້ຢ່າງງ່າຍດາຍແລະຕິດຕາມການປະກົດຕົວຂອງຄວາມປາຖະຫນາສໍາລັບ "ຄອມພິວເຕີ້ທີ່ເຊື່ອຖືໄດ້" ຈາກມື້ນັ້ນ. ນີ້​ແມ່ນ​ຄວາມ​ພະ​ຍາ​ຍາມ​ຂະ​ຫນາດ​ໃຫຍ່​ເຕັກ​ໂນ​ໂລ​ຊີ​ອຸດ​ສາ​ຫະ​ກໍາ​ເພື່ອ​ແນມ​ເບິ່ງ​ວ່າ​ຄອມ​ພິວ​ເຕີ​ທັງ​ຫມົດ​ທີ່​ໄດ້​ບອກ​ສາ​ມາດ​ເຮັດ​ໄດ້​ໃນ​ລັກ​ສະ​ນະ​ທີ່​ຈະ​ໄດ້​ຮັບ​ຄວາມ​ເຊື່ອ​ຖື​ຂອງ​ສັງ​ຄົມ.

ຄໍາ​ຖາມ​ທີ່​ສໍາ​ຄັນ​ປະ​ກອບ​ດ້ວຍ​:

  • ຮາດແວຄອມພິວເຕີສາມາດເຮັດໄດ້ເຊັ່ນວ່າມັນເປັນທີ່ເຊື່ອຖືໄດ້ບໍ?
  • ຊອບແວສາມາດຖືກສ້າງຂື້ນເພື່ອໃຫ້ມັນຫນ້າເຊື່ອຖືໄດ້ບໍ?
  • ພວກເຮົາສາມາດຈັດວາງຄອມພິວເຕີເຄືອຂ່າຍທົ່ວໂລກທີ່ໜ້າເຊື່ອຖືໄດ້ບໍ?
  • ແລະອື່ນໆ.

ຄວາມຮູ້ສຶກທີ່ແຜ່ລາມໃນເວລານັ້ນແລະທີ່ຍັງສືບຕໍ່ຈົນເຖິງທຸກມື້ນີ້ແມ່ນວ່າຄອມພິວເຕີ້ທີ່ຫນ້າເຊື່ອຖືຍັງຄົງເປັນປະເພດຂອງ grail ສັກສິດທີ່ຫນ້າເສຍໃຈທີ່ຍັງບໍ່ຢູ່ໃນຂອບເຂດຂອງພວກເຮົາ (ດັ່ງທີ່ບັນທຶກໄວ້ໃນເອກະສານທີ່ມີຊື່ວ່າ "AI Trustworthy" ໃນ ການສື່ສານຂອງ ACM). ເຈົ້າສາມາດໂຕ້ແຍ້ງຢ່າງໝັ້ນໃຈວ່າ AI ແມ່ນສ່ວນປະກອບອີກອັນໜຶ່ງຂອງລະບົບຄວາມໜ້າເຊື່ອຖືຂອງຄອມພິວເຕີ, ແຕ່ AI ເຮັດໃຫ້ການສະແຫວງຫາຄວາມໄວ້ເນື້ອເຊື່ອໃຈມີຄວາມທ້າທາຍ ແລະ ບໍ່ແນ່ນອນຫຼາຍຂຶ້ນ. AI ໄດ້ກາຍເປັນຕົວທໍາລາຍທີ່ມີທ່າແຮງໃນການຕໍ່ສູ້ເພື່ອບັນລຸຄອມພິວເຕີ້ທີ່ເຊື່ອຖືໄດ້. ອາດຈະເປັນການເຊື່ອມໂຍງທີ່ອ່ອນແອທີ່ສຸດໃນລະບົບຕ່ອງໂສ້, ຍ້ອນວ່າມັນເປັນ.

ລອງພິຈາລະນາເບິ່ງວ່າ ເປັນຫຍັງ AI ຈຶ່ງເຮັດໃຫ້ພວກເຮົາມີຄວາມໜ້າເຊື່ອຖືໜ້ອຍກວ່າຄວາມໜ້າເຊື່ອຖືໄດ້. ນອກຈາກນັ້ນ, ພວກເຮົາຈະຄົ້ນຫາຫຼັກການຂອງຈັນຍາບັນ AI ທີ່ຫວັງວ່າຈະຊ່ວຍສົ່ງເສີມຄວາມໄວ້ວາງໃຈທີ່ຮັບຮູ້ເຄິ່ງໃຕ້ນ້ໍາ (ຫຼືຄວາມບໍ່ໄວ້ວາງໃຈ) ຂອງ AI ໃນມື້ນີ້. ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.

ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະສາມາດກວດສອບໄດ້, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ໃຫ້ພວກເຮົາຜູກມັດນີ້ກັບຄໍາຖາມກ່ຽວກັບ AI ທີ່ເຊື່ອຖືໄດ້

ພວກເຮົາແນ່ນອນວ່າເບິ່ງຄືວ່າບໍ່ເຕັມໃຈທີ່ຈະໄວ້ວາງໃຈ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມລໍາອຽງທາງລົບແລະການກະທໍາທີ່ຈໍາແນກ. ຄວາມເຊື່ອຂອງພວກເຮົາ, ໃນກໍລະນີນັ້ນ, ອາດຈະເປັນວ່າ AI ດັ່ງກ່າວແມ່ນບໍ່ຫນ້າເຊື່ອຖື, ດັ່ງນັ້ນພວກເຮົາຈະມຸ່ງຫນ້າໄປສູ່ຄວາມບໍ່ໄວ້ວາງໃຈ AI ຢ່າງຈິງຈັງ. ໂດຍບໍ່ມີການຂ້າມໄປກັບການປຽບທຽບ anthropomorphic (ຂ້າພະເຈົ້າຈະເວົ້າເພີ່ມເຕີມກ່ຽວກັບ AI anthropomorphizing ໃນເວລານີ້), ມະນຸດທີ່ສະແດງຄວາມລໍາອຽງທີ່ບໍ່ມີຄວາມລໍາອຽງກໍ່ຈະຖືກຈັດອັນດັບວ່າບໍ່ມີຄວາມຫນ້າເຊື່ອຖືໂດຍສະເພາະ.

ຂຸດເຂົ້າໄປໃນຄວາມໄວ້ວາງໃຈແລະຄວາມຫນ້າເຊື່ອຖື

ບາງທີພວກເຮົາຄວນຈະພິຈາລະນາສິ່ງທີ່ພວກເຮົາຫມາຍຄວາມວ່າໃນເວລາທີ່ຢືນຢັນວ່າພວກເຮົາເຮັດຫຼືບໍ່ໄວ້ວາງໃຈໃຜຜູ້ຫນຶ່ງຫຼືບາງສິ່ງບາງຢ່າງ. ທໍາອິດ, ພິຈາລະນາຄໍານິຍາມຂອງວັດຈະນານຸກົມປະຈໍາວັນຫຼາຍຄວາມໄວ້ວາງໃຈ.

ຕົວຢ່າງຂອງຄວາມຫມາຍຄວາມໄວ້ວາງໃຈແມ່ນ:

  • ການເອື່ອຍອີງຢ່າງແນ່ນອນກ່ຽວກັບລັກສະນະ, ຄວາມສາມາດ, ຄວາມເຂັ້ມແຂງ, ຫຼືຄວາມຈິງຂອງໃຜຜູ້ຫນຶ່ງຫຼືບາງສິ່ງບາງຢ່າງ (ວັດຈະນານຸກົມ Merriam-Webster ອອນໄລນ໌).
  • ອີງໃສ່ຄວາມຊື່ສັດ, ຄວາມເຂັ້ມແຂງ, ຄວາມສາມາດ, ຄວາມແນ່ນອນ, ແລະອື່ນໆ, ຂອງບຸກຄົນຫຼືສິ່ງຂອງ (ວັດຈະນານຸກົມ.com)
  • ຄວາມເຊື່ອໝັ້ນໃນຄວາມໜ້າເຊື່ອຖື, ຄວາມຈິງ, ຄວາມສາມາດ, ຫຼືຄວາມເຂັ້ມແຂງຂອງຜູ້ໃດຜູ້ໜຶ່ງ ຫຼືບາງສິ່ງບາງຢ່າງ (Oxford Languages ​​online dictionary).

ຂ້າພະເຈົ້າຢາກຊີ້ໃຫ້ເຫັນວ່າທຸກໆຄໍານິຍາມເຫຼົ່ານັ້ນຫມາຍເຖິງ "ບາງຄົນ" ແລະເຊັ່ນດຽວກັນຫມາຍເຖິງ "ບາງສິ່ງບາງຢ່າງ" ວ່າມີຄວາມຫນ້າເຊື່ອຖື. ອັນນີ້ເປັນເລື່ອງທີ່ໜ້າສັງເກດ ເພາະວ່າບາງຄົນອາດຮຽກຮ້ອງໃຫ້ພວກເຮົາເຊື່ອໃຈມະນຸດເທົ່ານັ້ນ ແລະວ່າຄວາມໄວ້ວາງໃຈແມ່ນສະຫງວນໄວ້ສະເພາະສຳລັບມະນຸດເທົ່ານັ້ນທີ່ເປັນເປົ້າໝາຍຄວາມໜ້າເຊື່ອຖືຂອງພວກເຮົາ. ບໍ່ດັ່ງນັ້ນ. ທ່ານ​ສາ​ມາດ​ມີ​ຄວາມ​ໄວ້​ວາງ​ໃຈ​ໃນ toaster ເຮືອນ​ຄົວ​ຂອງ​ທ່ານ​. ຖ້າມັນເບິ່ງຄືວ່າຈະເຮັດໃຫ້ເຕົາອົບຂອງເຈົ້າມີຄວາມ ໜ້າ ເຊື່ອຖືແລະເຮັດວຽກເປັນປົກກະຕິເພື່ອເຮັດແນວນັ້ນ, ເຈົ້າສາມາດມີຄວາມ ໜ້າ ເຊື່ອຖືໄດ້ຢ່າງແນ່ນອນວ່າເຄື່ອງເຕົາອົບແມ່ນມີຄວາມ ໜ້າ ເຊື່ອຖືຫຼືບໍ່.

ໃນແນວຄິດດຽວກັນນັ້ນ, AI ຍັງສາມາດເປັນຫົວເລື່ອງຂອງທັດສະນະຄວາມໄວ້ວາງໃຈຂອງພວກເຮົາ. ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າຄວາມໄວ້ວາງໃຈທີ່ກ່ຽວຂ້ອງກັບ AI ຈະມີຄວາມສັບສົນຫຼາຍກ່ວາການເວົ້າເຄື່ອງປັ້ນດິນເຜົາໂລກ. ເຄື່ອງເຮັດເຄື່ອງປັ້ນດິນເຜົາສາມາດປະຕິບັດໄດ້ພຽງແຕ່ສອງສາມມືເທົ່ານັ້ນ. ລະບົບ AI ມີແນວໂນ້ມທີ່ຈະມີຄວາມຊັບຊ້ອນຫຼາຍ ແລະປະກົດວ່າເຮັດວຽກບໍ່ໂປ່ງໃສ. ຄວາມສາມາດຂອງພວກເຮົາໃນການປະເມີນ ແລະຢືນຢັນຄວາມໜ້າເຊື່ອຖືຂອງ AI ແມ່ນມີຄວາມຜູກມັດທີ່ໜັກໜ່ວງກວ່າ ແລະມີຄວາມທ້າທາຍທີ່ແຕກຕ່າງ.

ນອກເຫນືອຈາກພຽງແຕ່ສະລັບສັບຊ້ອນຫຼາຍ, ລະບົບ AI ປົກກະຕິໄດ້ຖືກກ່າວວ່າບໍ່ຖືກກໍານົດແລະມີທ່າແຮງໃນການຄວບຄຸມຕົນເອງຫຼືການປັບຕົວ. ພວກເຮົາສາມາດຄົ້ນຫາແນວຄິດນັ້ນໄລຍະສັ້ນໆ.

ເຄື່ອງຈັກທີ່ມີຄວາມຕັ້ງໃຈມັກຈະເຮັດສິ່ງດຽວກັນຊ້ຳແລ້ວຊ້ຳອີກ, ຄາດເດົາໄດ້ ແລະ ມີຮູບແບບທີ່ເຫັນໄດ້ຊັດເຈນວ່າມັນເຮັດວຽກແນວໃດ. ເຈົ້າອາດເວົ້າໄດ້ວ່າເຄື່ອງເຕົາອົບທົ່ວໄປຈະປະມານແບບດຽວກັນ ແລະ ມີການຄວບຄຸມການປີ້ງໃຫ້ປານກາງການປີ້ງ, ເຊິ່ງໂດຍທົ່ວໄປແລ້ວແມ່ນຜູ້ທີ່ໃຊ້ເຄື່ອງເຮັດເຕົາອົບ. ໃນທາງກົງກັນຂ້າມ, ລະບົບ AI ທີ່ສັບສົນມັກຈະຖືກອອກແບບໃຫ້ບໍ່ມີຄວາມຕັ້ງໃຈ, ຊຶ່ງຫມາຍຄວາມວ່າພວກເຂົາອາດຈະເຮັດສິ່ງທີ່ແຕກຕ່າງກັນເກີນກວ່າທີ່ເຈົ້າອາດຈະຄາດຫວັງ. ບາງສ່ວນນີ້ອາດຈະຖືກຂະຫຍາຍອອກຕື່ມອີກຖ້າ AI ຖືກຂຽນເພື່ອປັບຕົວມັນເອງ, ລັກສະນະທີ່ສາມາດຊ່ວຍໃຫ້ AI ປັບປຸງໃນກໍລະນີຂອງ ML / DL, ເຖິງແມ່ນວ່າສາມາດເຮັດໃຫ້ AI ລົ້ມລົງຫຼືເຂົ້າໄປໃນອັນດັບ. ຂອງ​ຄວາມ​ບໍ່​ດີ AI. ທ່ານອາດຈະບໍ່ຮູ້ວ່າສິ່ງທີ່ຕີທ່ານ, ໃນລັກສະນະການເວົ້າ, ຍ້ອນວ່າທ່ານໄດ້ຖືກຈັບກຸມໂດຍການກະທໍາຂອງ AI.

ພວກເຮົາອາດຈະເຮັດແນວໃດເພື່ອພະຍາຍາມແລະເຮັດໃຫ້ AI ໃກ້ຊິດກັບຄວາມຫນ້າເຊື່ອຖື?

ວິທີການຫນຶ່ງປະກອບດ້ວຍຄວາມພະຍາຍາມເພື່ອຮັບປະກັນວ່າການກໍ່ສ້າງແລະພາກສະຫນາມ AI ເຫຼົ່ານັ້ນແມ່ນປະຕິບັດຕາມຂໍ້ກໍານົດຂອງຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ກ່າວໂດຍນັກຄົ້ນຄວ້າ AI ເຫຼົ່ານີ້: "ຄວາມໄວ້ວາງໃຈແມ່ນທັດສະນະຄະຕິທີ່ຕົວແທນຈະປະຕິບັດຕົວຕາມທີ່ຄາດໄວ້ແລະສາມາດອີງໃສ່ເພື່ອບັນລຸເປົ້າຫມາຍຂອງມັນ. ຄວາມໄວ້ວາງໃຈແຕກຫັກຫຼັງຈາກຄວາມຜິດພາດຫຼືຄວາມເຂົ້າໃຈຜິດລະຫວ່າງຕົວແທນແລະບຸກຄົນທີ່ໄວ້ວາງໃຈ. ສະຖານະທາງດ້ານຈິດໃຈຂອງຄວາມໄວ້ວາງໃຈໃນ AI ແມ່ນຊັບສິນທີ່ເກີດຂື້ນຂອງລະບົບທີ່ສັບສົນ, ປົກກະຕິແລ້ວປະກອບມີຫຼາຍວົງຈອນຂອງການອອກແບບ, ການຝຶກອົບຮົມ, ການປະຕິບັດ, ການວັດແທກການປະຕິບັດ, ກົດລະບຽບ, ການອອກແບບໃຫມ່, ແລະການຝຶກອົບຮົມຄືນໃຫມ່” ການສື່ສານຂອງ ACM, “ຄວາມໄວ້ເນື້ອເຊື່ອໃຈ, ລະບຽບ ແລະ AI ຂອງມະນຸດໃນພາກພື້ນເອີຣົບ” ໂດຍ Stuart Middleton, Emmanuel Letouze, Ali Hossaini, ແລະ Adriane Chapman, ເດືອນເມສາ 2022).

ພື້ນຖານແມ່ນວ່າຖ້າພວກເຮົາສາມາດໃຫ້ຜູ້ພັດທະນາ AI ປະຕິບັດຕາມຈັນຍາບັນ AI, ພວກເຂົາຫວັງວ່າຈະສິ້ນສຸດການຜະລິດ AI ທີ່ເຊື່ອຖືໄດ້. ນີ້ແມ່ນທັງຫມົດທີ່ດີແລະດີ, ແຕ່ມັນເບິ່ງຄືວ່າບໍ່ມີປະໂຫຍດບາງຢ່າງກ່ຽວກັບພື້ນຖານທີ່ແທ້ຈິງ, ເຖິງແມ່ນວ່າມັນເປັນເສັ້ນທາງທີ່ສົມຄວນທີ່ຈະຕິດຕາມ.

ນີ້ແມ່ນສິ່ງທີ່ຂ້ອຍ ໝາຍ ຄວາມວ່າ.

ສົມມຸດວ່າຄວາມພະຍາຍາມຢ່າງພາກພຽນແມ່ນດໍາເນີນໂດຍຜູ້ພັດທະນາ AI ປະດິດລະບົບ AI ເພື່ອຈຸດປະສົງບາງຢ່າງທີ່ໂດຍທົ່ວໄປແລ້ວພວກເຮົາຈະເອີ້ນວ່າ X. ພວກເຂົາເຮັດໃຫ້ແນ່ໃຈວ່າ AI ປະຕິບັດຕາມກົດລະບຽບຄວາມໂປ່ງໃສຂອງຈັນຍາບັນ AI. ພວກເຂົາເຈົ້າຮັບປະກັນຢ່າງຈິງຈັງວ່າຄວາມເປັນສ່ວນຕົວຖືກສ້າງຂື້ນໃນ AI ທີ່ເຫມາະສົມ. ສຳລັບເກືອບທັງໝົດຂອງຫຼັກຈັນຍາບັນຂອງ AI ປົກກະຕິ, ຜູ້ສ້າງ AI ຮັບປະກັນຢ່າງຄົບຖ້ວນວ່າ AI ກົງກັບຫຼັກການທີ່ກຳນົດໄວ້.

ດຽວນີ້ເຈົ້າຄວນເຊື່ອ AI ນັ້ນບໍ?

ອະນຸຍາດໃຫ້ຂ້າພະເຈົ້າຊ່ວຍ percolate ຄວາມຄິດຂອງທ່ານກ່ຽວກັບຄໍາຖາມເປີດນັ້ນ.

ປະກົດວ່າພວກໂຈນທາງໄຊເບີສາມາດແຊກຊຶມເຂົ້າ AI ແລະ sneakily ເອົາ AI ເພື່ອປະຕິບັດ X ແລະຍັງໃຫ້ຂໍ້ມູນທັງຫມົດຂອງແຮັກເກີໄຊເບີທີ່ AI ກໍາລັງເກັບກໍາ. ໂດຍ​ການ​ເຮັດ​ແນວ​ນັ້ນ, ຜູ້​ກະ​ທຳ​ຊົ່ວ​ເຫຼົ່າ​ນີ້​ກຳ​ລັງ​ຕັດ​ສິນ​ທຳ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​ຢ່າງ​ຮ້າຍ​ແຮງ. ເຈົ້າຮູ້ສຶກດີໃຈທີ່ບໍ່ຮູ້ວ່າອັນນີ້ເກີດຂຶ້ນພາຍໃຕ້ຫົວຂອງ AI.

ດ້ວຍຂໍ້ມູນເພີ່ມນັ້ນ, ຂ້ອຍຈະຖາມເຈົ້າຄຳຖາມດຽວກັນອີກຄັ້ງ.

ເຈົ້າເຊື່ອ AI ນັ້ນບໍ?

ຂ້າພະເຈົ້າກ້າເວົ້າວ່າຄົນສ່ວນໃຫຍ່ຈະປະກາດທັນທີວ່າພວກເຂົາແນ່ນອນເຮັດ ບໍ່ ໄວ້ວາງໃຈ AI ໂດຍສະເພາະນີ້. ພວກເຂົາເຈົ້າອາດຈະໄວ້ວາງໃຈມັນກ່ອນຫນ້ານີ້. ດຽວນີ້ພວກເຂົາເລືອກທີ່ຈະບໍ່ພິຈາລະນາ AI ທີ່ເຊື່ອຖືໄດ້ອີກຕໍ່ໄປ.

ຄວາມເຂົ້າໃຈທີ່ສໍາຄັນຈໍານວນຫນຶ່ງໂດຍອີງໃສ່ຕົວຢ່າງທີ່ງ່າຍດາຍນີ້ແມ່ນສົມຄວນທີ່ຈະພິຈາລະນາ:

  • Dynamics of Trust. ເຖິງແມ່ນວ່າຄວາມຕັ້ງໃຈທີ່ດີທີ່ສຸດທີ່ຈະກວມເອົາພື້ນຖານທັງຫມົດຂອງການຮັບປະກັນວ່າຈັນຍາບັນ AI ຖືກສ້າງຂຶ້ນໃນລະບົບ AI ແມ່ນບໍ່ມີການຮັບປະກັນວ່າ AI ອາດຈະກາຍເປັນຫຼືກາຍເປັນ. ເມື່ອ AI ຖືກ ນຳ ໃຊ້ແລ້ວ, ຄົນພາຍນອກສາມາດ ທຳ ລາຍ AI ດ້ານຈັນຍາບັນ.
  • ການຕັດຄວາມໄວ້ວາງໃຈຈາກພາຍໃນ. ການກະທຳເພື່ອຫຼຸດຄວາມໜ້າເຊື່ອຖືບໍ່ຈຳເປັນຈະຕ້ອງເປັນຄົນພາຍນອກ. ພາຍໃນທີ່ດໍາເນີນການຮັກສາລະບົບ AI ເປັນປົກກະຕິອາດຈະເຮັດໃຫ້ AI ອ່ອນເພຍແລະເຮັດໃຫ້ AI ມີຄວາມຫນ້າເຊື່ອຖືຫນ້ອຍລົງ. ຜູ້ພັດທະນາ AI ນີ້ອາດຈະບໍ່ມີຂໍ້ຄຶດກ່ຽວກັບສິ່ງທີ່ເຂົາເຈົ້າໄດ້ເຮັດ.
  • ການປະນີປະນອມຂອງຄວາມເຊື່ອທີ່ບໍ່ຕັ້ງໃຈ. AI ທີ່ປັບຕົວ ຫຼືຄວບຄຸມຕົນເອງໃນບາງຈຸດອາດຈະປັບຕົວມັນເອງ ແລະກ້າວໄປສູ່ອານາເຂດທີ່ບໍ່ໜ້າເຊື່ອຖື. ບາງທີ AI ພະຍາຍາມຊຸກຍູ້ຄວາມໂປ່ງໃສຂອງ AI ແລະພ້ອມໆກັນແລະບໍ່ເຫມາະສົມທີ່ຈະປະນີປະນອມດ້ານຄວາມເປັນສ່ວນຕົວ.
  • ກະແຈກກະຈາຍຄວາມໄວ້ວາງໃຈ. ຄວາມພະຍາຍາມເພື່ອບັນລຸທຸກຫຼັກຈັນຍາບັນຂອງ AI ໃນລະດັບດຽວກັນຂອງຄວາມຫນ້າເຊື່ອຖືສູງສຸດແມ່ນປົກກະຕິແລ້ວບໍ່ສາມາດໃຊ້ໄດ້ງ່າຍຍ້ອນວ່າພວກເຂົາມັກຈະຢູ່ໃນຈຸດປະສົງຂ້າມຫຼືມີຂໍ້ຂັດແຍ່ງທີ່ອາດເກີດຂຶ້ນອື່ນໆ. ມັນເປັນທັດສະນະທີ່ເຫມາະສົມທີ່ສຸດທີ່ຈະເຊື່ອວ່າທຸກໆຂໍ້ປະຕິບັດຂອງ AI ດ້ານຈັນຍາບັນແມ່ນສອດຄ່ອງຕາມຄວາມຝັນແລະທັງຫມົດສາມາດບັນລຸໄດ້ໃນລະດັບສູງສຸດທີ່ເທົ່າທຽມກັນ.
  • ຄວາມໄວ້ວາງໃຈສາມາດມີຄ່າໃຊ້ຈ່າຍຫຼາຍເພື່ອບັນລຸ. ຄ່າໃຊ້ຈ່າຍໃນການພະຍາຍາມແລະບັນລຸຄວາມຄ້າຍຄືກັນຂອງ AI ທີ່ຫນ້າເຊື່ອຖືໂດຍຜ່ານການດໍາເນີນຂັ້ນຕອນຕ່າງໆຢ່າງກວ້າງຂວາງແລະຄົບຖ້ວນສົມບູນແລະປະຕິບັດຕາມຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ແມ່ນຂ້ອນຂ້າງສູງ. ທ່ານສາມາດໂຕ້ຖຽງໄດ້ງ່າຍວ່າຄ່າໃຊ້ຈ່າຍຈະຖືກຫ້າມໃນແງ່ຂອງການເອົາລະບົບ AI ບາງຢ່າງເຂົ້າໃນການນໍາໃຊ້ທີ່ຖ້າບໍ່ດັ່ງນັ້ນມີຄຸນຄ່າທີ່ສໍາຄັນຕໍ່ສັງຄົມ, ເຖິງແມ່ນວ່າ AI ແມ່ນພວກເຮົາຈະເວົ້າຫນ້ອຍກວ່າທີ່ເຫມາະສົມຈາກຄວາມປາຖະຫນາທີ່ຫນ້າເຊື່ອຖື.
  • ແລະອື່ນໆ.

ຢ່າຕີຄວາມໝາຍຜິດໃນຂໍ້ສັງເກດກ່ອນໜ້ານີ້ເພື່ອແນະນຳວ່າພວກເຮົາຄວນຫຼີກລ່ຽງຄວາມພະຍາຍາມເພື່ອສ້າງ AI ທີ່ມີຄວາມໜ້າເຊື່ອຖືຢ່າງເລິກເຊິ່ງ. ສະຫຼຸບແລ້ວເຈົ້າຈະໂຍນລູກອອກດ້ວຍນໍ້າອາບນໍ້າ, ດັ່ງທີ່ມັນເປັນ. ການຕີຄວາມເຫມາະສົມແມ່ນວ່າພວກເຮົາຈໍາເປັນຕ້ອງເຮັດກິດຈະກໍາທີ່ຫນ້າເຊື່ອຖືເຫຼົ່ານັ້ນເພື່ອໃຫ້ AI ເຂົ້າໄປໃນການພິຈາລະນາທີ່ຫນ້າເຊື່ອຖື, ແລະແຕ່ຢ່າງດຽວບໍ່ແມ່ນການປິ່ນປົວທັງຫມົດຫຼືລູກປືນເງິນ.

ເສັ້ນທາງຫຼາຍຈຸດເພື່ອ AI ທີ່ເຊື່ອຖືໄດ້

ມີຫຼາຍວິທີເພີ່ມເຕີມທີ່ສຳຄັນເພື່ອມຸ່ງໄປເຖິງ AI ທີ່ເຊື່ອຖືໄດ້.

ຕົວຢ່າງເຊັ່ນ, ດັ່ງທີ່ຂ້ອຍໄດ້ກວມເອົາໃນຄໍລໍາຂອງຂ້ອຍກ່ອນຫນ້ານີ້, ຫຼາຍໆກົດຫມາຍແລະກົດລະບຽບທີ່ເກີດຂື້ນໃຫມ່ກ່ຽວກັບ AI ມີຈຸດປະສົງເພື່ອຂັບເຄື່ອນຜູ້ຜະລິດ AI ໄປສູ່ການສ້າງ AI ທີ່ເຊື່ອຖືໄດ້, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ການປົກປ້ອງທາງກົດໝາຍເຫຼົ່ານີ້ແມ່ນມີຄວາມສຳຄັນຫຼາຍເປັນວິທີລວມຂອງການເຮັດໃຫ້ແນ່ໃຈວ່າ AI ເຫຼົ່ານັ້ນມີຄວາມຮັບຜິດຊອບຢ່າງເຕັມທີ່ຕໍ່ AI ຂອງພວກເຂົາ. ໂດຍບໍ່ມີການແກ້ໄຂທາງດ້ານກົດຫມາຍທີ່ມີທ່າແຮງດັ່ງກ່າວແລະການລົງໂທດທີ່ຖືກຕ້ອງຕາມກົດຫມາຍ, ຜູ້ທີ່ pell-mell rush AI ເຂົ້າໄປໃນຕະຫຼາດມີແນວໂນ້ມທີ່ຈະສືບຕໍ່ເຮັດແນວນັ້ນຫນ້ອຍ, ຖ້າຄວາມເອົາໃຈໃສ່ທີ່ຮ້າຍແຮງຕໍ່ການບັນລຸ AI ທີ່ເຊື່ອຖືໄດ້. ຂ້າພະເຈົ້າອາດຈະເວົ້າຕື່ມວ່າ, ຖ້າກົດຫມາຍແລະກົດລະບຽບເຫຼົ່ານັ້ນຖືກວາງແຜນທີ່ບໍ່ດີຫຼືປະຕິບັດບໍ່ພຽງພໍ, ເຂົາເຈົ້າອາດຈະເສຍໃຈກັບການສະແຫວງຫາ AI ທີ່ເຊື່ອຖືໄດ້, ບາງທີອາດເຮັດໃຫ້ AI ທີ່ບໍ່ຫນ້າເຊື່ອຖືແລະແປກປະຫຼາດກວ່າ AI ທີ່ຫນ້າເຊື່ອຖື (ເບິ່ງການສົນທະນາຄໍລໍາຂອງຂ້ອຍສໍາລັບຄໍາອະທິບາຍເພີ່ມເຕີມ).

ຂ້າ​ພະ​ເຈົ້າ​ຍັງ​ໄດ້​ເປັນ​ຜູ້​ສະ​ຫນັບ​ສະ​ຫນູນ​ທີ່​ຫມັ້ນ​ຄົງ​ສໍາ​ລັບ​ສິ່ງ​ທີ່​ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ຮັບ​ການ​ອ້າງ​ອີງ​ຢ່າງ​ແຂງ​ແຮງ​ເປັນ AI ຜູ້ປົກຄອງ bots ທູດ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້). ນີ້ແມ່ນວິທີການຫຼືວິທີການທີ່ຈະມາເຖິງຂອງຄວາມພະຍາຍາມທີ່ຈະຕໍ່ສູ້ກັບໄຟໄຫມ້, ຄືການໃຊ້ AI ເພື່ອຊ່ວຍພວກເຮົາໃນການຈັດການກັບ AI ອື່ນໆທີ່ອາດຈະເປັນຫຼືອາດຈະບໍ່ຫນ້າເຊື່ອຖື.

ຫນ້າທໍາອິດ, ບາງສະພາບການພື້ນຖານຈະເປັນປະໂຫຍດ.

ສົມມຸດວ່າທ່ານກໍາລັງເລືອກທີ່ຈະອີງໃສ່ລະບົບ AI ທີ່ທ່ານບໍ່ແນ່ໃຈວ່າຄວາມຫນ້າເຊື່ອຖືຂອງມັນ. ຄວາມກັງວົນທີ່ສໍາຄັນອາດຈະເປັນວ່າທ່ານຢູ່ຄົນດຽວໃນຄວາມພະຍາຍາມຂອງທ່ານທີ່ຈະ ferret ອອກວ່າ AI ຈະຖືກໄວ້ວາງໃຈຫຼືບໍ່. AI ມີທ່າແຮງໃນການຄິດໄລ່ໄວກວ່າເຈົ້າ ແລະສາມາດເອົາປະໂຫຍດຈາກເຈົ້າໄດ້. ທ່ານ​ຕ້ອງ​ການ​ຜູ້​ໃດ​ຜູ້​ຫນຶ່ງ​ຫຼື​ບາງ​ສິ່ງ​ບາງ​ຢ່າງ​ຢູ່​ຂ້າງ​ຂອງ​ທ່ານ​ເພື່ອ​ຊ່ວຍ​ອອກ​.

ທັດສະນະຫນຶ່ງແມ່ນວ່າຄວນຈະມີມະນຸດຢູ່ໃນວົງການສະເຫມີທີ່ຈະໃຫ້ບໍລິການເພື່ອຊ່ວຍທ່ານໃນຂະນະທີ່ທ່ານກໍາລັງໃຊ້ລະບົບ AI. ເຖິງແມ່ນວ່ານີ້ແມ່ນການແກ້ໄຂທີ່ມີບັນຫາ. ຖ້າ AI ເຮັດວຽກໃນເວລາຈິງ, ເຊິ່ງພວກເຮົາຈະສົນທະນາໃນທັນທີໃນເວລາທີ່ມັນມາເຖິງການມາຮອດຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI, ການມີມະນຸດຢູ່ໃນວົງແຫວນອາດຈະບໍ່ພຽງພໍ. AI ອາດຈະປະຕິບັດໃນເວລາຈິງແລະເມື່ອເວລາທີ່ມະນຸດຢູ່ໃນວົງແຫວນທີ່ກໍານົດເຂົ້າໄປໃນຮູບພາບເພື່ອຄິດອອກວ່າ AI ເຮັດວຽກຢ່າງຖືກຕ້ອງ, ຜົນໄດ້ຮັບໄພພິບັດອາດຈະເກີດຂຶ້ນແລ້ວ.

ຫລີກໄປທາງຫນຶ່ງ, ນີ້ນໍາເອົາປັດໄຈອື່ນກ່ຽວກັບຄວາມໄວ້ວາງໃຈ. ປົກກະຕິແລ້ວພວກເຮົາກໍານົດລະດັບຄວາມໄວ້ວາງໃຈໂດຍອີງໃສ່ສະພາບການຫຼືສະຖານະການທີ່ພວກເຮົາກໍາລັງປະເຊີນ. ເຈົ້າອາດຈະໄວ້ວາງໃຈໃຫ້ລູກຊາຍ ຫຼື ລູກສາວຂອງເຈົ້າຊື່ສັດຕໍ່ເຈົ້າຢ່າງເຕັມທີ, ແຕ່ຖ້າເຈົ້າອອກໄປຍ່າງປ່າ ແລະ ຕັດສິນໃຈເພິ່ງພາລູກນ້ອຍທີ່ຈະບອກເຈົ້າວ່າ ປອດໄພບໍທີ່ຈະກ້າວຂຶ້ນເທິງໜ້າຜາ, ຂ້ອຍຄິດວ່າເຈົ້າຄົງຈະສະຫລາດ. ເພື່ອພິຈາລະນາວ່າເດັກນ້ອຍສາມາດໃຫ້ຄຳແນະນຳຊີວິດ ຫຼືຄວາມຕາຍແບບນັ້ນໄດ້ບໍ. ເດັກອາດຈະເຮັດແນວນັ້ນຢ່າງຈິງໃຈແລະຈິງໃຈ, ແລະຢ່າງໃດກໍ່ຕາມ, ບໍ່ສາມາດໃຫ້ຄໍາແນະນໍາດັ່ງກ່າວຢ່າງພຽງພໍ.

ແນວຄິດດຽວກັນແມ່ນກ່ຽວຂ້ອງກັບຄວາມໄວ້ວາງໃຈໃນເວລາທີ່ມັນມາກັບ AI. ລະບົບ AI ທີ່ທ່ານໃຊ້ເພື່ອຫຼິ້ນ checkers ຫຼື chess ອາດຈະບໍ່ກ່ຽວຂ້ອງກັບການພິຈາລະນາຊີວິດຫຼືຄວາມຕາຍ. ເຈົ້າສາມາດສະບາຍໃຈຫຼາຍຂຶ້ນດ້ວຍການມອບໝາຍຄວາມໄວ້ວາງໃຈຂອງເຈົ້າ. ລົດຂັບລົດຕົນເອງທີ່ອີງໃສ່ AI ທີ່ກຳລັງຂັບໄລ່ທາງຫຼວງດ້ວຍຄວາມໄວສູງ ຮຽກຮ້ອງໃຫ້ມີຄວາມໄວ້ເນື້ອເຊື່ອໃຈໃນລະດັບທີ່ໜັກໜ່ວງກວ່າ. ການບິດເບືອນເລັກນ້ອຍທີ່ສຸດໂດຍລະບົບການຂັບລົດ AI ສາມາດນໍາໄປສູ່ການເສຍຊີວິດຂອງເຈົ້າແລະການເສຍຊີວິດຂອງຄົນອື່ນໂດຍກົງ.

ໃນການສໍາພາດທີ່ຈັດພີມມາຂອງ Beena Ammanath, ຜູ້ອໍານວຍການບໍລິຫານຂອງ Global Deloitte AI Institute ແລະຜູ້ຂຽນຂອງປຶ້ມ AI ທີ່ເຊື່ອຖືໄດ້, ການເນັ້ນຫນັກທີ່ຄ້າຍຄືກັນກ່ຽວກັບການພິຈາລະນາສະພາບການຂອງບ່ອນທີ່ຄວາມຫນ້າເຊື່ອຖືຂອງ AI ເຂົ້າມາ: "ຖ້າທ່ານສ້າງການແກ້ໄຂ AI ທີ່ເຮັດການວິນິດໄສຄົນເຈັບ, ຄວາມຍຸຕິທໍາແລະຄວາມລໍາອຽງແມ່ນມີຄວາມສໍາຄັນຫຼາຍ. ແຕ່ຖ້າທ່ານສ້າງສູດການຄິດໄລ່ທີ່ຄາດຄະເນຄວາມລົ້ມເຫຼວຂອງເຄື່ອງຈັກ jet, ຄວາມຍຸຕິທໍາແລະຄວາມລໍາອຽງແມ່ນບໍ່ສໍາຄັນ. AI ທີ່ເຊື່ອຖືໄດ້ແມ່ນໂຄງສ້າງທີ່ຈະເຮັດໃຫ້ເຈົ້າເລີ່ມຄິດກ່ຽວກັບຂະຫນາດຂອງຄວາມໄວ້ວາງໃຈພາຍໃນອົງການຂອງເຈົ້າ” (VentureBeat, ວັນທີ 22 ມີນາ 2022).

ເມື່ອສົນທະນາກ່ຽວກັບ AI ທີ່ເຊື່ອຖືໄດ້, ທ່ານສາມາດປະກອບຫົວຂໍ້ນີ້ໃນຫຼາຍວິທີ.

ຍົກ​ຕົວ​ຢ່າງ, AI ທີ່ເຊື່ອຖືໄດ້ ແມ່ນສິ່ງທີ່ພວກເຮົາທຸກຄົນຄິດວ່າເປັນເປົ້າຫມາຍທີ່ຕ້ອງການແລະປາດຖະຫນາ, ຄືວ່າພວກເຮົາຄວນຈະເປັນຄວາມປາຖະຫນາທີ່ຈະວາງແຜນແລະປະກາດໃຊ້ AI ທີ່ເຊື່ອຖືໄດ້. ມີການ ນຳ ໃຊ້ ຄຳ ສັບອື່ນ. ການ​ນໍາ​ໃຊ້​ທາງ​ເລືອກ​ບາງ​ຢ່າງ​ແມ່ນ​ວ່າ​ AI ທີ່ເຊື່ອຖືໄດ້ ແມ່ນສະຖານະການຫຼືການວັດແທກ, ເຊິ່ງບາງຄົນອາດຈະຢືນຢັນວ່າພວກເຂົາໄດ້ສ້າງລະບົບ AI ທີ່ເປັນຕົວຢ່າງຂອງ AI ທີ່ເຊື່ອຖືໄດ້. ທ່ານຍັງສາມາດໃຊ້ປະໂຫຍກ AI ທີ່ເຊື່ອຖືໄດ້ ເພື່ອແນະນໍາວິທີການຫຼືວິທີການທີ່ສາມາດນໍາໃຊ້ເພື່ອບັນລຸຄວາມຫນ້າເຊື່ອຖືຂອງ AI. ເປັນຕົ້ນ.

ໃນບັນທຶກທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເຊື່ອຫມັ້ນວ່າທ່ານຮູ້ວ່າບໍ່ແມ່ນ AI ທັງຫມົດແມ່ນຄືກັນແລະພວກເຮົາຕ້ອງມີສະຕິທີ່ຈະບໍ່ເຮັດຄໍາເວົ້າກ່ຽວກັບ AI ທັງຫມົດ. ລະບົບ AI ໂດຍສະເພາະມີແນວໂນ້ມທີ່ຈະແຕກຕ່າງຈາກລະບົບ AI ອື່ນຢ່າງຫຼວງຫຼາຍ. ໜຶ່ງໃນລະບົບ AI ເຫຼົ່ານັ້ນອາດຈະມີຄວາມໜ້າເຊື່ອຖືສູງ, ໃນຂະນະທີ່ອີກອັນໜຶ່ງອາດຈະມີຄວາມໜ້າເຊື່ອຖືໄດ້ໜ້ອຍໜຶ່ງ. ຈົ່ງລະມັດລະວັງໃນການສົມມຸດວ່າ AI ເປັນ monolith ທີ່ຫນ້າເຊື່ອຖືທັງຫມົດຫຼືບໍ່ຫນ້າເຊື່ອຖືທັງຫມົດ.

ນີ້ບໍ່ແມ່ນກໍລະນີ.

ຕໍ່ໄປຂ້າພະເຈົ້າຕ້ອງການໃຫ້ກວມເອົາບາງການຄົ້ນຄວ້າຢ່າງຕໍ່ເນື່ອງຂອງຂ້າພະເຈົ້າກ່ຽວກັບ AI ທີ່ຫນ້າເຊື່ອຖືທີ່ເຈົ້າອາດຈະມີຄວາມສົນໃຈ, ກວມເອົາບົດບາດທີ່ເກີດຂື້ນຂອງ AI ຜູ້ປົກຄອງ bots ທູດ.

ນີ້ແມ່ນວິທີທີ່ມັນໄປ.

ເຈົ້າຈະຖືກປະກອບອາວຸດດ້ວຍລະບົບ AI ( AI guardian angel bot ) ທີ່ອອກແບບມາເພື່ອວັດແທກຄວາມຫນ້າເຊື່ອຖືຂອງລະບົບ AI ອື່ນໆ. bot ເທວະດາຜູ້ປົກຄອງ AI ມີຈຸດສໍາຄັນທີ່ສຸດເພື່ອສຸມໃສ່ຄວາມປອດໄພຂອງທ່ານ. ຄິດວ່ານີ້ຄືກັບວ່າເຈົ້າມີວິທີໃນການຕິດຕາມ AI ທີ່ເຈົ້າອາໄສໂດຍການມີລະບົບ AI ທີ່ແຕກຕ່າງກັນຢູ່ໃນກະເປົ໋າທີ່ຖືກຕ້ອງຂອງເຈົ້າ, ບາງທີອາດເຮັດວຽກຢູ່ໃນໂທລະສັບສະຫຼາດຂອງເຈົ້າຫຼືອຸປະກອນອື່ນໆ. ຜູ້ປົກຄອງ AI ສຸພາສິດຂອງທ່ານສາມາດຄິດໄລ່ໄດ້ບົນພື້ນຖານທີ່ AI ທີ່ເຈົ້າອາໄສຢູ່ຍັງເຮັດໄດ້, ເຮັດວຽກດ້ວຍຄວາມໄວສູງ ແລະຄຳນວນສະຖານະການຢູ່ໃນມືໃນເວລາຈິງ, ໄວກວ່າທີ່ມະນຸດເຮັດໄດ້.

ເຈົ້າອາດຈະຄິດໃນຕອນຕົ້ນວ່າ AI ທີ່ເຈົ້າອາໄສຢູ່ແລ້ວຄວນມີບາງອັນ ພາຍໃນ AI guardrails ທີ່ເຮັດເຊັ່ນດຽວກັນກັບການຄິດໄລ່ແຍກຕ່າງຫາກ AI guardian angel bot. ແມ່ນແລ້ວ, ແນ່ນອນວ່າຈະເປັນທີ່ຕ້ອງການ. ສິ່ງຫນຶ່ງແມ່ນວ່າ AI guardrails ທີ່ສ້າງຂຶ້ນໃນລະບົບ AI ອາດຈະສອດຄ່ອງກັນແລະ prejudicially ສອດຄ່ອງກັບ AI per se, ດັ່ງນັ້ນ AI guardrails ທີ່ສົມມຸດວ່າບໍ່ສາມາດໃນຄວາມຮູ້ສຶກເປັນເອກະລາດການກວດສອບຫຼືກວດສອບ AI ໄດ້.

ຄວາມຄິດທີ່ກົງກັນຂ້າມແມ່ນວ່າ AI guardian angel bot ຂອງເຈົ້າເປັນກົນໄກ AI ທີ່ເປັນເອກະລາດຫຼືພາກສ່ວນທີສາມທີ່ແຕກຕ່າງຈາກ AI ທີ່ເຈົ້າກໍາລັງເພິ່ງພາອາໄສ. ມັນນັ່ງຢູ່ນອກ AI ອື່ນໆ, ທີ່ຍັງອຸທິດໃຫ້ທ່ານແລະບໍ່ໄດ້ອຸທິດໃຫ້ກັບ AI ທີ່ຖືກຕິດຕາມຫຼືປະເມີນ.

ວິທີທີ່ກົງໄປກົງມາຂອງການຄິດກ່ຽວກັບເລື່ອງນີ້ສາມາດສະແດງອອກໂດຍຜ່ານຄໍາຖະແຫຼງທີ່ຄ້າຍຄືກັບສົມຜົນທີ່ງ່າຍດາຍຕໍ່ໄປນີ້. ພວກເຮົາອາດຈະເວົ້າວ່າ "P" ປາດຖະຫນາທີ່ຈະໄວ້ວາງໃຈ "R" ທີ່ຈະເຮັດຫນ້າທີ່ສະເພາະ "X":

ນີ້ຈະເປັນການຕໍ່ໄປນີ້ເມື່ອມີພຽງແຕ່ຄົນມີສ່ວນຮ່ວມ:

  • Person P ໄວ້ໃຈຄົນ R ເພື່ອເຮັດໜ້າທີ່ X.

ເມື່ອພວກເຮົາເລືອກທີ່ຈະອີງໃສ່ AI, ຄໍາຖະແຫຼງທີ່ປ່ຽນມານີ້:

  • Person P ໄວ້ໃຈ AI instance-R ເພື່ອເຮັດໜ້າວຽກ X.

ພວກເຮົາສາມາດເພີ່ມ AI guardian angel bot ໂດຍການເວົ້ານີ້:

  • Person P ໄວ້ໃຈ AI instance-R ເພື່ອເຮັດຫນ້າວຽກ X ທີ່ຖືກຕິດຕາມໂດຍ AI guardian angel bot instance-Z

bot ເທວະດາຜູ້ປົກຄອງ AI ກໍາລັງປະເມີນ AI ທີ່ເຈົ້າກໍາລັງເພິ່ງພາອາໄສຢ່າງບໍ່ອິດເມື່ອຍ. ດັ່ງນັ້ນ, ຜູ້ປົກຄອງ AI ທີ່ມີປະໂຫຍດຂອງເຈົ້າອາດຈະເຕືອນເຈົ້າວ່າຄວາມໄວ້ວາງໃຈຂອງ AI ອື່ນນີ້ແມ່ນບໍ່ຮັບປະກັນ. ຫຼື, ຜູ້ປົກຄອງ AI ອາດຈະໂຕ້ຕອບກັບອີເລັກໂທຣນິກກັບ AI ອື່ນໆເພື່ອພະຍາຍາມ ແລະຮັບປະກັນວ່າສິ່ງໃດກໍຕາມທີ່ແຕກຕ່າງຈາກການເປັນທີ່ໜ້າເຊື່ອຖືແມ່ນຖືກຕ້ອງໄວ, ແລະອື່ນໆ (ເບິ່ງລາຍລະອຽດຂອງຂ້ອຍໃນລາຍລະອຽດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ການປຽບທຽບຄວາມໄວ້ວາງໃຈຂອງອ່າງເກັບນທີ່ເຊື່ອຖືໄດ້

ເນື່ອງຈາກພວກເຮົາກໍາລັງສົນທະນາລະດັບຄວາມໄວ້ວາງໃຈທີ່ແຕກຕ່າງກັນ, ທ່ານອາດຈະຊອກຫາການໃຊ້ຄໍາປຽບທຽບທີ່ມີປະໂຫຍດກ່ຽວກັບຄວາມຫນ້າເຊື່ອຖືໂດຍການຄິດເຖິງຄວາມໄວ້ວາງໃຈເປັນປະເພດຂອງອ່າງເກັບນ້ໍາ.

ທ່ານມີຈໍານວນຄວາມໄວ້ວາງໃຈທີ່ແນ່ນອນສໍາລັບບຸກຄົນໃດຫນຶ່ງຫຼືສິ່ງທີ່ຢູ່ໃນສະຖານະການສະເພາະໃດຫນຶ່ງໃນເວລາໃດຫນຶ່ງ. ລະດັບຄວາມໄວ້ວາງໃຈຈະເພີ່ມຂຶ້ນ ຫຼືຫຼຸດລົງ, ຂຶ້ນກັບສິ່ງທີ່ເກີດຂຶ້ນກັບບຸກຄົນ ຫຼືສິ່ງນັ້ນ. ຄວາມໄວ້ວາງໃຈສາມາດຢູ່ໃນລະດັບສູນໃນເວລາທີ່ທ່ານບໍ່ມີຄວາມໄວ້ວາງໃຈໃດໆສໍາລັບບຸກຄົນຫຼືສິ່ງຂອງ. ຄວາມໄວ້ເນື້ອເຊື່ອໃຈອາດເປັນໄປໃນທາງລົບເມື່ອທ່ານສ່ຽງຕໍ່ການບໍ່ໄວ້ວາງໃຈໃນບຸກຄົນ ຫຼືສິ່ງນັ້ນ.

ໃນກໍລະນີຂອງລະບົບ AI, ອ່າງເກັບນ້ໍາຄວາມໄວ້ວາງໃຈຂອງທ່ານສໍາລັບ AI ໂດຍສະເພາະທີ່ທ່ານກໍາລັງອີງໃສ່ໃນສະຖານະການສະເພາະໃດຫນຶ່ງຈະເພີ່ມຂຶ້ນຫຼືຫຼຸດລົງແມ່ນຂຶ້ນກັບການວັດແທກຄວາມຫນ້າເຊື່ອຖືຂອງ AI ຂອງທ່ານ. ບາງຄັ້ງ, ທ່ານອາດຈະຮູ້ດີກ່ຽວກັບລະດັບຄວາມໄວ້ວາງໃຈທີ່ແຕກຕ່າງກັນກ່ຽວກັບ AI, ໃນຂະນະທີ່ໃນກໍລະນີອື່ນໆ, ທ່ານອາດຈະຮູ້ຫນ້ອຍລົງແລະຫຼາຍກວ່ານັ້ນໂດຍການພິຈາລະນາການຕັດສິນໃຈກ່ຽວກັບຄວາມຫນ້າເຊື່ອຖື.

ວິທີທີ່ພວກເຮົາໄດ້ສົນທະນາຢູ່ທີ່ນີ້ໃນວິທີການເພີ່ມລະດັບຄວາມໄວ້ວາງໃຈສໍາລັບ AI ປະກອບມີ:

  • ການປະຕິບັດຕາມຈັນຍາບັນ AI. ຖ້າ AI ທີ່ເຈົ້າເພິ່ງພາອາໄສຖືກສ້າງຂື້ນໂດຍການພະຍາຍາມປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI ທີ່ຖືກຕ້ອງ, ເຈົ້າຄົງຈະໃຊ້ຄວາມເຂົ້າໃຈນີ້ເພື່ອເພີ່ມລະດັບຄວາມໄວ້ວາງໃຈຂອງເຈົ້າສໍາລັບລະບົບ AI ໂດຍສະເພາະນັ້ນ. ເປັນຂໍ້ສັງເກດຂ້າງຄຽງ, ມັນກໍ່ເປັນໄປໄດ້ວ່າເຈົ້າອາດຈະທົ່ວໄປກັບລະບົບ AI ອື່ນໆກ່ຽວກັບຄວາມຫນ້າເຊື່ອຖືຂອງພວກເຂົາ, ເຊັ່ນດຽວກັນ, ເຖິງແມ່ນວ່າບາງຄັ້ງນີ້ອາດຈະເປັນຮູບແບບທີ່ເຂົ້າໃຈຜິດຂອງສິ່ງທີ່ຂ້ອຍເອີ້ນວ່າ. AI ຄວາມໄວ້ວາງໃຈ aura ແຜ່ຂະຫຍາຍ (ຈົ່ງລະມັດລະວັງໃນການເຮັດສິ່ງນີ້!).
  • ໃຊ້ Human-In-The-Loop. ຖ້າ AI ມີມະນຸດຢູ່ໃນວົງ, ເຈົ້າອາດຈະເພີ່ມຄວາມໄວ້ວາງໃຈທີ່ທ່ານຮັບຮູ້ໃນ AI.
  • ສ້າງຕັ້ງກົດໝາຍ ແລະ ລະບຽບການ. ຖ້າ​ຫາກ​ວ່າ​ມີ​ກົດ​ຫມາຍ​ແລະ​ລະ​ບຽບ​ການ​ທີ່​ກ່ຽວ​ຂ້ອງ​ກັບ​ປະ​ເພດ​ສະ​ເພາະ​ຂອງ AI ນີ້​, ທ່ານ​ອາດ​ຈະ​ເພີ່ມ​ລະ​ດັບ​ຄວາມ​ໄວ້​ວາງ​ໃຈ​ຂອງ​ທ່ານ​.
  • ນຳໃຊ້ AI Guardian Angel Bot. ຖ້າທ່ານມີ AI ຜູ້ປົກຄອງ bot ທູດຢູ່ໃນຄວາມພ້ອມ, ນີ້ຈະເພີ່ມລະດັບຄວາມໄວ້ວາງໃຈຂອງທ່ານຕື່ມອີກ.

ດັ່ງທີ່ໄດ້ກ່າວມາກ່ອນຫນ້ານີ້, ຄວາມໄວ້ວາງໃຈສາມາດຂ້ອນຂ້າງແຕກຫັກແລະຫຼຸດລົງໃນທັນທີ (ເຊັ່ນ, ອ່າງເກັບນ້ໍາຄວາມໄວ້ວາງໃຈຢ່າງໄວວາແລະທັນທີທັນໃດ dumps ອອກທັງຫມົດຂອງຄວາມໄວ້ວາງໃຈທີ່ສ້າງຂຶ້ນ).

ຈິນຕະນາການວ່າທ່ານຢູ່ໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ແລະ AI ຂັບລົດຢ່າງກະທັນຫັນເຮັດໃຫ້ການລ້ຽວຂວາທີ່ຮຸນແຮງ, ເຊິ່ງເຮັດໃຫ້ລໍ້ສັ່ນສະເທືອນແລະເກືອບບັງຄັບໃຫ້ຍານພາຫະນະອັດຕະໂນມັດເຂົ້າໄປໃນການລ້ຽວວຽນທີ່ເປັນອັນຕະລາຍ. ຈະເກີດຫຍັງຂຶ້ນກັບລະດັບຄວາມໄວ້ວາງໃຈຂອງເຈົ້າ? ມັນເບິ່ງຄືວ່າເຖິງແມ່ນວ່າໃນເມື່ອກ່ອນທ່ານຖື AI ໃນລະດັບຄວາມຫນ້າເຊື່ອຖື, ທ່ານຈະຫຼຸດລົງຢ່າງຫຼວງຫຼາຍແລະທັນທີທັນໃດລະດັບຄວາມໄວ້ວາງໃຈຂອງທ່ານ, sensibly ນັ້ນ.

ໃນຈຸດເຊື່ອມຕໍ່ຂອງການສົນທະນາທີ່ໜັກໜ່ວງນີ້, ຂ້າພະເຈົ້າຂໍວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງເພີ່ມເຕີມທີ່ອາດຈະສະແດງໃຫ້ເຫັນເຖິງລັກສະນະແລະຂອບເຂດຂອງ AI ທີ່ເຊື່ອຖືໄດ້. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງຫຍັງກ່ຽວກັບການສະແຫວງຫາ AI ທີ່ເຊື່ອຖືໄດ້ບໍ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI ທີ່ໜ້າເຊື່ອຖື

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.

ຕອນນີ້ພວກເຮົາຕັ້ງເປົ້າໝາຍໄວ້ເພື່ອລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດເອງ ແລະ AI ທີ່ເຊື່ອຖືໄດ້.

ຄວາມໄວ້ວາງໃຈແມ່ນທຸກສິ່ງທຸກຢ່າງ, ໂດຍສະເພາະໃນກໍລະນີຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI.

ສັງ​ຄົມ​ເບິ່ງ​ຄື​ວ່າ​ພວມ​ແນ​ໃສ່​ເບິ່ງ​ການ​ເກີດ​ໃໝ່​ຂອງ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ. ໃນທາງກົງກັນຂ້າມ, ມີຄວາມຫວັງອັນໃຫຍ່ຫຼວງທີ່ວ່າການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງຈະສະແດງໃຫ້ເຫັນເຖິງການຫຼຸດຜ່ອນຈໍານວນຜູ້ເສຍຊີວິດທີ່ກ່ຽວຂ້ອງກັບລົດໃຫຍ່ປະຈໍາປີ. ໃນສະຫະລັດດຽວມີປະມານ 40,000 ຄົນເສຍຊີວິດປະຈໍາປີແລະປະມານ 2.5 ລ້ານຄົນໄດ້ຮັບບາດເຈັບຍ້ອນອຸປະຕິເຫດລົດ, ເບິ່ງການເກັບກໍາສະຖິຕິຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ມະນຸດດື່ມແລະຂັບລົດ. ມະນຸດຂັບລົດໃນຂະນະທີ່ລົບກວນ. ໜ້າທີ່ການຂັບຂີ່ລົດເບິ່ງຄືວ່າຈະປະກອບດ້ວຍການສຸມໃສ່ການຂັບຂີ່ແບບຊ້ຳໆ ແລະ ຫຼົບຫຼີກ ແລະ ຫຼີກລ່ຽງການເກີດອຸບັດຕິເຫດລົດ. ດັ່ງນັ້ນ, ພວກເຮົາອາດຈະຝັນຢາກຫວັງວ່າລະບົບການຂັບລົດ AI ຈະນໍາພາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແບບຊ້ໍາຊ້ອນແລະບໍ່ມີຄວາມຜິດພາດ. ທ່ານ​ສາ​ມາດ​ຄິດ​ໄລ່​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ເປັນ twofer, ປະ​ກອບ​ດ້ວຍ​ການ​ຫຼຸດ​ຜ່ອນ​ປະ​ລິ​ມານ​ການ​ເສຍ​ຊີ​ວິດ​ແລະ​ບາດ​ເຈັບ​ຂອງ​ອຸ​ປະ​ຕິ​ເຫດ​ລົດ​, ພ້ອມ​ກັບ​ການ​ເຮັດ​ໃຫ້​ການ​ເຄື່ອນ​ໄຫວ​ທີ່​ມີ​ຢູ່​ໃນ​ພື້ນ​ຖານ​ທີ່​ກວ້າງ​ຂວາງ​ແລະ​ສາ​ມາດ​ເຂົ້າ​ເຖິງ​ຫຼາຍ​.

​ແຕ່​ຄວາມ​ເປັນ​ຫ່ວງ​ໃນ​ຂະນະ​ດຽວ​ກັນ​ກໍ​ເກີດ​ຂຶ້ນ​ຕໍ່​ຄວາມ​ຮັບ​ຮູ້​ຂອງ​ສັງຄົມ​ທີ່​ວ່າ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ຈະ​ມີ​ຄວາມ​ປອດ​ໄພ​ພໍ​ທີ່​ຈະ​ຢູ່​ເທິງ​ຖະໜົນ​ຫົນທາງ​ສາທາລະນະ​ຂອງ​ພວກ​ເຮົາ.

ຖ້າແມ່ນແຕ່ລົດທີ່ຂັບລົດເອງຄັນໜຶ່ງໄດ້ເກີດອຸບັດເຫດ ຫຼື ການຕຳກັນທີ່ເຮັດໃຫ້ມີຜູ້ເສຍຊີວິດຄົນດຽວ ຫຼື ບາດເຈັບສາຫັດ, ທ່ານອາດຄາດການໄດ້ວ່າຄວາມໄວ້ວາງໃຈທີ່ສ້າງຂຶ້ນໃນທຸກມື້ນີ້ຕໍ່ກັບລົດທີ່ບໍ່ມີຄົນຂັບທີ່ໃຊ້ AI ເຫຼົ່ານັ້ນຈະຫຼຸດລົງຢ່າງແນ່ນອນ. ພວກ​ເຮົາ​ໄດ້​ເຫັນ​ສິ່ງ​ນີ້​ເກີດ​ຂຶ້ນ​ໃນ​ເວ​ລາ​ທີ່​ເຫດ​ການ​ທີ່​ບໍ່​ມີ​ຊື່​ສຽງ​ໄດ້​ເກີດ​ຂຶ້ນ​ໃນ​ລັດ Arizona ທີ່​ກ່ຽວ​ຂ້ອງ​ກັບ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ (ບໍ່​ແມ່ນ​ແທ້) ທີ່​ແລ່ນ​ເຂົ້າ​ໄປ​ແລະ​ເສຍ​ຊີ​ວິດ​ຄົນ​ຍ່າງ (ເບິ່ງ​ບົດ​ລາຍ​ງານ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ທີ່ ລິ້ງນີ້ຢູ່ນີ້).

ນັກວິຊາການບາງຄົນຊີ້ໃຫ້ເຫັນວ່າມັນບໍ່ຍຸຕິທໍາແລະບໍ່ເຫມາະສົມທີ່ຈະອີງໃສ່ຄວາມເຊື່ອຫມັ້ນຂອງ AI ລົດຂັບລົດດ້ວຍຕົນເອງໃນດ້ານທີ່ມີພຽງແຕ່ຫນຶ່ງອຸປະຕິເຫດທີ່ເຮັດໃຫ້ເກີດຄວາມຕາຍຕໍ່ໄປຫຼືການປະທະກັນສາມາດທໍາລາຍການທົດລອງທາງສາທາລະນະທີ່ຂ້ອນຂ້າງບໍ່ມີອຸປະຕິເຫດ. ນອກຈາກນັ້ນ, ບົນພື້ນຖານທີ່ບໍ່ຍຸຕິທໍາຕື່ມອີກ, ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າບໍ່ວ່າຍີ່ຫໍ້ລົດທີ່ຂັບລົດຕົນເອງ AI ໂດຍສະເພາະຫຼືຮຸ່ນໃດກໍ່ໄດ້ຮັບການຕົກຢູ່ໃນເຫດການທີ່ໂສກເສົ້າ, ສັງຄົມຈະຕໍານິຕິຕຽນທຸກຍີ່ຫໍ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ.

ທັງ ໝົດ ຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງສາມາດຖືກກະທົບໂດຍຫຍໍ້ແລະອຸດສາຫະ ກຳ ໂດຍລວມອາດຈະໄດ້ຮັບຜົນກະທົບອັນໃຫຍ່ຫຼວງທີ່ ນຳ ໄປສູ່ການປິດການທົດລອງທາງສາທາລະນະທັງ ໝົດ.

ຜູ້ປະກອບສ່ວນຕໍ່ກັບການກະທົບກະເທືອນດັ່ງກ່າວແມ່ນພົບເຫັນຢູ່ໃນການປະກາດທີ່ບໍ່ມີເຫດຜົນໂດຍຜູ້ປະກາດລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ເວົ້າອອກມາວ່າລົດທີ່ບໍ່ມີຄົນຂັບທັງໝົດຈະບໍ່ສາມາດຂັດຂ້ອງໄດ້. ຄວາມ​ຄິດ​ຂອງ​ການ​ເປັນ​ທີ່​ບໍ່​ສາ​ມາດ​ແຕກ​ໄດ້​ບໍ່​ພຽງ​ແຕ່​ຜິດ​ພາດ (ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້), ມັນ insidiously ແມ່ນການສ້າງຕັ້ງອຸດສາຫະກໍາລົດຕົນເອງຂັບລົດສໍາລັບການກໍານົດໄວ້ທັງຫມົດ out-of-whack ຂອງຄວາມຄາດຫວັງ. ການປະກາດທີ່ແປກປະຫຼາດ ແລະບໍ່ສາມາດບັນລຸໄດ້ເຫຼົ່ານີ້ວ່າຈະມີສູນເສຍຊີວິດຍ້ອນລົດທີ່ຂັບລົດຕົນເອງກໍາລັງເຮັດໃຫ້ເກີດຄວາມເຂົ້າໃຈຜິດວ່າອຸປະຕິເຫດລົດທີ່ບໍ່ມີຄົນຂັບແມ່ນສັນຍານທີ່ແນ່ນອນວ່າຊຸດແລະ kaboodle ທັງຫມົດແມ່ນສໍາລັບ naught.

ມີຄວາມໂສກເສົ້າທີ່ເຫັນໄດ້ຊັດເຈນວ່າຄວາມຄືບໜ້າໄປສູ່ລົດທີ່ຂັບລົດເອງ ແລະ ຄວາມໄວ້ເນື້ອເຊື່ອໃຈຂອງສັງຄົມສາມາດຖືກທຳລາຍໄປໃນທັນທີ. ນັ້ນ​ແມ່ນ​ຈະ​ເປັນ​ການ​ສະ​ແດງ​ໃຫ້​ເຫັນ​ຢ່າງ​ໜຶ່ງ​ກ່ຽວ​ກັບ​ຄວາມ​ໝັ້ນ​ໃຈ​ຂອງ​ຄວາມ​ໝັ້ນ​ຄົງ.

ສະຫຼຸບ

ຜູ້ຜະລິດລົດໃຫຍ່ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງຫຼາຍຄົນໂດຍທົ່ວໄປແລ້ວແມ່ນປະຕິບັດຕາມຫຼັກການດ້ານຈັນຍາບັນຂອງ AI, ການເຮັດແນວນັ້ນເພື່ອພະຍາຍາມ ແລະສ້າງ AI ທີ່ມີຄວາມໜ້າເຊື່ອຖືໃນດ້ານຄວາມປອດໄພ ແລະເຊື່ອຖືໄດ້ໃນລົດຂັບລົດດ້ວຍຕົນເອງ AI. ກະລຸນາຮັບຮູ້ວ່າບາງບໍລິສັດເຫຼົ່ານັ້ນມີຄວາມເຂັ້ມແຂງ ແລະອຸທິດຕົນຕໍ່ຫຼັກຈັນຍາບັນ AI ຫຼາຍກວ່າບໍລິສັດອື່ນໆ. ຍັງມີບາງໂອກາດຫຼືການເລີ່ມຕົ້ນໃຫມ່ທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດດ້ວຍຕົນເອງທີ່ເບິ່ງຄືວ່າຈະຫລີກໄປທາງຫນຶ່ງຂອງພື້ນຖານດ້ານຈັນຍາບັນ AI (ເບິ່ງການທົບທວນຄືນຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

​ໃນ​ດ້ານ​ອື່ນໆ, ກົດໝາຍ ​ແລະ ລະບຽບ​ການ​ໃໝ່​ທີ່​ກວມ​ເອົາ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ໄດ້​ຮັບ​ການ​ຈັດ​ວາງ​ໃນ​ປຶ້ມ​ກົດໝາຍ​ເທື່ອ​ລະ​ກ້າວ. ບໍ່ວ່າພວກມັນມີແຂ້ວທີ່ຈໍາເປັນເພື່ອຮອງພວກມັນແມ່ນເລື່ອງທີ່ແຕກຕ່າງກັນ, ເຊັ່ນດຽວກັນ, ການບັງຄັບໃຊ້ກົດຫມາຍເຫຼົ່ານັ້ນຈະຖືກປະຕິບັດຢ່າງຈິງຈັງຫຼືຖືກມອງຂ້າມ (ເບິ່ງຄໍລໍາຂອງຂ້ອຍສໍາລັບການວິເຄາະກ່ຽວກັບເລື່ອງນີ້).

ມັນຍັງມີມຸມເຕັກໂນໂລຢີສູງໃນເລື່ອງນີ້. ຂ້າພະເຈົ້າໄດ້ຄາດຄະເນວ່າພວກເຮົາຈະຄ່ອຍໆເຫັນຕົວແປຂອງ AI guardian angel bots ທີ່ຈະມານໍາຫນ້າໃນສະຫນາມກິລາອັດຕະໂນມັດແລະລົດຂັບລົດຕົນເອງ. ພວກເຮົາບໍ່ຢູ່ທີ່ນັ້ນເທື່ອ. ອັນນີ້ຈະກາຍເປັນທີ່ແຜ່ຫຼາຍເມື່ອຄວາມນິຍົມຂອງລົດຂັບເອງໄດ້ແຜ່ຂະຫຍາຍຫຼາຍຂຶ້ນ.

ຈຸດສຸດທ້າຍນີ້ນໍາເອົາສາຍທີ່ມີຊື່ສຽງກ່ຽວກັບຄວາມໄວ້ວາງໃຈທີ່ທ່ານແນ່ນອນຮູ້ແລ້ວດ້ວຍຫົວໃຈ.

ເຊື່ອໃຈ, ແຕ່ຢືນຢັນ.

ເຮົາ​ສາມາດ​ປ່ອຍ​ໃຫ້​ຕົວ​ເຮົາ​ເອງ​ຂະຫຍາຍ​ຄວາມ​ໄວ້​ເນື້ອ​ເຊື່ອ​ໃຈ​ຂອງ​ເຮົາ​ໄດ້, ບາງ​ທີ​ໂດຍ​ທົ່ວ​ໄປ​ແລ້ວ. ໃນ​ຂະ​ນະ​ດຽວ​ກັນ, ພວກ​ເຮົາ​ຍັງ​ຄວນ​ຈະ​ໄດ້​ຮັບ​ການ​ເບິ່ງ​ຄື​ກັບ hawk ເພື່ອ​ເຮັດ​ໃຫ້​ແນ່​ໃຈວ່​າ​ຄວາມ​ໄວ້​ວາງ​ໃຈ​ທີ່​ພວກ​ເຮົາ​ສ້າງ​ແມ່ນ​ໄດ້​ຮັບ​ການ​ກວດ​ສອບ​ໂດຍ​ທັງ​ຄໍາ​ສັບ​ແລະ​ການ​ກະ​ທໍາ. ໃຫ້ຄວາມໄວ້ວາງໃຈບາງຢ່າງເຂົ້າໄປໃນ AI, ແຕ່ຢືນຢັນຢ່າງບໍ່ສິ້ນສຸດວ່າພວກເຮົາກໍາລັງວາງຄວາມໄວ້ວາງໃຈຂອງພວກເຮົາຢ່າງເຫມາະສົມແລະເປີດຕາຂອງພວກເຮົາ.

ເຈົ້າສາມາດເຊື່ອຂ້ອຍໄດ້ໃນເລື່ອງນັ້ນ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/