ຈັນຍາບັນຂອງ AI ແລະກົດໝາຍ AI ກໍາລັງກ້າວໄປສູ່ມາດຕະຖານທີ່ກໍານົດຢ່າງຈະແຈ້ງ ແລະຄຸ້ມຄອງຄວາມລໍາອຽງຂອງ AI

ເຈົ້າເຄີຍຫຼີ້ນການເກັບບັດຫ້າສິບສອງບໍ?

ມັນບໍ່ແມ່ນເກມທີ່ເຈົ້າຈະເຮັດຕາມປົກກະຕິ. ນີ້ແມ່ນເຫດຜົນ. ມີຄົນສະເໜີໃຫ້ທ່ານວ່າມັນເປັນກິລາທີ່ມ່ວນ ແລະ ຖ້າເຈົ້າເອົາເຫຍື່ອຫວານໆ ເຂົາເຈົ້າກໍ່ໂຍນບັດຫຼິ້ນທັງໝົດຂຶ້ນເທິງອາກາດ ແລະ ສະຫຼຸບລົງພື້ນ. ຫຼັງຈາກນັ້ນ, ບຸກຄົນນັ້ນເຮັດໃຫ້ເຈົ້າຍິ້ມແຍ້ມແຈ່ມໃສແລະບອກເຈົ້າໄປກ່ອນແລະເອົາບັດ. ນັ້ນແມ່ນເກມທັງຫມົດ.

ຂີ້ຄ້ານ!

ຂ້າ​ພະ​ເຈົ້າ​ມີ​ຄໍາ​ຖາມ​ທີ່​ຄິດ​ບາງ​ຢ່າງ​ທີ່​ຈະ​ຖາມ​ທ່ານ​ກ່ຽວ​ກັບ​ການ​ນີ້​.

ສົມມຸດວ່າບັດອັນໜຶ່ງຕົກລົງມາໃຕ້ໂຊຟາໃກ້ໆ. ເມື່ອ​ເຈົ້າ​ເກັບ​ບັດ​ທັງ​ໝົດ​ແລ້ວ ເຈົ້າ​ກໍ​ຈະ​ຮູ້​ວ່າ​ໃບ​ໜຶ່ງ​ຂາດ​ໄປ ເພາະ​ໃນ​ມື​ເຈົ້າ​ມີ​ພຽງ​ຫ້າ​ສິບ​ໃບ.

ຄໍາຖາມແມ່ນ, ທ່ານສາມາດກໍານົດວ່າບັດໃດຂາດຫາຍໄປ?

ຂ້າ​ພະ​ເຈົ້າ​ແນ່​ໃຈວ່​າ​ທ່ານ​ຈະ​ເວົ້າ​ໃນ​ທັນ​ທີ​ວ່າ​ທ່ານ​ໄດ້​ຢ່າງ​ງ່າຍ​ດາຍ​ສາ​ມາດ​ຄິດ​ອອກ​ວ່າ​ບັດ​ທີ່​ບໍ່​ໄດ້​ຢູ່​ໃນ​ມື​ຂອງ​ທ່ານ​. ທັງ​ຫມົດ​ທີ່​ທ່ານ​ຈະ​ຕ້ອງ​ເຮັດ​ແມ່ນ​ເຮັດ​ໃຫ້​ດາ​ດ​ຟ້າ​ເປັນ​ຄໍາ​ສັ່ງ​. ເຈົ້າຮູ້ບໍວ່າດາດຟ້າມາດຕະຖານປະກອບດ້ວຍສີ່ຊຸດ ແລະແຕ່ລະຊຸດບັດແມ່ນນັບຈາກໜຶ່ງຫາສິບ ແລະຈາກນັ້ນເຂົ້າໄປໃນ Jack, Queen, ແລະ King.

ເຈົ້າຮູ້ເລື່ອງນີ້ເພາະວ່າບັດມາດຕະຖານຂອງການຫຼີ້ນບັດແມ່ນອີງໃສ່ມາດຕະຖານ.

ໂອ້, ຄໍາຖະແຫຼງທີ່ອາດຈະເບິ່ງຄືວ່າເປັນຫນຶ່ງໃນການຢືນຢັນທີ່ຊັດເຈນທັງຫມົດ. ດີ, ແມ່ນແລ້ວ, ແນ່ນອນ, ສຽງຫຼິ້ນມາດຕະຖານແມ່ນອີງໃສ່ມາດຕະຖານ. ພວກເຮົາທຸກຄົນຮູ້ວ່າ. ຈຸດຂອງຂ້ອຍແມ່ນວ່າໂດຍການມີມາດຕະຖານທີ່ພວກເຮົາສາມາດອີງໃສ່ມາດຕະຖານໃນເວລາທີ່ຈໍາເປັນ. ນອກ​ຈາກ​ທີ່​ຈະ​ສາ​ມາດ​ຕັດ​ສິນ​ວ່າ​ບັດ​ໃດ​ທີ່​ຂາດ​ໄປ​ຈາກ deck ໄດ້​, ທ່ານ​ຍັງ​ສາ​ມາດ​ຫຼິ້ນ​ຫຼາຍ​ລ້ານ​ເກມ​ບັດ​ທີ່​ຮູ້​ຈັກ​ດີ​ກັບ​ຜູ້​ອື່ນ​. ເມື່ອມີຄົນບອກກົດລະບຽບຂອງເກມ, ພວກເຂົາສາມາດຫຼິ້ນໄດ້ໂດຍກົງເພາະວ່າພວກເຂົາຮູ້ຢ່າງເຕັມທີ່ວ່າຊັ້ນປະກອບມີຫຍັງ. ເຈົ້າບໍ່ ຈຳ ເປັນຕ້ອງອະທິບາຍໃຫ້ພວກເຂົາຮູ້ວ່າດາດຟ້າມີສີ່ຊຸດແລະບັດຕົວເລກຕ່າງໆ. ພວກເຂົາເຈົ້າຮູ້ແລ້ວວ່າຈະເປັນກໍລະນີ.

ຂ້ອຍໄປໃສກັບສິ່ງນີ້?

ຂ້ອຍກໍາລັງພະຍາຍາມນໍາເຈົ້າໄປສູ່ເສັ້ນທາງທີ່ເປັນວິທີທີ່ສໍາຄັນຂອງຄວາມກ້າວຫນ້າໃນດ້ານ AI ແລະໂດຍສະເພາະແມ່ນຂົງເຂດຂອງ AI ຈັນຍາບັນແລະຈັນຍາບັນ AI. ທ່ານເຫັນ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ພະຍາຍາມແລະໄດ້ຮັບການຍອມຮັບຢ່າງກວ້າງຂວາງແລະທັງຫມົດຕາມມາດຕະຖານກ່ຽວກັບຈັນຍາບັນ AI. ຖ້າພວກເຮົາສາມາດເຮັດໄດ້, ມັນຈະຊ່ວຍເພີ່ມຄວາມງ່າຍຂອງການຮັບເອົາ AI ດ້ານຈັນຍາບັນແລະສະແດງໃຫ້ເຫັນເຖິງຈຸດປະສົງເພື່ອປັບປຸງລະບົບ AI ທີ່ສືບຕໍ່ເອົາ pell-mell ເຂົ້າໄປໃນຕະຫຼາດ (ເຊັ່ນ: ບັດປ່າທໍາມະຊາດທີ່ບໍ່ມີຕົວເລກແລະບໍ່ມີຄໍາສັ່ງ). ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI, ຈັນຍາບັນ AI, ແລະກົດຫມາຍ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.

ຂ້າພະເຈົ້າເອົາມານີ້ເພື່ອສ້າງພື້ນຖານສໍາລັບການສົນທະນາຂອງຂ້າພະເຈົ້າຢູ່ທີ່ນີ້ທີ່ຈະສຸມໃສ່ບາງສ່ວນຫຼືສ່ວນຫນຶ່ງຂອງຂອບເຂດທີ່ກວ້າງຂວາງຂອງຈັນຍາບັນ AI, ຄືດັ່ງທີ່ໄດ້ກ່າວມາກ່ອນຫນ້ານີ້ອົງປະກອບສະເພາະຂອງຄວາມລໍາອຽງ AI. ເຫດຜົນຄືກັນທີ່ຂ້ອຍແບ່ງປັນຫົວຂໍ້ນີ້ກັບທ່ານແມ່ນວ່າເອກະສານທີ່ອອກໂດຍສະຖາບັນມາດຕະຖານແລະເຕັກໂນໂລຢີແຫ່ງຊາດ (NIST) ກໍາລັງພະຍາຍາມເຮັດໃຫ້ພວກເຮົາກ້າວໄປສູ່ຄວາມລໍາອຽງຂອງ AI ມາດຕະຖານ. ເອກະສານແມ່ນມີສິດ ໄປສູ່ມາດຕະຖານສໍາລັບການກໍານົດແລະການຄຸ້ມຄອງຄວາມລໍາອຽງໃນປັນຍາປະດິດ ໂດຍຜູ້ຂຽນ Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt, ແລະ Patrick Hall, ແລະຖືກຕີພິມໂດຍກະຊວງການຄ້າສະຫະລັດ, NIST Special Publication 1270, ໃນເດືອນມີນາ 2022.

ພວກເຮົາຈະຖອດຖອນຄວາມພະຍາຍາມທີ່ມີປະໂຫຍດແລະຊຸກຍູ້ນີ້ໄປສູ່ການສ້າງຕັ້ງສິ່ງທີ່ພວກເຮົາຫມາຍຄວາມວ່າໂດຍຄວາມລໍາອຽງ AI. ຄຳ ເວົ້າເກົ່າແມ່ນທ່ານບໍ່ສາມາດຈັດການກັບສິ່ງທີ່ເຈົ້າບໍ່ສາມາດວັດແທກໄດ້. ໂດຍການມີມາດຕະຖານທີ່ວາງອອກຄວາມຫຼາກຫຼາຍຂອງອະຄະຕິ AI, ທ່ານສາມາດເລີ່ມວັດແທກ ແລະຈັດການຄວາມລຳອຽງຂອງ AI ໄດ້.

ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະການກວດສອບ, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ພາຍໃຕ້ຫຼັກການຫຼັກຈັນຍາບັນຂອງ AI ຫຼັກໆນັ້ນແມ່ນລັກສະນະທີ່ຊົ່ວຮ້າຍຂອງຄວາມລຳອຽງຂອງ AI.

ຄືກັນກັບແຜ່ນບັດ, ມັນແນ່ນອນວ່າມັນຈະດີຖ້າພວກເຮົາສາມາດຈັດກຸ່ມຄວາມລໍາອຽງຂອງ AI ເຂົ້າໄປໃນຊຸດຂອງ "ຊຸດ" ຫຼືປະເພດຕ່າງໆ. ແທ້ຈິງແລ້ວ, ເອກະສານ NIST ສະເຫນີການຈັດກຸ່ມທີ່ແນະນໍາ.

ສາມ​ປະ​ເພດ​ທີ່​ສໍາ​ຄັນ​ແມ່ນ​ໄດ້​ຮັບ​ການ​ສະ​ເຫນີ​:

1) ອະຄະຕິລະບົບ

2) ສະຖິຕິ ແລະ ການຄິດໄລ່ອະຄະຕິ

3) ອະຄະຕິຂອງມະນຸດ

ບໍ່ວ່າຈະເປັນຄວາມລຳອຽງ AI ທັງໝົດທີ່ເໝາະສົມພາຍໃນໜຶ່ງໃນສາມໝວດໝູ່ນັ້ນແມ່ນແນ່ນອນວ່າເປັນສິ່ງທີ່ຄວນພິຈາລະນາ. ທ່ານສາມາດໂຕ້ຖຽງໄດ້ຢ່າງແນ່ນອນວ່າຄວາມລໍາອຽງຂອງ AI ຕົກຢູ່ໃນຫນຶ່ງ, ສອງ, ຫຼືສາມປະເພດໃນເວລາດຽວກັນ. ນອກຈາກນັ້ນ, ທ່ານອາດຈະອ້າງວ່າປະເພດຫຼາຍສົມຄວນທີ່ຈະໄດ້ຮັບການກ່າວເຖິງ, ເຊັ່ນ: ບາງຊຸດທີສີ່, ຫ້າ, ຫົກ, ຫຼືຫຼາຍກຸ່ມ.

ຂ້າ​ພະ​ເຈົ້າ​ຫວັງ​ວ່າ​ນັ້ນ​ແມ່ນ​ສິ່ງ​ທີ່​ທ່ານ​ກໍາ​ລັງ​ຄິດ​ເພາະ​ວ່າ​ພວກ​ເຮົາ​ຕ້ອງ​ການ​ໃຫ້​ທຸກ​ຄົນ​ທີ່​ມີ​ສ່ວນ​ຮ່ວມ​ໃນ​ການ​ຊ່ວຍ​ເຫຼືອ​ການ​ສ້າງ​ມາດ​ຕະ​ຖານ​ເຫຼົ່າ​ນີ້​. ຖ້າ​ຫາກ​ວ່າ​ທ່ານ​ຖືກ​ກະ​ຕຸ້ນ​ກັບ​ວິ​ທີ​ການ​ທີ່​ມາດ​ຕະ​ຖານ​ເຫຼົ່າ​ນີ້​ກໍາ​ລັງ​ສ້າງ​ຂຶ້ນ​ເປັນ​ຄັ້ງ​ທໍາ​ອິດ​, ຂ້າ​ພະ​ເຈົ້າ​ຂໍ​ແນະ​ນໍາ​ໃຫ້​ທ່ານ​ປ່ຽນ​ພະ​ລັງ​ງານ​ທີ່​ເປັນ​ການ​ຊ່ວຍ​ເຫຼືອ​ຂອງ​ພວກ​ເຮົາ​ໃນ​ການ​ເຮັດ​ໃຫ້​ມາດ​ຕະ​ຖານ​ທີ່​ແຂງ​ແຮງ​ແລະ​ສໍາ​ເລັດ​ສົມ​ບູນ​ທີ່​ພວກ​ເຂົາ​ເຈົ້າ​ສາ​ມາດ​ໄດ້​ຮັບ​ການ​ແກະ​ສະ​ຫລັກ​.

ສໍາລັບໃນປັດຈຸບັນ, ພວກເຮົາສາມາດພິຈາລະນາຢ່າງລະອຽດກ່ຽວກັບສາມປະເພດທີ່ສະເຫນີແລະເບິ່ງວ່າມືປະເພດໃດທີ່ພວກເຮົາໄດ້ຮັບການຈັດການກັບມາເຖິງຕອນນັ້ນ (ແມ່ນແລ້ວ, ຂ້ອຍຈະສືບຕໍ່ໃຊ້ການປຽບທຽບກັບສຽງຂອງຫຼີ້ນບັດ, ເຮັດແນວນັ້ນ. ຕະຫຼອດທັງຫມົດຂອງສິ້ນລາຍລັກອັກສອນນີ້, ທ່ານສາມາດວາງເດີມພັນເງິນໂດລາລຸ່ມສຸດຂອງທ່ານ ace ທີ່ບໍ່ເຊື່ອງໄວ້ດັ່ງນັ້ນຂອງຫົວຂໍ້ໃດຫນຶ່ງ).

ການອ້າງອີງເຖິງຄວາມລຳອຽງທາງລະບົບໝາຍເຖິງຫຍັງ?

ນີ້ແມ່ນສິ່ງທີ່ເອກະສານ NIST ກ່າວວ່າ: "ຄວາມລໍາອຽງຂອງລະບົບເປັນຜົນມາຈາກຂັ້ນຕອນແລະການປະຕິບັດຂອງສະຖາບັນສະເພາະທີ່ດໍາເນີນການໃນວິທີການທີ່ສົ່ງຜົນໃຫ້ບາງກຸ່ມສັງຄົມໄດ້ຮັບຜົນປະໂຫຍດຫຼືຄວາມໂປດປານແລະຜູ້ອື່ນຖືກດ້ອຍໂອກາດຫຼືຫຼຸດລົງ. ນີ້ບໍ່ຈໍາເປັນຕ້ອງເປັນຜົນມາຈາກຄວາມລໍາອຽງຫຼືການຈໍາແນກສະຕິ, ແຕ່ສ່ວນໃຫຍ່ແມ່ນປະຕິບັດຕາມກົດລະບຽບຫຼືມາດຕະຖານທີ່ມີຢູ່ແລ້ວ. ການຈຳແນກເຊື້ອຊາດໃນສະຖາບັນ ແລະ ການຮ່ວມເພດແມ່ນຕົວຢ່າງທີ່ພົບເລື້ອຍທີ່ສຸດ” (ໃຫ້ສັງເກດວ່າອັນນີ້ແມ່ນພຽງແຕ່ການຍົກອອກມາສັ້ນໆ ແລະ ຊຸກຍູ້ໃຫ້ຜູ້ອ່ານເຫັນຄຳອະທິບາຍທີ່ຄົບຖ້ວນກວ່າ).

AI ເຂົ້າມາໃນການປະສົມປະສານຂອງອະຄະຕິລະບົບໂດຍການສະຫນອງວິທີການຖ່າຍທອດແລະນໍາໃຊ້ຄວາມລໍາອຽງເຫຼົ່ານັ້ນໃນແອັບຯທີ່ໃຊ້ AI. ທຸກຄັ້ງທີ່ເຈົ້າໃຊ້ຊອຟແວທີ່ປະກອບ AI, ສຳລັບທຸກສິ່ງທີ່ເຈົ້າຮູ້ວ່າມັນອາດມີອະຄະຕິເລັກນ້ອຍທີ່ເຂົ້າມາໃນລະບົບຜ່ານບໍລິສັດ ແລະ ການປະຕິບັດອຸດສາຫະກໍາທີ່ນໍາໄປສູ່ການສ້າງ AI. ອີງຕາມການສຶກສາຂອງ NIST: "ຄວາມລໍາອຽງເຫຼົ່ານີ້ແມ່ນມີຢູ່ໃນຊຸດຂໍ້ມູນທີ່ໃຊ້ໃນ AI, ແລະມາດຕະຖານຂອງສະຖາບັນ, ການປະຕິບັດ, ແລະຂະບວນການໃນທົ່ວວົງຈອນຊີວິດ AI ແລະໃນວັດທະນະທໍາແລະສັງຄົມທີ່ກວ້າງຂວາງ."

ຕໍ່ໄປ, ພິຈາລະນາຊຸດຂອງຄວາມລໍາອຽງທີ່ຕິດສະຫລາກວ່າເປັນຄວາມລໍາອຽງທາງສະຖິຕິແລະຄອມພິວເຕີ້.

ເອກະສານ NIST ກ່າວນີ້: "ຄວາມລໍາອຽງທາງສະຖິຕິແລະການຄິດໄລ່ແມ່ນມາຈາກຄວາມຜິດພາດທີ່ສົ່ງຜົນໃຫ້ຕົວຢ່າງບໍ່ແມ່ນຕົວແທນຂອງປະຊາກອນ. ອະຄະຕິເຫຼົ່ານີ້ເກີດມາຈາກລະບົບທີ່ກົງກັນຂ້າມກັບຄວາມຜິດພາດແບບສຸ່ມ ແລະສາມາດເກີດຂຶ້ນໄດ້ໃນກໍລະນີທີ່ບໍ່ມີອະຄະຕິ, ຄວາມບໍ່ເປັນສ່ວນໜຶ່ງ ຫຼືເຈດຕະນາຈຳແນກ. ໃນລະບົບ AI, ຄວາມລໍາອຽງເຫຼົ່ານີ້ແມ່ນມີຢູ່ໃນຊຸດຂໍ້ມູນແລະຂະບວນການ algorithmic ທີ່ໃຊ້ໃນການພັດທະນາຄໍາຮ້ອງສະຫມັກ AI, ແລະມັກຈະເກີດຂື້ນເມື່ອ algorithms ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນປະເພດຫນຶ່ງແລະບໍ່ສາມາດ extrapolate ເກີນກວ່າຂໍ້ມູນເຫຼົ່ານັ້ນ.

ອະຄະຕິທາງສະຖິຕິ ແລະຄອມພິວເຕີປະເພດນີ້ມັກຈະຖືກປຸງແຕ່ງເປັນລະບົບ AI ທີ່ໃຊ້ Machine Learning (ML) ແລະ Deep Learning (DL). ການຍົກເອົາເລື່ອງອັນໜັກໜ່ວງຂອງ ML/DL ຍຸກສະໄໝນີ້ ຈໍາເປັນຕ້ອງມີສ່ວນກ່ຽວຂ້ອງກັນກ່ຽວກັບສິ່ງທີ່ AI ແມ່ນຫຍັງ ແລະ ML/DL ແມ່ນຫຍັງ.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ຂອງມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ແນວ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກລ່າສຸດຂອງ AI ໄດ້ນຳໃຊ້ເຄື່ອງຈັກ ແລະການຮຽນຮູ້ເລິກລັບຢ່າງກວ້າງຂວາງ, ເຊິ່ງໃຊ້ການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ນີ້ນໍາພວກເຮົາໄປສູ່ປະເພດທີສາມຂອງ NIST ຂອງສາມກຸ່ມ, ໂດຍສະເພາະບົດບາດຂອງຄວາມລໍາອຽງຂອງມະນຸດໃນການເກີດຂື້ນຂອງຄວາມລໍາອຽງ AI. ນີ້ແມ່ນສິ່ງທີ່ເອກະສານ NIST ຊີ້ບອກວ່າ: "ຄວາມລໍາອຽງຂອງມະນຸດສະທ້ອນໃຫ້ເຫັນເຖິງຄວາມຜິດພາດທີ່ເປັນລະບົບໃນຄວາມຄິດຂອງມະນຸດໂດຍອີງໃສ່ຈໍານວນຈໍາກັດຂອງຫຼັກການ heuristic ແລະການຄາດຄະເນມູນຄ່າຕໍ່ການດໍາເນີນການຕັດສິນທີ່ງ່າຍດາຍ. ຄວາມລໍາອຽງເຫຼົ່ານີ້ມັກຈະເປັນ implicit ແລະມີແນວໂນ້ມທີ່ຈະກ່ຽວຂ້ອງກັບວິທີການບຸກຄົນຫຼືກຸ່ມຮັບຮູ້ຂໍ້ມູນ (ເຊັ່ນ: ອັດຕະໂນມັດຜົນຜະລິດ AI) ໃນການຕັດສິນໃຈຫຼືຕື່ມຂໍ້ມູນໃສ່ໃນຂໍ້ມູນທີ່ຂາດຫາຍໄປຫຼືບໍ່ຮູ້. ຄວາມລໍາອຽງເຫຼົ່ານີ້ແມ່ນມີຢູ່ໃນສະຖາບັນ, ກຸ່ມ, ແລະຂະບວນການຕັດສິນໃຈສ່ວນບຸກຄົນໃນທົ່ວວົງຈອນຊີວິດ AI, ແລະໃນການນໍາໃຊ້ຄໍາຮ້ອງສະຫມັກ AI ເມື່ອຖືກນໍາໄປໃຊ້.

ດຽວນີ້ເຈົ້າໄດ້ຮັບການແນະນຳຢ່າງໄວຕໍ່ສາມປະເພດແລ້ວ.

ຂ້ອຍຢາກແບ່ງປັນອາຫານເພີ່ມເຕີມໃຫ້ກັບເຈົ້າເພື່ອຄວາມຄິດທີ່ສະແດງອອກໃນເອກະສານ NIST. ຕາຕະລາງໃນຄໍາບັນຍາຍຂອງເຂົາເຈົ້າສະຫນອງບົດສະຫຼຸບທີ່ເປັນປະໂຫຍດຂອງຄໍາຖາມທີ່ສໍາຄັນແລະການພິຈາລະນາທີ່ເນັ້ນໃສ່ແຕ່ລະສາມຊຸດຂອງຄວາມລໍາອຽງ AI. ຂ້າ​ພະ​ເຈົ້າ​ບອກ​ໃຫ້​ເຂົາ​ເຈົ້າ​ຢູ່​ທີ່​ນີ້​ເພື່ອ​ຄວາມ​ສະ​ດວກ​ຂອງ​ການ​ກະ​ສານ​ອ້າງ​ອີງ​ແລະ​ການ​ປັບ​ປຸງ​ຂອງ​ທ່ານ​.

#1: ຄວາມລຳອຽງຂອງລະບົບ

  • ໃຜຖືກນັບ ແລະໃຜບໍ່ຖືກນັບ?

- ບັນຫາກັບຕົວແປທີ່ແຝງ

— ການ​ເປັນ​ຕົວ​ແທນ​ຂອງ​ກຸ່ມ​ຄົນ​ດ້ອຍ​ໂອກາດ

- ອັດຕະໂນມັດຂອງຄວາມບໍ່ສະເຫມີພາບ

— ການ​ເປັນ​ຕົວ​ແທນ​ໃນ​ການ​ກໍາ​ນົດ​ຫນ້າ​ທີ່​ຜົນ​ປະ​ໂຫຍດ​

— ຂະ​ບວນ​ການ​ທີ່​ມັກ​ສ່ວນ​ໃຫຍ່ / ຊົນ​ເຜົ່າ​ສ່ວນ​ຫນ້ອຍ​

- ຄວາມ​ລໍາ​ອຽງ​ວັດ​ທະ​ນະ​ທໍາ​ໃນ​ຫນ້າ​ທີ່​ຈຸດ​ປະ​ສົງ (ທີ່​ດີ​ທີ່​ສຸດ​ສໍາ​ລັບ​ບຸກ​ຄົນ​ແລະ​ທີ່​ດີ​ທີ່​ສຸດ​ສໍາ​ລັບ​ກຸ່ມ​)

  • ພວກເຮົາຈະຮູ້ໄດ້ແນວໃດວ່າອັນໃດຖືກຕ້ອງ?

- ການ​ເສີມ​ສ້າງ​ຄວາມ​ບໍ່​ເທົ່າ​ທຽມ​ກັນ (ກຸ່ມ​ໄດ້​ຮັບ​ຜົນ​ກະ​ທົບ​ຫຼາຍ​ຂຶ້ນ​ກັບ​ການ​ນໍາ​ໃຊ້ AI ສູງ​ຂຶ້ນ​)

— ການ​ຄາດ​ຄະ​ເນ​ຕໍາ​ຫຼວດ​ໄດ້​ຮັບ​ຜົນ​ກະ​ທົບ​ທາງ​ລົບ​ຫຼາຍ​ກວ່າ​

— ການ​ຮັບ​ຮອງ​ເອົາ​ຢ່າງ​ກວ້າງ​ຂວາງ​ຂອງ ridesharing / ລົດ​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ / ແລະ​ອື່ນໆ​. ອາດຈະມີການປ່ຽນແປງນະໂຍບາຍທີ່ມີຜົນກະທົບປະຊາກອນໂດຍອີງໃສ່ການນໍາໃຊ້

ອັນດັບທີ 2: ສະຖິຕິ ແລະ ການຄິດໄລ່ອະຄະຕິ

  • ໃຜຖືກນັບ ແລະໃຜບໍ່ຖືກນັບ?

— ການ​ເກັບ​ຕົວ​ຢ່າງ​ແລະ​ອະ​ຄະ​ຕິ​ການ​ຄັດ​ເລືອກ​

— ການ​ນໍາ​ໃຊ້​ຕົວ​ແປ​ຕົວ​ແທນ​ເນື່ອງ​ຈາກ​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ແມ່ນ​ງ່າຍ​ທີ່​ຈະ​ວັດ​ແທກ​

- ຄວາມ​ລໍາ​ອຽງ​ອັດ​ຕະ​ໂນ​ມັດ​

- ຂະ​ຫນາດ Likert (ປະ​ເພດ​ກັບ​ປະ​ຕິ​ບັດ​ການ​ກັບ​ບັດ​)

- Nonlinear vs linear

— ຄວາມ​ຜິດ​ພາດ​ທາງ​ນິ​ເວດ​

— ການຫຼຸດຜ່ອນມາດຕະຖານ L1 ທຽບກັບ L2

— ຄວາມ​ຫຍຸ້ງ​ຍາກ​ທົ່ວ​ໄປ​ໃນ​ການ​ປະ​ລິ​ມານ​ປະ​ກົດ​ການ​ສະ​ພາບ​ການ​

  • ພວກເຮົາຈະຮູ້ໄດ້ແນວໃດວ່າອັນໃດຖືກຕ້ອງ?

— ຂາດ​ການ​ກວດ​ສອບ​ຂ້າມ​ທີ່​ພຽງ​ພໍ​

- ຄວາມ​ລໍາ​ອຽງ​ການ​ຢູ່​ລອດ​

- ຄວາມ​ຫຍຸ້ງ​ຍາກ​ກັບ​ຄວາມ​ຍຸດ​ຕິ​ທໍາ​

#3: ຄວາມເປັນມະນຸດ

  • ໃຜຖືກນັບ ແລະໃຜບໍ່ຖືກນັບ?

- ຄວາມ​ລໍາ​ອຽງ​ການ​ສັງ​ເກດ (ຜົນ​ກະ​ທົບ​ແສງ​ຖະ​ຫນົນ​)

- ຄວາມ​ມີ​ອະ​ຄະ​ຕິ​ທີ່​ມີ​ຢູ່ (ສະ​ຫນັບ​ສະ​ຫນູນ​)

— ຄວາມ​ຜິດ​ພາດ McNamara​

— Groupthink ນໍາ​ໄປ​ສູ່​ການ​ເລືອກ​ແຄບ​

— ຜົນ​ກະ​ທົບ Rashomon ນໍາ​ໄປ​ສູ່​ການ​ສະ​ຫນັບ​ສະ​ຫນູນ subjective​

— ຄວາມ​ຫຍຸ້ງ​ຍາກ​ໃນ​ການ​ປະ​ລິ​ມານ​ປະ​ລິ​ມານ​ອາດ​ຈະ​ນໍາ​ໄປ​ສູ່​ການ​ຜິດ​ພາດ McNamara​

  • ພວກເຮົາຈະຮູ້ໄດ້ແນວໃດວ່າອັນໃດຖືກຕ້ອງ?

- ອະຄະຕິການຢືນຢັນ

- ຄວາມ​ລໍາ​ອຽງ​ອັດ​ຕະ​ໂນ​ມັດ​

ໃນຈຸດເຊື່ອມຕໍ່ຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້າພະເຈົ້າອາດຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງໃຫ້ເຫັນເຖິງສາມປະເພດຂອງຄວາມລໍາອຽງ AI. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍໃນຖານະເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດແດ່ກ່ຽວກັບສາມປະເພດຂອງຄວາມລໍາອຽງ AI ທີ່ສະເຫນີ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI Biass

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.

ພວກເຮົາໄດ້ຖືກເລີ່ມຕົ້ນໃນປັດຈຸບັນເພື່ອລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະຄວາມເປັນໄປໄດ້ AI ດ້ານຈັນຍາບັນທີ່ປະກອບມີສາມປະເພດຂອງຄວາມລໍາອຽງ AI.

ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ກໍາລັງດໍາເນີນຢູ່ໃນຖະຫນົນໃກ້ຄຽງຂອງທ່ານແລະເບິ່ງຄືວ່າຈະຂັບລົດຢ່າງປອດໄພ. ໃນຕອນທໍາອິດ, ທ່ານໄດ້ເອົາໃຈໃສ່ເປັນພິເສດໃນແຕ່ລະຄັ້ງທີ່ເຈົ້າສາມາດຈັບຕາເບິ່ງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍານພາຫະນະທີ່ປົກຄອງຕົນເອງໄດ້ຢືນຢູ່ຂ້າງນອກດ້ວຍເຊັນເຊີເອເລັກໂຕຣນິກທີ່ປະກອບມີກ້ອງຖ່າຍຮູບວິດີໂອ, ຫນ່ວຍ radar, ອຸປະກອນ LIDAR, ແລະອື່ນໆ. ຫຼັງ​ຈາກ​ຫຼາຍ​ອາ​ທິດ​ຂອງ​ລົດ​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ລ່ອງ​ເຮືອ​ໃນ​ທົ່ວ​ຊຸມ​ຊົນ​ຂອງ​ທ່ານ​, ໃນ​ປັດ​ຈຸ​ບັນ​ທ່ານ​ເປົ່າ​ສັງ​ເກດ​ເຫັນ​ມັນ​. ຕາມທີ່ເຈົ້າເປັນຫ່ວງ, ມັນເປັນພຽງແຕ່ລົດອີກຄັນໜຶ່ງທີ່ຢູ່ເທິງຖະໜົນຫົນທາງສາທາລະນະທີ່ຫຍຸ້ງຢູ່ແລ້ວ.

ຢ້ານວ່າເຈົ້າຄິດວ່າມັນເປັນໄປບໍ່ໄດ້ ຫຼື ໄຮ້ເຫດຜົນທີ່ຈະຄຸ້ນເຄີຍກັບການເຫັນລົດຂັບລົດຕົນເອງ, ຂ້ອຍໄດ້ຂຽນເລື້ອຍໆກ່ຽວກັບວ່າທ້ອງຖິ່ນທີ່ຢູ່ໃນຂອບເຂດຂອງການທົດລອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ຄ່ອຍໆຄຸ້ນເຄີຍກັບການເຫັນລົດຍົນທີ່ໂດດເດັ່ນແນວໃດ, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້. ໃນທີ່ສຸດຄົນທ້ອງຖິ່ນຫຼາຍຄົນໄດ້ປ່ຽນຈາກປາກເປົ່າແກວ່ງປາກເປັນສຽງດັງ ກາຍເປັນຄວາມເບື່ອໜ່າຍອັນກວ້າງໃຫຍ່ໄພສານ ເພື່ອເປັນພະຍານເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ລ້ຽວນັ້ນ.

ອາດ​ຈະ​ເປັນ​ເຫດ​ຜົນ​ຕົ້ນ​ຕໍ​ໃນ​ປັດ​ຈຸ​ບັນ​ທີ່​ເຂົາ​ເຈົ້າ​ອາດ​ຈະ​ສັງ​ເກດ​ເຫັນ​ຍານ​ພາ​ຫະ​ນະ​ອັດ​ຕະ​ໂນ​ມັດ​ແມ່ນ​ຍ້ອນ​ວ່າ​ປັດ​ໄຈ​ລະ​ຄາຍ​ເຄືອງ​ແລະ exasperation ໄດ້​. ລະບົບການຂັບຂີ່ AI ທີ່ເຮັດມາຈາກປື້ມບັນທຶກໃຫ້ແນ່ໃຈວ່າລົດໄດ້ປະຕິບັດຕາມການຈໍາກັດຄວາມໄວທັງຫມົດແລະກົດລະບຽບຂອງຖະຫນົນ. ສໍາລັບຄົນຂັບລົດທີ່ວຸ້ນວາຍຢູ່ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດແບບດັ້ງເດີມ, ເຈົ້າຮູ້ສຶກຕົກໃຈໃນບາງຄັ້ງເມື່ອຕິດຢູ່ຫຼັງລົດທີ່ຂັບເອງຕາມກົດໝາຍ AI ຢ່າງເຂັ້ມງວດ.

ນັ້ນ​ແມ່ນ​ບາງ​ສິ່ງ​ບາງ​ຢ່າງ​ທີ່​ພວກ​ເຮົາ​ທຸກ​ຄົນ​ອາດ​ຈະ​ຕ້ອງ​ເຮັດ​ໃຫ້​ເຄຍ​ຊີນ, ຖືກ​ຕ້ອງ​ຫຼື​ຜິດ.

ກັບຄືນໄປບ່ອນ tale ຂອງພວກເຮົາ.

ພວກ​ເຮົາ​ຈະ​ພິ​ຈາ​ລະ​ນາ​ຕໍ່​ໄປ​ວ່າ​ຄວາມ​ລໍາ​ອຽງ​ທາງ​ລະ​ບົບ​ອາດ​ຈະ​ມາ​ຫຼິ້ນ​ໃນ​ສະ​ພາບ​ການ​ຂອງ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ນີ້​.

ນັກປາດບາງຄົນເປັນຫ່ວງຫຼາຍວ່າລົດທີ່ຂັບເອງຈະເປັນແຂວງຂອງພວກຄົນຮັ່ງມີ ແລະຄົນຊັ້ນສູງເທົ່ານັ້ນ. ມັນອາດຈະເປັນວ່າຄ່າໃຊ້ຈ່າຍໃນການນໍາໃຊ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະແພງຫຼາຍ. ເວັ້ນ ເສຍ ແຕ່ ວ່າ ທ່ານ ໄດ້ ຮັບ bucks ໃຫຍ່, ທ່ານ ອາດ ຈະ ບໍ່ ເຄີຍ ເຫັນ ພາຍ ໃນ ຂອງ ລົດ ຂັບ ລົດ ດ້ວຍ ຕົນ ເອງ. ຜູ້ທີ່ຈະນໍາໃຊ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະຕ້ອງມີຄວາມອຸດົມສົມບູນ, ມັນແມ່ນການໂຕ້ຖຽງກັນຢ່າງແນ່ນອນ.

ດ້ວຍເຫດນີ້, ບາງຄົນຈຶ່ງຂໍຮ້ອງຢ່າງບໍ່ໜ້າເຊື່ອວ່າຮູບແບບຂອງຄວາມລຳອຽງທາງລະບົບຈະແຜ່ລາມໄປສູ່ການມາເຖິງຂອງລົດທີ່ຂັບເອງຕາມ AI. ລະບົບອຸດສາຫະ ກຳ ພາຫະນະທີ່ປົກຄອງຕົນເອງໂດຍລວມຈະຮັກສາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງອອກຈາກມືຂອງຜູ້ທີ່ທຸກຍາກຫຼືຮັ່ງມີຫນ້ອຍ. ນີ້ອາດຈະບໍ່ຈໍາເປັນໂດຍເຈດຕະນາເກີນໄປແລະພຽງແຕ່ turns ໃຫ້ເຫັນວ່າວິທີດຽວທີ່ເຊື່ອກັນວ່າທີ່ຈະເອົາຄືນຄ່າໃຊ້ຈ່າຍອັນຫນັກຫນ່ວງຂອງການປະດິດລົດຂັບລົດດ້ວຍຕົນເອງຈະຄິດຄ່າບໍລິການລາຄາທີ່ສູງ outrageous.

ຖ້າທ່ານຕອບວ່າໃນມື້ນີ້ມີການທົດລອງລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອະນຸຍາດໃຫ້ຄົນປະຈໍາວັນໃຊ້, ດັ່ງນັ້ນມັນເບິ່ງຄືວ່າທ່ານບໍ່ຈໍາເປັນຕ້ອງມີຄວາມອຸດົມສົມບູນ, ການໂຕ້ຖຽງກັນແມ່ນວ່ານີ້ແມ່ນປະເພດຂອງເກມແກະ. ມັນແມ່ນ. ຜູ້ຜະລິດລົດໃຫຍ່ແລະບໍລິສັດເຕັກໂນໂລຢີທີ່ຂັບລົດດ້ວຍຕົນເອງແມ່ນເຕັມໃຈທີ່ຈະເຮັດໃຫ້ມັນເບິ່ງຄືວ່າຄ່າໃຊ້ຈ່າຍຈະບໍ່ເປັນອຸປະສັກທີ່ສໍາຄັນ. ພວກເຂົາເຈົ້າກໍາລັງດໍາເນີນການນີ້ເພື່ອຈຸດປະສົງການພົວພັນສາທາລະນະໃນປັດຈຸບັນແລະຈະ jack up ລາຄາເມື່ອພວກເຂົາໄດ້ຮັບການຄິດອອກ wrinkles. ຜູ້ສົມຮູ້ຮ່ວມຄິດອາດຈະອ້າງວ່າ "ຫມູກີເນຍ" ຍ້ອນວ່າຄົນປະຈໍາວັນກໍາລັງຖືກນໍາມາໃຊ້ຢ່າງໂຫດຮ້າຍເພື່ອເຮັດໃຫ້ຄົນຮັ່ງມີສາມາດຮັ່ງມີໄດ້ໃນທີ່ສຸດ.

ດັ່ງນັ້ນ, ເນື່ອງຈາກບັນຫາທີ່ສັບສົນຫຼາຍ, ແລະເອົາສອງເຊັນຂອງຂ້ອຍເອງໃນຫົວຂໍ້ທີ່ຮຸນແຮງນີ້, ຂ້ອຍບໍ່ເຊື່ອວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະເກີນລາຄາສໍາລັບການນໍາໃຊ້ປະຈໍາວັນ. ຂ້າ​ພະ​ເຈົ້າ​ຈະ​ບໍ່​ໄດ້​ເຂົ້າ​ໄປ​ໃນ​ລາຍ​ລະ​ອຽດ​ໃນ​ທີ່​ນີ້​ເປັນ​ພື້ນ​ຖານ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ສໍາ​ລັບ​ການ​ຮ້ອງ​ຟ້ອງ​ດັ່ງ​ກ່າວ​ແລະ​ເຊື້ອ​ເຊີນ​ທ່ານ​ເຂົ້າ​ໄປ​ເບິ່ງ​ການ​ສົນ​ທະ​ນາ​ສະ​ຕິ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະຍັງຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ກ້າວຕໍ່ໄປ, ພວກເຮົາສາມາດພິຈາລະນາເລື່ອງຂອງ AI ທີ່ກ່ຽວຂ້ອງກັບສະຖິຕິແລະອະຄະຕິການຄິດໄລ່.

ພິຈາລະນາຄໍາຖາມທີ່ເບິ່ງຄືວ່າບໍ່ມີຜົນສະທ້ອນເຖິງບ່ອນທີ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະແລ່ນໄປຫາຜູ້ໂດຍສານ. ນີ້ເບິ່ງຄືວ່າເປັນຫົວຂໍ້ທີ່ບໍ່ມີປະໂຫຍດຫຼາຍ. ພວກເຮົາຈະໃຊ້ນິທານເລື່ອງເມືອງ ຫຼືເມືອງທີ່ມີລົດຂັບລົດດ້ວຍຕົນເອງເພື່ອເນັ້ນໃຫ້ເຫັນເຖິງຄວາມໜ້າປະຫລາດໃຈທີ່ອາດເປັນຕາແປກໃຈຂອງຄວາມລຳອຽງທາງສະຖິຕິ ແລະຄອມພິວເຕີທີ່ກ່ຽວຂ້ອງກັບ AI.

ໃນຕອນທໍາອິດ, ໃຫ້ສົມມຸດວ່າ AI ກໍາລັງແລ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໃນທົ່ວເມືອງ. ໃຜກໍ່ຕາມທີ່ຕ້ອງການທີ່ຈະຮ້ອງຂໍການຂັບເຄື່ອນໃນລົດທີ່ຂັບລົດຕົນເອງໄດ້ມີໂອກາດເທົ່າທຽມກັນທີ່ຈະຊົມເຊີຍຫນຶ່ງ. ຄ່ອຍໆ, AI ໄດ້ເລີ່ມຕົ້ນທີ່ຈະຮັກສາລົດຂັບລົດດ້ວຍຕົນເອງເປັນຕົ້ນຕໍ roaming ຢູ່ໃນພຽງແຕ່ຫນຶ່ງພາກສ່ວນຂອງຕົວເມືອງ. ພາກສ່ວນນີ້ແມ່ນຜູ້ສ້າງເງິນຫຼາຍກວ່າເກົ່າແລະລະບົບ AI ໄດ້ຖືກດໍາເນີນໂຄງການເພື່ອພະຍາຍາມແລະສ້າງລາຍໄດ້ສູງສຸດເປັນສ່ວນຫນຶ່ງຂອງການນໍາໃຊ້ໃນຊຸມຊົນ.

ສະມາຊິກຊຸມຊົນໃນເຂດທີ່ທຸກຍາກຂອງຕົວເມືອງມີແນວໂນ້ມຫນ້ອຍທີ່ຈະສາມາດຂີ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້. ອັນນີ້ແມ່ນຍ້ອນວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ຢູ່ໄກອອກໄປ ແລະ roaming ໃນພາກສ່ວນລາຍຮັບທີ່ສູງຂຶ້ນຂອງທ້ອງຖິ່ນ. ເມື່ອຄໍາຮ້ອງຂໍເຂົ້າມາຈາກເຂດຫ່າງໄກຂອງຕົວເມືອງ, ການຮ້ອງຂໍໃດໆຈາກສະຖານທີ່ໃກ້ຊິດທີ່ມີແນວໂນ້ມໃນສ່ວນ "ເປັນທີ່ເຄົາລົບ" ຂອງເມືອງຈະໄດ້ຮັບຄວາມສໍາຄັນສູງກວ່າ. ໃນທີ່ສຸດ, ການມີລົດຂັບລົດດ້ວຍຕົນເອງຢູ່ບ່ອນໃດບ່ອນໜຶ່ງນອກເໜືອໄປຈາກເຂດທີ່ອຸດົມສົມບູນຂອງເມືອງແມ່ນເກືອບເປັນໄປບໍ່ໄດ້, ເປັນສິ່ງທີ່ໜ້າຕື່ນເຕັ້ນຫຼາຍສຳລັບຜູ້ທີ່ອາໄສຢູ່ໃນເຂດທີ່ຂາດແຄນຊັບພະຍາກອນໃນປັດຈຸບັນ.

ທ່ານສາມາດຍືນຍັນວ່າ AI ໄດ້ລົງຈອດຢູ່ໃນຮູບແບບຂອງຄວາມລໍາອຽງທາງສະຖິຕິແລະຄອມພິວເຕີ້, ເຊິ່ງຄ້າຍຄືກັບຮູບແບບການຈໍາແນກຕົວແທນ (ຍັງມັກຈະເອີ້ນວ່າການຈໍາແນກທາງອ້ອມ). AI ບໍ່ໄດ້ຕັ້ງໂຄງການເພື່ອຫຼີກເວັ້ນເຂດທີ່ທຸກຍາກເຫຼົ່ານັ້ນ. ແທນທີ່ຈະ, ມັນ "ຮຽນຮູ້" ທີ່ຈະເຮັດແນວນັ້ນໂດຍຜ່ານການນໍາໃຊ້ ML / DL.

ສົມມຸດວ່າ AI ຈະບໍ່ຕົກຢູ່ໃນດິນຊາຍທີ່ໜ້າອັບອາຍປະເພດນັ້ນ. ບໍ່ມີການຕັ້ງການຕິດຕາມແບບພິເສດເພື່ອຕິດຕາມບ່ອນທີ່ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ໄດ້ໄປ. ພຽງແຕ່ຫຼັງຈາກສະມາຊິກຊຸມຊົນເລີ່ມຈົ່ມວ່າຜູ້ນໍາເມືອງຮູ້ສິ່ງທີ່ເກີດຂຶ້ນ. ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບປະເພດຂອງບັນຫາທົ່ວເມືອງເຫຼົ່ານີ້ທີ່ຍານພາຫະນະອັດຕະໂນມັດແລະລົດຂັບລົດຕົນເອງກໍາລັງຈະນໍາສະເຫນີ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍທີ່ ລິ້ງນີ້ຢູ່ນີ້ ແລະທີ່ອະທິບາຍການສຶກສາທີ່ນໍາພາໂດຍ Harvard ທີ່ຂ້າພະເຈົ້າໄດ້ຮ່ວມກັນຂຽນໃນຫົວຂໍ້.

ສໍາລັບປະເພດທີສາມຂອງຄວາມລໍາອຽງຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບຄວາມລໍາອຽງ AI, ພວກເຮົາຫັນໄປຫາຕົວຢ່າງທີ່ກ່ຽວຂ້ອງກັບ AI ກໍານົດວ່າຈະຢຸດເຊົາການລໍຖ້າຄົນຍ່າງທາງທີ່ບໍ່ມີສິດທີ່ຈະຂ້າມຖະຫນົນ.

ແນ່ນອນເຈົ້າໄດ້ຂັບລົດໄປ ແລະໄດ້ພົບກັບຄົນຍ່າງທາງທີ່ລໍຖ້າຂ້າມຖະໜົນ ແຕ່ເຂົາເຈົ້າບໍ່ມີສິດທີ່ຈະເຮັດແນວນັ້ນ. ນີ້ຫມາຍຄວາມວ່າທ່ານມີການຕັດສິນໃຈທີ່ຈະຢຸດແລະປ່ອຍໃຫ້ພວກເຂົາຂ້າມ. ທ່ານສາມາດດໍາເນີນການໄດ້ໂດຍບໍ່ປ່ອຍໃຫ້ພວກເຂົາຂ້າມຜ່ານແລະຍັງຢູ່ໃນກົດລະບຽບການຂັບຂີ່ທີ່ຖືກຕ້ອງຕາມກົດຫມາຍຂອງການເຮັດເຊັ່ນນັ້ນ.

ການສຶກສາກ່ຽວກັບວິທີທີ່ຄົນຂັບລົດມະນຸດຕັດສິນໃຈຢຸດ ຫຼືບໍ່ຢຸດສຳລັບຄົນຍ່າງທາງນັ້ນ ໄດ້ແນະນຳວ່າ ບາງຄັ້ງຄົນຂັບລົດມະນຸດເລືອກໂດຍພື້ນຖານຂອງຄວາມລຳອຽງທີ່ບໍ່ມີເຫດຜົນ. ຄົນຂັບລົດມະນຸດອາດຈະແນມເບິ່ງຄົນຍ່າງ ແລະເລືອກທີ່ຈະບໍ່ຢຸດ, ເຖິງແມ່ນວ່າເຂົາເຈົ້າຈະຢຸດແລ້ວກໍຕາມ ຖ້າຄົນຍ່າງມີຮູບຮ່າງທີ່ແຕກຕ່າງເຊັ່ນ: ອີງໃສ່ເຊື້ອຊາດ ຫຼືເພດ. ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ກວດ​ກາ​ນີ້​ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI ແມ່ນໂຄງການເພື່ອຈັດການກັບຄໍາຖາມທີ່ຈະຢຸດຫລືບໍ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາ. ນີ້ແມ່ນວິທີທີ່ຜູ້ພັດທະນາ AI ຕັດສິນໃຈຂຽນໂປຣແກຣມນີ້. ພວກເຂົາເຈົ້າເກັບກໍາຂໍ້ມູນຈາກກ້ອງຖ່າຍຮູບວິດີໂອຂອງຕົວເມືອງທີ່ວາງໄວ້ທົ່ວເມືອງ. ຂໍ້ມູນສະແດງໃຫ້ເຫັນຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາແລະຄົນຂັບລົດຂອງມະນຸດທີ່ບໍ່ຢຸດ. ມັນໄດ້ຖືກລວບລວມທັງຫມົດເຂົ້າໄປໃນຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່.

ໂດຍການນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກແລະການຮຽນຮູ້ເລິກ, ຂໍ້ມູນໄດ້ຖືກສ້າງແບບຈໍາລອງໃນຄອມພິວເຕີ້. ລະບົບການຂັບຂີ່ AI ຫຼັງຈາກນັ້ນໃຊ້ຮູບແບບນີ້ເພື່ອຕັດສິນໃຈວ່າເວລາໃດຈະຢຸດຫຼືບໍ່ຢຸດ. ໂດຍທົ່ວໄປແລ້ວ, ແນວຄວາມຄິດແມ່ນວ່າສິ່ງໃດກໍ່ຕາມທີ່ປະເພນີທ້ອງຖິ່ນປະກອບດ້ວຍ, ນີ້ແມ່ນວິທີທີ່ AI ກໍາລັງຊີ້ນໍາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ.

ເພື່ອຄວາມແປກໃຈຂອງຜູ້ນໍາເມືອງແລະຊາວເມືອງ, ເຫັນໄດ້ຊັດເຈນວ່າ AI ໄດ້ເລືອກທີ່ຈະຢຸດຫຼືບໍ່ຢຸດໂດຍອີງໃສ່ອາຍຸຂອງຜູ້ຍ່າງ. ມັນເກີດຂຶ້ນໄດ້ແນວໃດ?

ຫຼັງຈາກການທົບທວນຄືນຢ່າງໃກ້ຊິດຂອງວິດີໂອຂອງການຕັດສິນໃຈຂອງຜູ້ຂັບຂີ່ຂອງມະນຸດ, ມັນ turns ໃຫ້ເຫັນວ່າຫຼາຍກໍລະນີຂອງການບໍ່ຢຸດ entailed pedestrians ທີ່ມີ cane ຍ່າງຂອງພົນລະເມືອງອາວຸໂສ. ເບິ່ງຄືວ່າຜູ້ຂັບຂີ່ຂອງມະນຸດບໍ່ເຕັມໃຈທີ່ຈະຢຸດແລະປ່ອຍໃຫ້ຜູ້ສູງອາຍຸຂ້າມຖະຫນົນ, ອາດຈະເປັນຍ້ອນໄລຍະເວລາທີ່ຄາດວ່າຈະໃຊ້ເວລາສໍາລັບຄົນທີ່ຈະເດີນທາງ. ຖ້າຄົນຍ່າງທາງເບິ່ງຄືວ່າພວກເຂົາສາມາດ dart ຂ້າມຖະຫນົນຢ່າງໄວວາແລະຫຼຸດຜ່ອນເວລາລໍຖ້າຂອງຜູ້ຂັບຂີ່, ຄົນຂັບລົດແມ່ນມີຄວາມເຫມາະສົມຫຼາຍທີ່ຈະປ່ອຍໃຫ້ຄົນຂ້າມ.

ນີ້ໄດ້ຖືກຝັງເລິກເຂົ້າໄປໃນລະບົບການຂັບລົດ AI. ເຊັນເຊີຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະສະແກນຄົນຍ່າງທາງທີ່ລໍຖ້າ, ປ້ອນຂໍ້ມູນນີ້ເຂົ້າໄປໃນແບບຈໍາລອງ ML/DL, ແລະຕົວແບບຈະປ່ອຍສັນຍານໃຫ້ກັບ AI ວ່າຈະຢຸດ ຫຼື ສືບຕໍ່. ສັນຍານສາຍຕາໃດໆກໍຕາມທີ່ຄົນຍ່າງຂ້າມທາງອາດຈະຊ້າ, ເຊັ່ນ: ການໃຊ້ໄມ້ຄ້ອນຍ່າງ, ທາງຄະນິດສາດໄດ້ຖືກນໍາໃຊ້ເພື່ອກໍານົດວ່າລະບົບການຂັບຂີ່ AI ຄວນປ່ອຍໃຫ້ຄົນຍ່າງຂ້າມທາງຫຼືບໍ່.

ເຈົ້າສາມາດໂຕ້ແຍ້ງໄດ້ວ່ານີ້ແມ່ນການເພິ່ງພາອະຄະຕິຂອງມະນຸດທີ່ມີມາກ່ອນ.

ສະຫຼຸບ

ບາງຄວາມຄິດສຸດທ້າຍສໍາລັບໃນປັດຈຸບັນ.

ມີຄຳເວົ້າທີ່ນິຍົມກັນວ່າທ່ານບໍ່ສາມາດປ່ຽນບັດທີ່ເຈົ້າຖືກແຈກຈ່າຍໄດ້ ແລະ ແທນທີ່ຈະຕ້ອງຮຽນຮູ້ວິທີຫຼິ້ນຢ່າງພຽງພໍກັບມືອັນໃດກໍໄດ້ທີ່ເຈົ້າໄດ້ຮັບ.

ໃນກໍລະນີຂອງຄວາມລໍາອຽງຂອງ AI, ຖ້າພວກເຮົາບໍ່ເອົາໃຈໃສ່ຢ່າງຈິງຈັງໃນການສ້າງຕັ້ງຈັນຍາບັນ AI ໃນທົ່ວຄະນະແລະໂດຍສະເພາະແມ່ນການເສີມສ້າງຄຸນລັກສະນະຂອງອະຄະຕິ AI, ປະເພດຂອງມືທີ່ພວກເຮົາຈະຈັດການກັບຈະລົ້ນໄປດ້ວຍສິນທໍາທີ່ບໍ່ມີຈັນຍາບັນ,. ແລະ​ອາດ​ຈະ​ເປັນ​ການ​ກະທຳ​ທີ່​ຜິດ​ກົດໝາຍ. ພວກ​ເຮົາ​ຕ້ອງ​ຢຸດ​ບັດ​ເຫຼົ່າ​ນັ້ນ​ຈາກ​ທີ່​ເຄີຍ​ຖືກ dealt​, ເພື່ອ​ເລີ່ມ​ຕົ້ນ​ດ້ວຍ​ການ​. ຈຸດປະສົງອັນກ້າຫານເພື່ອສ້າງ ແລະປະກາດໃຊ້ມາດຕະຖານ AI ດ້ານຈັນຍາບັນ ເປັນເຄື່ອງມືທີ່ສຳຄັນເພື່ອຕ້ານຄື້ນຊູນາມິທີ່ກຳລັງຈະມາເຖິງ. AI ສໍາລັບບໍ່ດີ.

ເຈົ້າສາມາດຕັດສິນໃຈໄປທະນາຄານໄດ້ວ່າຄວາມລຳອຽງຂອງ AI ທີ່ແຜ່ລາມອອກໄປ ແລະ AI ທີ່ບໍ່ມີຈັນຍາບັນຈະເປັນຄືກັບບັດທີ່ອ່ອນເພຍ, ທັບຖົມຕົວມັນເອງ ແລະອາດຈະເປັນອັນຕະລາຍຕໍ່ພວກເຮົາທຸກຄົນ.

ມາຫຼິ້ນເພື່ອຊະນະ, ເຮັດແນວນັ້ນດ້ວຍ AI ທີ່ເໝາະສົມກັບຈັນຍາບັນ.

ແຫຼ່ງຂໍ້ມູນ: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-ອະຄະຕິ/