ເຈົ້າເຄີຍຫຼີ້ນການເກັບບັດຫ້າສິບສອງບໍ?
ມັນບໍ່ແມ່ນເກມທີ່ເຈົ້າຈະເຮັດຕາມປົກກະຕິ. ນີ້ແມ່ນເຫດຜົນ. ມີຄົນສະເໜີໃຫ້ທ່ານວ່າມັນເປັນກິລາທີ່ມ່ວນ ແລະ ຖ້າເຈົ້າເອົາເຫຍື່ອຫວານໆ ເຂົາເຈົ້າກໍ່ໂຍນບັດຫຼິ້ນທັງໝົດຂຶ້ນເທິງອາກາດ ແລະ ສະຫຼຸບລົງພື້ນ. ຫຼັງຈາກນັ້ນ, ບຸກຄົນນັ້ນເຮັດໃຫ້ເຈົ້າຍິ້ມແຍ້ມແຈ່ມໃສແລະບອກເຈົ້າໄປກ່ອນແລະເອົາບັດ. ນັ້ນແມ່ນເກມທັງຫມົດ.
ຂີ້ຄ້ານ!
ຂ້າພະເຈົ້າມີຄໍາຖາມທີ່ຄິດບາງຢ່າງທີ່ຈະຖາມທ່ານກ່ຽວກັບການນີ້.
ສົມມຸດວ່າບັດອັນໜຶ່ງຕົກລົງມາໃຕ້ໂຊຟາໃກ້ໆ. ເມື່ອເຈົ້າເກັບບັດທັງໝົດແລ້ວ ເຈົ້າກໍຈະຮູ້ວ່າໃບໜຶ່ງຂາດໄປ ເພາະໃນມືເຈົ້າມີພຽງຫ້າສິບໃບ.
ຄໍາຖາມແມ່ນ, ທ່ານສາມາດກໍານົດວ່າບັດໃດຂາດຫາຍໄປ?
ຂ້າພະເຈົ້າແນ່ໃຈວ່າທ່ານຈະເວົ້າໃນທັນທີວ່າທ່ານໄດ້ຢ່າງງ່າຍດາຍສາມາດຄິດອອກວ່າບັດທີ່ບໍ່ໄດ້ຢູ່ໃນມືຂອງທ່ານ. ທັງຫມົດທີ່ທ່ານຈະຕ້ອງເຮັດແມ່ນເຮັດໃຫ້ດາດຟ້າເປັນຄໍາສັ່ງ. ເຈົ້າຮູ້ບໍວ່າດາດຟ້າມາດຕະຖານປະກອບດ້ວຍສີ່ຊຸດ ແລະແຕ່ລະຊຸດບັດແມ່ນນັບຈາກໜຶ່ງຫາສິບ ແລະຈາກນັ້ນເຂົ້າໄປໃນ Jack, Queen, ແລະ King.
ເຈົ້າຮູ້ເລື່ອງນີ້ເພາະວ່າບັດມາດຕະຖານຂອງການຫຼີ້ນບັດແມ່ນອີງໃສ່ມາດຕະຖານ.
ໂອ້, ຄໍາຖະແຫຼງທີ່ອາດຈະເບິ່ງຄືວ່າເປັນຫນຶ່ງໃນການຢືນຢັນທີ່ຊັດເຈນທັງຫມົດ. ດີ, ແມ່ນແລ້ວ, ແນ່ນອນ, ສຽງຫຼິ້ນມາດຕະຖານແມ່ນອີງໃສ່ມາດຕະຖານ. ພວກເຮົາທຸກຄົນຮູ້ວ່າ. ຈຸດຂອງຂ້ອຍແມ່ນວ່າໂດຍການມີມາດຕະຖານທີ່ພວກເຮົາສາມາດອີງໃສ່ມາດຕະຖານໃນເວລາທີ່ຈໍາເປັນ. ນອກຈາກທີ່ຈະສາມາດຕັດສິນວ່າບັດໃດທີ່ຂາດໄປຈາກ deck ໄດ້, ທ່ານຍັງສາມາດຫຼິ້ນຫຼາຍລ້ານເກມບັດທີ່ຮູ້ຈັກດີກັບຜູ້ອື່ນ. ເມື່ອມີຄົນບອກກົດລະບຽບຂອງເກມ, ພວກເຂົາສາມາດຫຼິ້ນໄດ້ໂດຍກົງເພາະວ່າພວກເຂົາຮູ້ຢ່າງເຕັມທີ່ວ່າຊັ້ນປະກອບມີຫຍັງ. ເຈົ້າບໍ່ ຈຳ ເປັນຕ້ອງອະທິບາຍໃຫ້ພວກເຂົາຮູ້ວ່າດາດຟ້າມີສີ່ຊຸດແລະບັດຕົວເລກຕ່າງໆ. ພວກເຂົາເຈົ້າຮູ້ແລ້ວວ່າຈະເປັນກໍລະນີ.
ຂ້ອຍໄປໃສກັບສິ່ງນີ້?
ຂ້ອຍກໍາລັງພະຍາຍາມນໍາເຈົ້າໄປສູ່ເສັ້ນທາງທີ່ເປັນວິທີທີ່ສໍາຄັນຂອງຄວາມກ້າວຫນ້າໃນດ້ານ AI ແລະໂດຍສະເພາະແມ່ນຂົງເຂດຂອງ AI ຈັນຍາບັນແລະຈັນຍາບັນ AI. ທ່ານເຫັນ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ພະຍາຍາມແລະໄດ້ຮັບການຍອມຮັບຢ່າງກວ້າງຂວາງແລະທັງຫມົດຕາມມາດຕະຖານກ່ຽວກັບຈັນຍາບັນ AI. ຖ້າພວກເຮົາສາມາດເຮັດໄດ້, ມັນຈະຊ່ວຍເພີ່ມຄວາມງ່າຍຂອງການຮັບເອົາ AI ດ້ານຈັນຍາບັນແລະສະແດງໃຫ້ເຫັນເຖິງຈຸດປະສົງເພື່ອປັບປຸງລະບົບ AI ທີ່ສືບຕໍ່ເອົາ pell-mell ເຂົ້າໄປໃນຕະຫຼາດ (ເຊັ່ນ: ບັດປ່າທໍາມະຊາດທີ່ບໍ່ມີຕົວເລກແລະບໍ່ມີຄໍາສັ່ງ). ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI, ຈັນຍາບັນ AI, ແລະກົດຫມາຍ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.
ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກຈາກ vociferous ທາງດ້ານກົດຫມາຍ ການສະແຫວງຫາການຍຶດໝັ້ນໃນການກະທຳຜິດ, ຍັງມີການຊຸກຍູ້ອັນສຳຄັນໄປສູ່ການຖືສິນທຳ AI ເພື່ອແກ້ໄຂຄວາມຊົ່ວຮ້າຍຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມກັນນັ້ນ ໄດ້ປະກາດ ແລະ ສົ່ງເສີມຄວາມນິຍົມ AI ສໍາລັບທີ່ດີ.
ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).
ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.
ຂ້າພະເຈົ້າເອົາມານີ້ເພື່ອສ້າງພື້ນຖານສໍາລັບການສົນທະນາຂອງຂ້າພະເຈົ້າຢູ່ທີ່ນີ້ທີ່ຈະສຸມໃສ່ບາງສ່ວນຫຼືສ່ວນຫນຶ່ງຂອງຂອບເຂດທີ່ກວ້າງຂວາງຂອງຈັນຍາບັນ AI, ຄືດັ່ງທີ່ໄດ້ກ່າວມາກ່ອນຫນ້ານີ້ອົງປະກອບສະເພາະຂອງຄວາມລໍາອຽງ AI. ເຫດຜົນຄືກັນທີ່ຂ້ອຍແບ່ງປັນຫົວຂໍ້ນີ້ກັບທ່ານແມ່ນວ່າເອກະສານທີ່ອອກໂດຍສະຖາບັນມາດຕະຖານແລະເຕັກໂນໂລຢີແຫ່ງຊາດ (NIST) ກໍາລັງພະຍາຍາມເຮັດໃຫ້ພວກເຮົາກ້າວໄປສູ່ຄວາມລໍາອຽງຂອງ AI ມາດຕະຖານ. ເອກະສານແມ່ນມີສິດ ໄປສູ່ມາດຕະຖານສໍາລັບການກໍານົດແລະການຄຸ້ມຄອງຄວາມລໍາອຽງໃນປັນຍາປະດິດ ໂດຍຜູ້ຂຽນ Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt, ແລະ Patrick Hall, ແລະຖືກຕີພິມໂດຍກະຊວງການຄ້າສະຫະລັດ, NIST Special Publication 1270, ໃນເດືອນມີນາ 2022.
ພວກເຮົາຈະຖອດຖອນຄວາມພະຍາຍາມທີ່ມີປະໂຫຍດແລະຊຸກຍູ້ນີ້ໄປສູ່ການສ້າງຕັ້ງສິ່ງທີ່ພວກເຮົາຫມາຍຄວາມວ່າໂດຍຄວາມລໍາອຽງ AI. ຄຳ ເວົ້າເກົ່າແມ່ນທ່ານບໍ່ສາມາດຈັດການກັບສິ່ງທີ່ເຈົ້າບໍ່ສາມາດວັດແທກໄດ້. ໂດຍການມີມາດຕະຖານທີ່ວາງອອກຄວາມຫຼາກຫຼາຍຂອງອະຄະຕິ AI, ທ່ານສາມາດເລີ່ມວັດແທກ ແລະຈັດການຄວາມລຳອຽງຂອງ AI ໄດ້.
ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.
ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:
- ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
- ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
- ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
- ບໍ່ ລຳ ອຽງ: ຫ້າມສ້າງຫຼືກະທຳຕາມຄວາມລຳອຽງ, ເປັນການປົກປ້ອງຄວາມຍຸຕິທຳ ແລະ ກຽດສັກສີຂອງມະນຸດ
- ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
- ຄວາມປອດໄພແລະຄວາມເປັນສ່ວນຕົວ: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.
ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:
- ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
- ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
- ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະການກວດສອບ, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
- ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
- ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.
ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:
- ຄວາມໂປ່ງໃສ
- ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
- ຄວາມບໍ່ເປັນອັນຕະລາຍ
- ຄວາມຮັບຜິດຊອບ
- ຄວາມເປັນສ່ວນຕົວ
- ຜົນປະໂຫຍດ
- ເສລີພາບ & ການປົກຄອງຕົນເອງ
- ຄວາມໄວ້ວາງໃຈ
- ຄວາມຍືນຍົງ
- ກຽດຕິຍົດ
- ຄວາມສົມດຸນ
ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.
ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.
ພາຍໃຕ້ຫຼັກການຫຼັກຈັນຍາບັນຂອງ AI ຫຼັກໆນັ້ນແມ່ນລັກສະນະທີ່ຊົ່ວຮ້າຍຂອງຄວາມລຳອຽງຂອງ AI.
ຄືກັນກັບແຜ່ນບັດ, ມັນແນ່ນອນວ່າມັນຈະດີຖ້າພວກເຮົາສາມາດຈັດກຸ່ມຄວາມລໍາອຽງຂອງ AI ເຂົ້າໄປໃນຊຸດຂອງ "ຊຸດ" ຫຼືປະເພດຕ່າງໆ. ແທ້ຈິງແລ້ວ, ເອກະສານ NIST ສະເຫນີການຈັດກຸ່ມທີ່ແນະນໍາ.
ສາມປະເພດທີ່ສໍາຄັນແມ່ນໄດ້ຮັບການສະເຫນີ:
1) ອະຄະຕິລະບົບ
2) ສະຖິຕິ ແລະ ການຄິດໄລ່ອະຄະຕິ
3) ອະຄະຕິຂອງມະນຸດ
ບໍ່ວ່າຈະເປັນຄວາມລຳອຽງ AI ທັງໝົດທີ່ເໝາະສົມພາຍໃນໜຶ່ງໃນສາມໝວດໝູ່ນັ້ນແມ່ນແນ່ນອນວ່າເປັນສິ່ງທີ່ຄວນພິຈາລະນາ. ທ່ານສາມາດໂຕ້ຖຽງໄດ້ຢ່າງແນ່ນອນວ່າຄວາມລໍາອຽງຂອງ AI ຕົກຢູ່ໃນຫນຶ່ງ, ສອງ, ຫຼືສາມປະເພດໃນເວລາດຽວກັນ. ນອກຈາກນັ້ນ, ທ່ານອາດຈະອ້າງວ່າປະເພດຫຼາຍສົມຄວນທີ່ຈະໄດ້ຮັບການກ່າວເຖິງ, ເຊັ່ນ: ບາງຊຸດທີສີ່, ຫ້າ, ຫົກ, ຫຼືຫຼາຍກຸ່ມ.
ຂ້າພະເຈົ້າຫວັງວ່ານັ້ນແມ່ນສິ່ງທີ່ທ່ານກໍາລັງຄິດເພາະວ່າພວກເຮົາຕ້ອງການໃຫ້ທຸກຄົນທີ່ມີສ່ວນຮ່ວມໃນການຊ່ວຍເຫຼືອການສ້າງມາດຕະຖານເຫຼົ່ານີ້. ຖ້າຫາກວ່າທ່ານຖືກກະຕຸ້ນກັບວິທີການທີ່ມາດຕະຖານເຫຼົ່ານີ້ກໍາລັງສ້າງຂຶ້ນເປັນຄັ້ງທໍາອິດ, ຂ້າພະເຈົ້າຂໍແນະນໍາໃຫ້ທ່ານປ່ຽນພະລັງງານທີ່ເປັນການຊ່ວຍເຫຼືອຂອງພວກເຮົາໃນການເຮັດໃຫ້ມາດຕະຖານທີ່ແຂງແຮງແລະສໍາເລັດສົມບູນທີ່ພວກເຂົາເຈົ້າສາມາດໄດ້ຮັບການແກະສະຫລັກ.
ສໍາລັບໃນປັດຈຸບັນ, ພວກເຮົາສາມາດພິຈາລະນາຢ່າງລະອຽດກ່ຽວກັບສາມປະເພດທີ່ສະເຫນີແລະເບິ່ງວ່າມືປະເພດໃດທີ່ພວກເຮົາໄດ້ຮັບການຈັດການກັບມາເຖິງຕອນນັ້ນ (ແມ່ນແລ້ວ, ຂ້ອຍຈະສືບຕໍ່ໃຊ້ການປຽບທຽບກັບສຽງຂອງຫຼີ້ນບັດ, ເຮັດແນວນັ້ນ. ຕະຫຼອດທັງຫມົດຂອງສິ້ນລາຍລັກອັກສອນນີ້, ທ່ານສາມາດວາງເດີມພັນເງິນໂດລາລຸ່ມສຸດຂອງທ່ານ ace ທີ່ບໍ່ເຊື່ອງໄວ້ດັ່ງນັ້ນຂອງຫົວຂໍ້ໃດຫນຶ່ງ).
ການອ້າງອີງເຖິງຄວາມລຳອຽງທາງລະບົບໝາຍເຖິງຫຍັງ?
ນີ້ແມ່ນສິ່ງທີ່ເອກະສານ NIST ກ່າວວ່າ: "ຄວາມລໍາອຽງຂອງລະບົບເປັນຜົນມາຈາກຂັ້ນຕອນແລະການປະຕິບັດຂອງສະຖາບັນສະເພາະທີ່ດໍາເນີນການໃນວິທີການທີ່ສົ່ງຜົນໃຫ້ບາງກຸ່ມສັງຄົມໄດ້ຮັບຜົນປະໂຫຍດຫຼືຄວາມໂປດປານແລະຜູ້ອື່ນຖືກດ້ອຍໂອກາດຫຼືຫຼຸດລົງ. ນີ້ບໍ່ຈໍາເປັນຕ້ອງເປັນຜົນມາຈາກຄວາມລໍາອຽງຫຼືການຈໍາແນກສະຕິ, ແຕ່ສ່ວນໃຫຍ່ແມ່ນປະຕິບັດຕາມກົດລະບຽບຫຼືມາດຕະຖານທີ່ມີຢູ່ແລ້ວ. ການຈຳແນກເຊື້ອຊາດໃນສະຖາບັນ ແລະ ການຮ່ວມເພດແມ່ນຕົວຢ່າງທີ່ພົບເລື້ອຍທີ່ສຸດ” (ໃຫ້ສັງເກດວ່າອັນນີ້ແມ່ນພຽງແຕ່ການຍົກອອກມາສັ້ນໆ ແລະ ຊຸກຍູ້ໃຫ້ຜູ້ອ່ານເຫັນຄຳອະທິບາຍທີ່ຄົບຖ້ວນກວ່າ).
AI ເຂົ້າມາໃນການປະສົມປະສານຂອງອະຄະຕິລະບົບໂດຍການສະຫນອງວິທີການຖ່າຍທອດແລະນໍາໃຊ້ຄວາມລໍາອຽງເຫຼົ່ານັ້ນໃນແອັບຯທີ່ໃຊ້ AI. ທຸກຄັ້ງທີ່ເຈົ້າໃຊ້ຊອຟແວທີ່ປະກອບ AI, ສຳລັບທຸກສິ່ງທີ່ເຈົ້າຮູ້ວ່າມັນອາດມີອະຄະຕິເລັກນ້ອຍທີ່ເຂົ້າມາໃນລະບົບຜ່ານບໍລິສັດ ແລະ ການປະຕິບັດອຸດສາຫະກໍາທີ່ນໍາໄປສູ່ການສ້າງ AI. ອີງຕາມການສຶກສາຂອງ NIST: "ຄວາມລໍາອຽງເຫຼົ່ານີ້ແມ່ນມີຢູ່ໃນຊຸດຂໍ້ມູນທີ່ໃຊ້ໃນ AI, ແລະມາດຕະຖານຂອງສະຖາບັນ, ການປະຕິບັດ, ແລະຂະບວນການໃນທົ່ວວົງຈອນຊີວິດ AI ແລະໃນວັດທະນະທໍາແລະສັງຄົມທີ່ກວ້າງຂວາງ."
ຕໍ່ໄປ, ພິຈາລະນາຊຸດຂອງຄວາມລໍາອຽງທີ່ຕິດສະຫລາກວ່າເປັນຄວາມລໍາອຽງທາງສະຖິຕິແລະຄອມພິວເຕີ້.
ເອກະສານ NIST ກ່າວນີ້: "ຄວາມລໍາອຽງທາງສະຖິຕິແລະການຄິດໄລ່ແມ່ນມາຈາກຄວາມຜິດພາດທີ່ສົ່ງຜົນໃຫ້ຕົວຢ່າງບໍ່ແມ່ນຕົວແທນຂອງປະຊາກອນ. ອະຄະຕິເຫຼົ່ານີ້ເກີດມາຈາກລະບົບທີ່ກົງກັນຂ້າມກັບຄວາມຜິດພາດແບບສຸ່ມ ແລະສາມາດເກີດຂຶ້ນໄດ້ໃນກໍລະນີທີ່ບໍ່ມີອະຄະຕິ, ຄວາມບໍ່ເປັນສ່ວນໜຶ່ງ ຫຼືເຈດຕະນາຈຳແນກ. ໃນລະບົບ AI, ຄວາມລໍາອຽງເຫຼົ່ານີ້ແມ່ນມີຢູ່ໃນຊຸດຂໍ້ມູນແລະຂະບວນການ algorithmic ທີ່ໃຊ້ໃນການພັດທະນາຄໍາຮ້ອງສະຫມັກ AI, ແລະມັກຈະເກີດຂື້ນເມື່ອ algorithms ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນປະເພດຫນຶ່ງແລະບໍ່ສາມາດ extrapolate ເກີນກວ່າຂໍ້ມູນເຫຼົ່ານັ້ນ.
ອະຄະຕິທາງສະຖິຕິ ແລະຄອມພິວເຕີປະເພດນີ້ມັກຈະຖືກປຸງແຕ່ງເປັນລະບົບ AI ທີ່ໃຊ້ Machine Learning (ML) ແລະ Deep Learning (DL). ການຍົກເອົາເລື່ອງອັນໜັກໜ່ວງຂອງ ML/DL ຍຸກສະໄໝນີ້ ຈໍາເປັນຕ້ອງມີສ່ວນກ່ຽວຂ້ອງກັນກ່ຽວກັບສິ່ງທີ່ AI ແມ່ນຫຍັງ ແລະ ML/DL ແມ່ນຫຍັງ.
ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ຂອງມື້ນີ້.
ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).
ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).
ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.
ຮັບຮູ້ວ່າ AI ໃນທຸກມື້ນີ້ບໍ່ສາມາດ “ຄິດ” ໃນແບບໃດກໍຕາມເທົ່າກັບແນວຄິດຂອງມະນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກລ່າສຸດຂອງ AI ໄດ້ນຳໃຊ້ເຄື່ອງຈັກ ແລະການຮຽນຮູ້ເລິກລັບຢ່າງກວ້າງຂວາງ, ເຊິ່ງໃຊ້ການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.
ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.
ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.
ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.
ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.
ບໍ່ດີ.
ນີ້ນໍາພວກເຮົາໄປສູ່ປະເພດທີສາມຂອງ NIST ຂອງສາມກຸ່ມ, ໂດຍສະເພາະບົດບາດຂອງຄວາມລໍາອຽງຂອງມະນຸດໃນການເກີດຂື້ນຂອງຄວາມລໍາອຽງ AI. ນີ້ແມ່ນສິ່ງທີ່ເອກະສານ NIST ຊີ້ບອກວ່າ: "ຄວາມລໍາອຽງຂອງມະນຸດສະທ້ອນໃຫ້ເຫັນເຖິງຄວາມຜິດພາດທີ່ເປັນລະບົບໃນຄວາມຄິດຂອງມະນຸດໂດຍອີງໃສ່ຈໍານວນຈໍາກັດຂອງຫຼັກການ heuristic ແລະການຄາດຄະເນມູນຄ່າຕໍ່ການດໍາເນີນການຕັດສິນທີ່ງ່າຍດາຍ. ຄວາມລໍາອຽງເຫຼົ່ານີ້ມັກຈະເປັນ implicit ແລະມີແນວໂນ້ມທີ່ຈະກ່ຽວຂ້ອງກັບວິທີການບຸກຄົນຫຼືກຸ່ມຮັບຮູ້ຂໍ້ມູນ (ເຊັ່ນ: ອັດຕະໂນມັດຜົນຜະລິດ AI) ໃນການຕັດສິນໃຈຫຼືຕື່ມຂໍ້ມູນໃສ່ໃນຂໍ້ມູນທີ່ຂາດຫາຍໄປຫຼືບໍ່ຮູ້. ຄວາມລໍາອຽງເຫຼົ່ານີ້ແມ່ນມີຢູ່ໃນສະຖາບັນ, ກຸ່ມ, ແລະຂະບວນການຕັດສິນໃຈສ່ວນບຸກຄົນໃນທົ່ວວົງຈອນຊີວິດ AI, ແລະໃນການນໍາໃຊ້ຄໍາຮ້ອງສະຫມັກ AI ເມື່ອຖືກນໍາໄປໃຊ້.
ດຽວນີ້ເຈົ້າໄດ້ຮັບການແນະນຳຢ່າງໄວຕໍ່ສາມປະເພດແລ້ວ.
ຂ້ອຍຢາກແບ່ງປັນອາຫານເພີ່ມເຕີມໃຫ້ກັບເຈົ້າເພື່ອຄວາມຄິດທີ່ສະແດງອອກໃນເອກະສານ NIST. ຕາຕະລາງໃນຄໍາບັນຍາຍຂອງເຂົາເຈົ້າສະຫນອງບົດສະຫຼຸບທີ່ເປັນປະໂຫຍດຂອງຄໍາຖາມທີ່ສໍາຄັນແລະການພິຈາລະນາທີ່ເນັ້ນໃສ່ແຕ່ລະສາມຊຸດຂອງຄວາມລໍາອຽງ AI. ຂ້າພະເຈົ້າບອກໃຫ້ເຂົາເຈົ້າຢູ່ທີ່ນີ້ເພື່ອຄວາມສະດວກຂອງການກະສານອ້າງອີງແລະການປັບປຸງຂອງທ່ານ.
#1: ຄວາມລຳອຽງຂອງລະບົບ
- ໃຜຖືກນັບ ແລະໃຜບໍ່ຖືກນັບ?
- ບັນຫາກັບຕົວແປທີ່ແຝງ
— ການເປັນຕົວແທນຂອງກຸ່ມຄົນດ້ອຍໂອກາດ
- ອັດຕະໂນມັດຂອງຄວາມບໍ່ສະເຫມີພາບ
— ການເປັນຕົວແທນໃນການກໍານົດຫນ້າທີ່ຜົນປະໂຫຍດ
— ຂະບວນການທີ່ມັກສ່ວນໃຫຍ່ / ຊົນເຜົ່າສ່ວນຫນ້ອຍ
- ຄວາມລໍາອຽງວັດທະນະທໍາໃນຫນ້າທີ່ຈຸດປະສົງ (ທີ່ດີທີ່ສຸດສໍາລັບບຸກຄົນແລະທີ່ດີທີ່ສຸດສໍາລັບກຸ່ມ)
- ພວກເຮົາຈະຮູ້ໄດ້ແນວໃດວ່າອັນໃດຖືກຕ້ອງ?
- ການເສີມສ້າງຄວາມບໍ່ເທົ່າທຽມກັນ (ກຸ່ມໄດ້ຮັບຜົນກະທົບຫຼາຍຂຶ້ນກັບການນໍາໃຊ້ AI ສູງຂຶ້ນ)
— ການຄາດຄະເນຕໍາຫຼວດໄດ້ຮັບຜົນກະທົບທາງລົບຫຼາຍກວ່າ
— ການຮັບຮອງເອົາຢ່າງກວ້າງຂວາງຂອງ ridesharing / ລົດຂັບດ້ວຍຕົນເອງ / ແລະອື່ນໆ. ອາດຈະມີການປ່ຽນແປງນະໂຍບາຍທີ່ມີຜົນກະທົບປະຊາກອນໂດຍອີງໃສ່ການນໍາໃຊ້
ອັນດັບທີ 2: ສະຖິຕິ ແລະ ການຄິດໄລ່ອະຄະຕິ
- ໃຜຖືກນັບ ແລະໃຜບໍ່ຖືກນັບ?
— ການເກັບຕົວຢ່າງແລະອະຄະຕິການຄັດເລືອກ
— ການນໍາໃຊ້ຕົວແປຕົວແທນເນື່ອງຈາກວ່າພວກເຂົາເຈົ້າແມ່ນງ່າຍທີ່ຈະວັດແທກ
- ຄວາມລໍາອຽງອັດຕະໂນມັດ
- ຂະຫນາດ Likert (ປະເພດກັບປະຕິບັດການກັບບັດ)
- Nonlinear vs linear
— ຄວາມຜິດພາດທາງນິເວດ
— ການຫຼຸດຜ່ອນມາດຕະຖານ L1 ທຽບກັບ L2
— ຄວາມຫຍຸ້ງຍາກທົ່ວໄປໃນການປະລິມານປະກົດການສະພາບການ
- ພວກເຮົາຈະຮູ້ໄດ້ແນວໃດວ່າອັນໃດຖືກຕ້ອງ?
— ຂາດການກວດສອບຂ້າມທີ່ພຽງພໍ
- ຄວາມລໍາອຽງການຢູ່ລອດ
- ຄວາມຫຍຸ້ງຍາກກັບຄວາມຍຸດຕິທໍາ
#3: ຄວາມເປັນມະນຸດ
- ໃຜຖືກນັບ ແລະໃຜບໍ່ຖືກນັບ?
- ຄວາມລໍາອຽງການສັງເກດ (ຜົນກະທົບແສງຖະຫນົນ)
- ຄວາມມີອະຄະຕິທີ່ມີຢູ່ (ສະຫນັບສະຫນູນ)
— ຄວາມຜິດພາດ McNamara
— Groupthink ນໍາໄປສູ່ການເລືອກແຄບ
— ຜົນກະທົບ Rashomon ນໍາໄປສູ່ການສະຫນັບສະຫນູນ subjective
— ຄວາມຫຍຸ້ງຍາກໃນການປະລິມານປະລິມານອາດຈະນໍາໄປສູ່ການຜິດພາດ McNamara
- ພວກເຮົາຈະຮູ້ໄດ້ແນວໃດວ່າອັນໃດຖືກຕ້ອງ?
- ອະຄະຕິການຢືນຢັນ
- ຄວາມລໍາອຽງອັດຕະໂນມັດ
ໃນຈຸດເຊື່ອມຕໍ່ຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້າພະເຈົ້າອາດຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງໃຫ້ເຫັນເຖິງສາມປະເພດຂອງຄວາມລໍາອຽງ AI. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍໃນຖານະເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.
ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດແດ່ກ່ຽວກັບສາມປະເພດຂອງຄວາມລໍາອຽງ AI ທີ່ສະເຫນີ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?
ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.
ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່ມີຄວາມຕ້ອງການສໍາລັບການຂັບລົດຂອງມະນຸດ, ແລະບໍ່ມີການຈັດສັນສໍາລັບມະນຸດຂັບລົດໄດ້. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.
ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ
ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.
ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).
ຍັງບໍ່ທັນມີລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຕົວຈິງຢູ່ໃນລະດັບ 5, ແລະພວກເຮົາຍັງບໍ່ທັນຮູ້ວ່າສິ່ງນີ້ຈະບັນລຸໄດ້ຫຼືບໍ່ມັນຈະໃຊ້ເວລາດົນປານໃດ.
ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).
ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).
ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.
ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.
ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI Biass
ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.
ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.
AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.
ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.
ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?
ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.
ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.
ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.
ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.
ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.
ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.
ພວກເຮົາໄດ້ຖືກເລີ່ມຕົ້ນໃນປັດຈຸບັນເພື່ອລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະຄວາມເປັນໄປໄດ້ AI ດ້ານຈັນຍາບັນທີ່ປະກອບມີສາມປະເພດຂອງຄວາມລໍາອຽງ AI.
ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ກໍາລັງດໍາເນີນຢູ່ໃນຖະຫນົນໃກ້ຄຽງຂອງທ່ານແລະເບິ່ງຄືວ່າຈະຂັບລົດຢ່າງປອດໄພ. ໃນຕອນທໍາອິດ, ທ່ານໄດ້ເອົາໃຈໃສ່ເປັນພິເສດໃນແຕ່ລະຄັ້ງທີ່ເຈົ້າສາມາດຈັບຕາເບິ່ງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍານພາຫະນະທີ່ປົກຄອງຕົນເອງໄດ້ຢືນຢູ່ຂ້າງນອກດ້ວຍເຊັນເຊີເອເລັກໂຕຣນິກທີ່ປະກອບມີກ້ອງຖ່າຍຮູບວິດີໂອ, ຫນ່ວຍ radar, ອຸປະກອນ LIDAR, ແລະອື່ນໆ. ຫຼັງຈາກຫຼາຍອາທິດຂອງລົດຂັບລົດດ້ວຍຕົນເອງລ່ອງເຮືອໃນທົ່ວຊຸມຊົນຂອງທ່ານ, ໃນປັດຈຸບັນທ່ານເປົ່າສັງເກດເຫັນມັນ. ຕາມທີ່ເຈົ້າເປັນຫ່ວງ, ມັນເປັນພຽງແຕ່ລົດອີກຄັນໜຶ່ງທີ່ຢູ່ເທິງຖະໜົນຫົນທາງສາທາລະນະທີ່ຫຍຸ້ງຢູ່ແລ້ວ.
ຢ້ານວ່າເຈົ້າຄິດວ່າມັນເປັນໄປບໍ່ໄດ້ ຫຼື ໄຮ້ເຫດຜົນທີ່ຈະຄຸ້ນເຄີຍກັບການເຫັນລົດຂັບລົດຕົນເອງ, ຂ້ອຍໄດ້ຂຽນເລື້ອຍໆກ່ຽວກັບວ່າທ້ອງຖິ່ນທີ່ຢູ່ໃນຂອບເຂດຂອງການທົດລອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ຄ່ອຍໆຄຸ້ນເຄີຍກັບການເຫັນລົດຍົນທີ່ໂດດເດັ່ນແນວໃດ, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້. ໃນທີ່ສຸດຄົນທ້ອງຖິ່ນຫຼາຍຄົນໄດ້ປ່ຽນຈາກປາກເປົ່າແກວ່ງປາກເປັນສຽງດັງ ກາຍເປັນຄວາມເບື່ອໜ່າຍອັນກວ້າງໃຫຍ່ໄພສານ ເພື່ອເປັນພະຍານເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ລ້ຽວນັ້ນ.
ອາດຈະເປັນເຫດຜົນຕົ້ນຕໍໃນປັດຈຸບັນທີ່ເຂົາເຈົ້າອາດຈະສັງເກດເຫັນຍານພາຫະນະອັດຕະໂນມັດແມ່ນຍ້ອນວ່າປັດໄຈລະຄາຍເຄືອງແລະ exasperation ໄດ້. ລະບົບການຂັບຂີ່ AI ທີ່ເຮັດມາຈາກປື້ມບັນທຶກໃຫ້ແນ່ໃຈວ່າລົດໄດ້ປະຕິບັດຕາມການຈໍາກັດຄວາມໄວທັງຫມົດແລະກົດລະບຽບຂອງຖະຫນົນ. ສໍາລັບຄົນຂັບລົດທີ່ວຸ້ນວາຍຢູ່ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດແບບດັ້ງເດີມ, ເຈົ້າຮູ້ສຶກຕົກໃຈໃນບາງຄັ້ງເມື່ອຕິດຢູ່ຫຼັງລົດທີ່ຂັບເອງຕາມກົດໝາຍ AI ຢ່າງເຂັ້ມງວດ.
ນັ້ນແມ່ນບາງສິ່ງບາງຢ່າງທີ່ພວກເຮົາທຸກຄົນອາດຈະຕ້ອງເຮັດໃຫ້ເຄຍຊີນ, ຖືກຕ້ອງຫຼືຜິດ.
ກັບຄືນໄປບ່ອນ tale ຂອງພວກເຮົາ.
ພວກເຮົາຈະພິຈາລະນາຕໍ່ໄປວ່າຄວາມລໍາອຽງທາງລະບົບອາດຈະມາຫຼິ້ນໃນສະພາບການຂອງລົດທີ່ຂັບດ້ວຍຕົນເອງນີ້.
ນັກປາດບາງຄົນເປັນຫ່ວງຫຼາຍວ່າລົດທີ່ຂັບເອງຈະເປັນແຂວງຂອງພວກຄົນຮັ່ງມີ ແລະຄົນຊັ້ນສູງເທົ່ານັ້ນ. ມັນອາດຈະເປັນວ່າຄ່າໃຊ້ຈ່າຍໃນການນໍາໃຊ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະແພງຫຼາຍ. ເວັ້ນ ເສຍ ແຕ່ ວ່າ ທ່ານ ໄດ້ ຮັບ bucks ໃຫຍ່, ທ່ານ ອາດ ຈະ ບໍ່ ເຄີຍ ເຫັນ ພາຍ ໃນ ຂອງ ລົດ ຂັບ ລົດ ດ້ວຍ ຕົນ ເອງ. ຜູ້ທີ່ຈະນໍາໃຊ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະຕ້ອງມີຄວາມອຸດົມສົມບູນ, ມັນແມ່ນການໂຕ້ຖຽງກັນຢ່າງແນ່ນອນ.
ດ້ວຍເຫດນີ້, ບາງຄົນຈຶ່ງຂໍຮ້ອງຢ່າງບໍ່ໜ້າເຊື່ອວ່າຮູບແບບຂອງຄວາມລຳອຽງທາງລະບົບຈະແຜ່ລາມໄປສູ່ການມາເຖິງຂອງລົດທີ່ຂັບເອງຕາມ AI. ລະບົບອຸດສາຫະ ກຳ ພາຫະນະທີ່ປົກຄອງຕົນເອງໂດຍລວມຈະຮັກສາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງອອກຈາກມືຂອງຜູ້ທີ່ທຸກຍາກຫຼືຮັ່ງມີຫນ້ອຍ. ນີ້ອາດຈະບໍ່ຈໍາເປັນໂດຍເຈດຕະນາເກີນໄປແລະພຽງແຕ່ turns ໃຫ້ເຫັນວ່າວິທີດຽວທີ່ເຊື່ອກັນວ່າທີ່ຈະເອົາຄືນຄ່າໃຊ້ຈ່າຍອັນຫນັກຫນ່ວງຂອງການປະດິດລົດຂັບລົດດ້ວຍຕົນເອງຈະຄິດຄ່າບໍລິການລາຄາທີ່ສູງ outrageous.
ຖ້າທ່ານຕອບວ່າໃນມື້ນີ້ມີການທົດລອງລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອະນຸຍາດໃຫ້ຄົນປະຈໍາວັນໃຊ້, ດັ່ງນັ້ນມັນເບິ່ງຄືວ່າທ່ານບໍ່ຈໍາເປັນຕ້ອງມີຄວາມອຸດົມສົມບູນ, ການໂຕ້ຖຽງກັນແມ່ນວ່ານີ້ແມ່ນປະເພດຂອງເກມແກະ. ມັນແມ່ນ. ຜູ້ຜະລິດລົດໃຫຍ່ແລະບໍລິສັດເຕັກໂນໂລຢີທີ່ຂັບລົດດ້ວຍຕົນເອງແມ່ນເຕັມໃຈທີ່ຈະເຮັດໃຫ້ມັນເບິ່ງຄືວ່າຄ່າໃຊ້ຈ່າຍຈະບໍ່ເປັນອຸປະສັກທີ່ສໍາຄັນ. ພວກເຂົາເຈົ້າກໍາລັງດໍາເນີນການນີ້ເພື່ອຈຸດປະສົງການພົວພັນສາທາລະນະໃນປັດຈຸບັນແລະຈະ jack up ລາຄາເມື່ອພວກເຂົາໄດ້ຮັບການຄິດອອກ wrinkles. ຜູ້ສົມຮູ້ຮ່ວມຄິດອາດຈະອ້າງວ່າ "ຫມູກີເນຍ" ຍ້ອນວ່າຄົນປະຈໍາວັນກໍາລັງຖືກນໍາມາໃຊ້ຢ່າງໂຫດຮ້າຍເພື່ອເຮັດໃຫ້ຄົນຮັ່ງມີສາມາດຮັ່ງມີໄດ້ໃນທີ່ສຸດ.
ດັ່ງນັ້ນ, ເນື່ອງຈາກບັນຫາທີ່ສັບສົນຫຼາຍ, ແລະເອົາສອງເຊັນຂອງຂ້ອຍເອງໃນຫົວຂໍ້ທີ່ຮຸນແຮງນີ້, ຂ້ອຍບໍ່ເຊື່ອວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະເກີນລາຄາສໍາລັບການນໍາໃຊ້ປະຈໍາວັນ. ຂ້າພະເຈົ້າຈະບໍ່ໄດ້ເຂົ້າໄປໃນລາຍລະອຽດໃນທີ່ນີ້ເປັນພື້ນຖານຂອງຂ້າພະເຈົ້າສໍາລັບການຮ້ອງຟ້ອງດັ່ງກ່າວແລະເຊື້ອເຊີນທ່ານເຂົ້າໄປເບິ່ງການສົນທະນາສະຕິຂອງຂ້າພະເຈົ້າທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະຍັງຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ກ້າວຕໍ່ໄປ, ພວກເຮົາສາມາດພິຈາລະນາເລື່ອງຂອງ AI ທີ່ກ່ຽວຂ້ອງກັບສະຖິຕິແລະອະຄະຕິການຄິດໄລ່.
ພິຈາລະນາຄໍາຖາມທີ່ເບິ່ງຄືວ່າບໍ່ມີຜົນສະທ້ອນເຖິງບ່ອນທີ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະແລ່ນໄປຫາຜູ້ໂດຍສານ. ນີ້ເບິ່ງຄືວ່າເປັນຫົວຂໍ້ທີ່ບໍ່ມີປະໂຫຍດຫຼາຍ. ພວກເຮົາຈະໃຊ້ນິທານເລື່ອງເມືອງ ຫຼືເມືອງທີ່ມີລົດຂັບລົດດ້ວຍຕົນເອງເພື່ອເນັ້ນໃຫ້ເຫັນເຖິງຄວາມໜ້າປະຫລາດໃຈທີ່ອາດເປັນຕາແປກໃຈຂອງຄວາມລຳອຽງທາງສະຖິຕິ ແລະຄອມພິວເຕີທີ່ກ່ຽວຂ້ອງກັບ AI.
ໃນຕອນທໍາອິດ, ໃຫ້ສົມມຸດວ່າ AI ກໍາລັງແລ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໃນທົ່ວເມືອງ. ໃຜກໍ່ຕາມທີ່ຕ້ອງການທີ່ຈະຮ້ອງຂໍການຂັບເຄື່ອນໃນລົດທີ່ຂັບລົດຕົນເອງໄດ້ມີໂອກາດເທົ່າທຽມກັນທີ່ຈະຊົມເຊີຍຫນຶ່ງ. ຄ່ອຍໆ, AI ໄດ້ເລີ່ມຕົ້ນທີ່ຈະຮັກສາລົດຂັບລົດດ້ວຍຕົນເອງເປັນຕົ້ນຕໍ roaming ຢູ່ໃນພຽງແຕ່ຫນຶ່ງພາກສ່ວນຂອງຕົວເມືອງ. ພາກສ່ວນນີ້ແມ່ນຜູ້ສ້າງເງິນຫຼາຍກວ່າເກົ່າແລະລະບົບ AI ໄດ້ຖືກດໍາເນີນໂຄງການເພື່ອພະຍາຍາມແລະສ້າງລາຍໄດ້ສູງສຸດເປັນສ່ວນຫນຶ່ງຂອງການນໍາໃຊ້ໃນຊຸມຊົນ.
ສະມາຊິກຊຸມຊົນໃນເຂດທີ່ທຸກຍາກຂອງຕົວເມືອງມີແນວໂນ້ມຫນ້ອຍທີ່ຈະສາມາດຂີ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້. ອັນນີ້ແມ່ນຍ້ອນວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ຢູ່ໄກອອກໄປ ແລະ roaming ໃນພາກສ່ວນລາຍຮັບທີ່ສູງຂຶ້ນຂອງທ້ອງຖິ່ນ. ເມື່ອຄໍາຮ້ອງຂໍເຂົ້າມາຈາກເຂດຫ່າງໄກຂອງຕົວເມືອງ, ການຮ້ອງຂໍໃດໆຈາກສະຖານທີ່ໃກ້ຊິດທີ່ມີແນວໂນ້ມໃນສ່ວນ "ເປັນທີ່ເຄົາລົບ" ຂອງເມືອງຈະໄດ້ຮັບຄວາມສໍາຄັນສູງກວ່າ. ໃນທີ່ສຸດ, ການມີລົດຂັບລົດດ້ວຍຕົນເອງຢູ່ບ່ອນໃດບ່ອນໜຶ່ງນອກເໜືອໄປຈາກເຂດທີ່ອຸດົມສົມບູນຂອງເມືອງແມ່ນເກືອບເປັນໄປບໍ່ໄດ້, ເປັນສິ່ງທີ່ໜ້າຕື່ນເຕັ້ນຫຼາຍສຳລັບຜູ້ທີ່ອາໄສຢູ່ໃນເຂດທີ່ຂາດແຄນຊັບພະຍາກອນໃນປັດຈຸບັນ.
ທ່ານສາມາດຍືນຍັນວ່າ AI ໄດ້ລົງຈອດຢູ່ໃນຮູບແບບຂອງຄວາມລໍາອຽງທາງສະຖິຕິແລະຄອມພິວເຕີ້, ເຊິ່ງຄ້າຍຄືກັບຮູບແບບການຈໍາແນກຕົວແທນ (ຍັງມັກຈະເອີ້ນວ່າການຈໍາແນກທາງອ້ອມ). AI ບໍ່ໄດ້ຕັ້ງໂຄງການເພື່ອຫຼີກເວັ້ນເຂດທີ່ທຸກຍາກເຫຼົ່ານັ້ນ. ແທນທີ່ຈະ, ມັນ "ຮຽນຮູ້" ທີ່ຈະເຮັດແນວນັ້ນໂດຍຜ່ານການນໍາໃຊ້ ML / DL.
ສົມມຸດວ່າ AI ຈະບໍ່ຕົກຢູ່ໃນດິນຊາຍທີ່ໜ້າອັບອາຍປະເພດນັ້ນ. ບໍ່ມີການຕັ້ງການຕິດຕາມແບບພິເສດເພື່ອຕິດຕາມບ່ອນທີ່ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ໄດ້ໄປ. ພຽງແຕ່ຫຼັງຈາກສະມາຊິກຊຸມຊົນເລີ່ມຈົ່ມວ່າຜູ້ນໍາເມືອງຮູ້ສິ່ງທີ່ເກີດຂຶ້ນ. ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບປະເພດຂອງບັນຫາທົ່ວເມືອງເຫຼົ່ານີ້ທີ່ຍານພາຫະນະອັດຕະໂນມັດແລະລົດຂັບລົດຕົນເອງກໍາລັງຈະນໍາສະເຫນີ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍທີ່ ລິ້ງນີ້ຢູ່ນີ້ ແລະທີ່ອະທິບາຍການສຶກສາທີ່ນໍາພາໂດຍ Harvard ທີ່ຂ້າພະເຈົ້າໄດ້ຮ່ວມກັນຂຽນໃນຫົວຂໍ້.
ສໍາລັບປະເພດທີສາມຂອງຄວາມລໍາອຽງຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບຄວາມລໍາອຽງ AI, ພວກເຮົາຫັນໄປຫາຕົວຢ່າງທີ່ກ່ຽວຂ້ອງກັບ AI ກໍານົດວ່າຈະຢຸດເຊົາການລໍຖ້າຄົນຍ່າງທາງທີ່ບໍ່ມີສິດທີ່ຈະຂ້າມຖະຫນົນ.
ແນ່ນອນເຈົ້າໄດ້ຂັບລົດໄປ ແລະໄດ້ພົບກັບຄົນຍ່າງທາງທີ່ລໍຖ້າຂ້າມຖະໜົນ ແຕ່ເຂົາເຈົ້າບໍ່ມີສິດທີ່ຈະເຮັດແນວນັ້ນ. ນີ້ຫມາຍຄວາມວ່າທ່ານມີການຕັດສິນໃຈທີ່ຈະຢຸດແລະປ່ອຍໃຫ້ພວກເຂົາຂ້າມ. ທ່ານສາມາດດໍາເນີນການໄດ້ໂດຍບໍ່ປ່ອຍໃຫ້ພວກເຂົາຂ້າມຜ່ານແລະຍັງຢູ່ໃນກົດລະບຽບການຂັບຂີ່ທີ່ຖືກຕ້ອງຕາມກົດຫມາຍຂອງການເຮັດເຊັ່ນນັ້ນ.
ການສຶກສາກ່ຽວກັບວິທີທີ່ຄົນຂັບລົດມະນຸດຕັດສິນໃຈຢຸດ ຫຼືບໍ່ຢຸດສຳລັບຄົນຍ່າງທາງນັ້ນ ໄດ້ແນະນຳວ່າ ບາງຄັ້ງຄົນຂັບລົດມະນຸດເລືອກໂດຍພື້ນຖານຂອງຄວາມລຳອຽງທີ່ບໍ່ມີເຫດຜົນ. ຄົນຂັບລົດມະນຸດອາດຈະແນມເບິ່ງຄົນຍ່າງ ແລະເລືອກທີ່ຈະບໍ່ຢຸດ, ເຖິງແມ່ນວ່າເຂົາເຈົ້າຈະຢຸດແລ້ວກໍຕາມ ຖ້າຄົນຍ່າງມີຮູບຮ່າງທີ່ແຕກຕ່າງເຊັ່ນ: ອີງໃສ່ເຊື້ອຊາດ ຫຼືເພດ. ຂ້າພະເຈົ້າໄດ້ກວດການີ້ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI ແມ່ນໂຄງການເພື່ອຈັດການກັບຄໍາຖາມທີ່ຈະຢຸດຫລືບໍ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາ. ນີ້ແມ່ນວິທີທີ່ຜູ້ພັດທະນາ AI ຕັດສິນໃຈຂຽນໂປຣແກຣມນີ້. ພວກເຂົາເຈົ້າເກັບກໍາຂໍ້ມູນຈາກກ້ອງຖ່າຍຮູບວິດີໂອຂອງຕົວເມືອງທີ່ວາງໄວ້ທົ່ວເມືອງ. ຂໍ້ມູນສະແດງໃຫ້ເຫັນຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາແລະຄົນຂັບລົດຂອງມະນຸດທີ່ບໍ່ຢຸດ. ມັນໄດ້ຖືກລວບລວມທັງຫມົດເຂົ້າໄປໃນຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່.
ໂດຍການນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກແລະການຮຽນຮູ້ເລິກ, ຂໍ້ມູນໄດ້ຖືກສ້າງແບບຈໍາລອງໃນຄອມພິວເຕີ້. ລະບົບການຂັບຂີ່ AI ຫຼັງຈາກນັ້ນໃຊ້ຮູບແບບນີ້ເພື່ອຕັດສິນໃຈວ່າເວລາໃດຈະຢຸດຫຼືບໍ່ຢຸດ. ໂດຍທົ່ວໄປແລ້ວ, ແນວຄວາມຄິດແມ່ນວ່າສິ່ງໃດກໍ່ຕາມທີ່ປະເພນີທ້ອງຖິ່ນປະກອບດ້ວຍ, ນີ້ແມ່ນວິທີທີ່ AI ກໍາລັງຊີ້ນໍາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ.
ເພື່ອຄວາມແປກໃຈຂອງຜູ້ນໍາເມືອງແລະຊາວເມືອງ, ເຫັນໄດ້ຊັດເຈນວ່າ AI ໄດ້ເລືອກທີ່ຈະຢຸດຫຼືບໍ່ຢຸດໂດຍອີງໃສ່ອາຍຸຂອງຜູ້ຍ່າງ. ມັນເກີດຂຶ້ນໄດ້ແນວໃດ?
ຫຼັງຈາກການທົບທວນຄືນຢ່າງໃກ້ຊິດຂອງວິດີໂອຂອງການຕັດສິນໃຈຂອງຜູ້ຂັບຂີ່ຂອງມະນຸດ, ມັນ turns ໃຫ້ເຫັນວ່າຫຼາຍກໍລະນີຂອງການບໍ່ຢຸດ entailed pedestrians ທີ່ມີ cane ຍ່າງຂອງພົນລະເມືອງອາວຸໂສ. ເບິ່ງຄືວ່າຜູ້ຂັບຂີ່ຂອງມະນຸດບໍ່ເຕັມໃຈທີ່ຈະຢຸດແລະປ່ອຍໃຫ້ຜູ້ສູງອາຍຸຂ້າມຖະຫນົນ, ອາດຈະເປັນຍ້ອນໄລຍະເວລາທີ່ຄາດວ່າຈະໃຊ້ເວລາສໍາລັບຄົນທີ່ຈະເດີນທາງ. ຖ້າຄົນຍ່າງທາງເບິ່ງຄືວ່າພວກເຂົາສາມາດ dart ຂ້າມຖະຫນົນຢ່າງໄວວາແລະຫຼຸດຜ່ອນເວລາລໍຖ້າຂອງຜູ້ຂັບຂີ່, ຄົນຂັບລົດແມ່ນມີຄວາມເຫມາະສົມຫຼາຍທີ່ຈະປ່ອຍໃຫ້ຄົນຂ້າມ.
ນີ້ໄດ້ຖືກຝັງເລິກເຂົ້າໄປໃນລະບົບການຂັບລົດ AI. ເຊັນເຊີຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະສະແກນຄົນຍ່າງທາງທີ່ລໍຖ້າ, ປ້ອນຂໍ້ມູນນີ້ເຂົ້າໄປໃນແບບຈໍາລອງ ML/DL, ແລະຕົວແບບຈະປ່ອຍສັນຍານໃຫ້ກັບ AI ວ່າຈະຢຸດ ຫຼື ສືບຕໍ່. ສັນຍານສາຍຕາໃດໆກໍຕາມທີ່ຄົນຍ່າງຂ້າມທາງອາດຈະຊ້າ, ເຊັ່ນ: ການໃຊ້ໄມ້ຄ້ອນຍ່າງ, ທາງຄະນິດສາດໄດ້ຖືກນໍາໃຊ້ເພື່ອກໍານົດວ່າລະບົບການຂັບຂີ່ AI ຄວນປ່ອຍໃຫ້ຄົນຍ່າງຂ້າມທາງຫຼືບໍ່.
ເຈົ້າສາມາດໂຕ້ແຍ້ງໄດ້ວ່ານີ້ແມ່ນການເພິ່ງພາອະຄະຕິຂອງມະນຸດທີ່ມີມາກ່ອນ.
ສະຫຼຸບ
ບາງຄວາມຄິດສຸດທ້າຍສໍາລັບໃນປັດຈຸບັນ.
ມີຄຳເວົ້າທີ່ນິຍົມກັນວ່າທ່ານບໍ່ສາມາດປ່ຽນບັດທີ່ເຈົ້າຖືກແຈກຈ່າຍໄດ້ ແລະ ແທນທີ່ຈະຕ້ອງຮຽນຮູ້ວິທີຫຼິ້ນຢ່າງພຽງພໍກັບມືອັນໃດກໍໄດ້ທີ່ເຈົ້າໄດ້ຮັບ.
ໃນກໍລະນີຂອງຄວາມລໍາອຽງຂອງ AI, ຖ້າພວກເຮົາບໍ່ເອົາໃຈໃສ່ຢ່າງຈິງຈັງໃນການສ້າງຕັ້ງຈັນຍາບັນ AI ໃນທົ່ວຄະນະແລະໂດຍສະເພາະແມ່ນການເສີມສ້າງຄຸນລັກສະນະຂອງອະຄະຕິ AI, ປະເພດຂອງມືທີ່ພວກເຮົາຈະຈັດການກັບຈະລົ້ນໄປດ້ວຍສິນທໍາທີ່ບໍ່ມີຈັນຍາບັນ,. ແລະອາດຈະເປັນການກະທຳທີ່ຜິດກົດໝາຍ. ພວກເຮົາຕ້ອງຢຸດບັດເຫຼົ່ານັ້ນຈາກທີ່ເຄີຍຖືກ dealt, ເພື່ອເລີ່ມຕົ້ນດ້ວຍການ. ຈຸດປະສົງອັນກ້າຫານເພື່ອສ້າງ ແລະປະກາດໃຊ້ມາດຕະຖານ AI ດ້ານຈັນຍາບັນ ເປັນເຄື່ອງມືທີ່ສຳຄັນເພື່ອຕ້ານຄື້ນຊູນາມິທີ່ກຳລັງຈະມາເຖິງ. AI ສໍາລັບບໍ່ດີ.
ເຈົ້າສາມາດຕັດສິນໃຈໄປທະນາຄານໄດ້ວ່າຄວາມລຳອຽງຂອງ AI ທີ່ແຜ່ລາມອອກໄປ ແລະ AI ທີ່ບໍ່ມີຈັນຍາບັນຈະເປັນຄືກັບບັດທີ່ອ່ອນເພຍ, ທັບຖົມຕົວມັນເອງ ແລະອາດຈະເປັນອັນຕະລາຍຕໍ່ພວກເຮົາທຸກຄົນ.
ມາຫຼິ້ນເພື່ອຊະນະ, ເຮັດແນວນັ້ນດ້ວຍ AI ທີ່ເໝາະສົມກັບຈັນຍາບັນ.
ແຫຼ່ງຂໍ້ມູນ: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-ອະຄະຕິ/