ຈັນຍາບັນ AI ບອກວ່າ AI ຄວນຖືກນໍາໄປໃຊ້ໂດຍສະເພາະໃນເວລາທີ່ຄວາມລໍາອຽງຂອງມະນຸດມີຄວາມອຸດົມສົມບູນ

ມະນຸດຕ້ອງຮູ້ຈັກຂໍ້ຈຳກັດຂອງມັນ.

ເຈົ້າອາດຈະຈື່ໄດ້ເຖິງສາຍຊື່ດັງທີ່ຄ້າຍຄືກັບການຮູ້ຂໍ້ຈຳກັດຂອງພວກເຮົາ ດັ່ງທີ່ຕົວລະຄອນເລື່ອງ Dirty Harry ໄດ້ເວົ້າອອກມາຢ່າງເຄັ່ງຄັດໃນຮູບເງົາປີ 1973 ທີ່ມີຊື່ວ່າ. Force Magnum (ຕາມຄໍາເວົ້າຂອງນັກສະແດງ Clint Eastwood ໃນບົດບາດທີ່ຫນ້າຈົດຈໍາຂອງລາວເປັນ Inspector Harry Callahan). ແນວຄິດໂດຍລວມແມ່ນວ່າບາງຄັ້ງພວກເຮົາມີແນວໂນ້ມທີ່ຈະມອງຂ້າມຂໍ້ຈໍາກັດຂອງຕົນເອງແລະເອົາຕົວເຮົາເອງເຂົ້າໄປໃນນ້ໍາຮ້ອນຕາມຄວາມເຫມາະສົມ. ບໍ່​ວ່າ​ຈະ​ເປັນ​ຍ້ອນ​ຄວາມ​ຫຍາບ​ຄາຍ, ການ​ເປັນ​ສູນ​ກາງ, ຫຼື​ພຽງ​ແຕ່​ເປັນ​ຕາ​ບອດ​ຕໍ່​ຄວາມ​ສາ​ມາດ​ຂອງ​ເຮົາ​ເອງ, ການ​ຮູ້​ຈັກ​ແລະ​ຄຳ​ນຶງ​ເຖິງ​ຄວາມ​ຫຍຸ້ງ​ຍາກ ແລະ ຂໍ້​ບົກ​ຜ່ອງ​ຂອງ​ພວກ​ເຮົາ​ແມ່ນ​ມີ​ຄວາມ​ສຳ​ຄັນ ແລະ ເປັນ​ປະ​ໂຫຍດ.

ໃຫ້ເພີ່ມການບິດໃຫມ່ໃຫ້ກັບຄໍາແນະນໍາຂອງ sage.

Artificial Intelligence (AI) ໄດ້ຮັບຮູ້ຂໍ້ຈໍາກັດຂອງມັນ.

ຂ້ອຍຫມາຍຄວາມວ່າແນວໃດກັບຕົວແປຂອງຄໍາເວົ້າທີ່ເຄົາລົບ?

ປະກົດວ່າຄວາມຮີບດ່ວນໃນເບື້ອງຕົ້ນທີ່ຈະໄດ້ຮັບ AI ຍຸກສະ ໄໝ ໃໝ່ ເຂົ້າໃນການ ນຳ ໃຊ້ເປັນຕົວແກ້ບັນຫາຂອງໂລກທີ່ມີຄວາມຫວັງໄດ້ກາຍເປັນ sulli ແລະ muddied ທັງຫມົດໂດຍການຮັບຮູ້ວ່າ AI ໃນທຸກມື້ນີ້ມີຂໍ້ຈໍາກັດທີ່ຮຸນແຮງຫຼາຍ. ພວກເຮົາໄດ້ໄປຈາກຫົວຂໍ້ uplifting ຂອງ AI ສໍາລັບທີ່ດີ ແລະ ໄດ້ ພົບ ເຫັນ ຕົວ ເຮົາ ເອງ ຫຼາຍ ຂຶ້ນ mired ໃນ AI ສໍາລັບບໍ່ດີ. ເຈົ້າເຫັນ, ລະບົບ AI ຈໍານວນຫຼາຍໄດ້ຖືກພັດທະນາແລະເຕັມໄປດ້ວຍຄວາມລໍາອຽງທາງດ້ານເຊື້ອຊາດແລະເພດ, ແລະຄວາມບໍ່ສະເຫມີພາບທີ່ຫນ້າຢ້ານກົວອື່ນໆ.

ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ຄວາມລໍາອຽງທີ່ຖືກຄົ້ນພົບຢູ່ໃນລະບົບ AI ເຫຼົ່ານີ້ບໍ່ແມ່ນຂອງສິ່ງທີ່ພວກເຮົາຈະເວົ້າວ່າ "ເຈດຕະນາ" ປະເພດທີ່ພວກເຮົາຈະກ່າວເຖິງພຶດຕິກໍາຂອງມະນຸດ. ຂ້າພະເຈົ້າກ່າວເຖິງເລື່ອງນີ້ເພື່ອເນັ້ນຫນັກວ່າ AI ຂອງມື້ນີ້ບໍ່ມີຄວາມຮູ້ສຶກ. ເຖິງວ່າຈະມີຫົວຂໍ້ຂ່າວທີ່ຮຸນແຮງທີ່ແນະນໍາຖ້າບໍ່ດັ່ງນັ້ນ, ບໍ່ມີ AI ໃດໆທີ່ເຂົ້າມາໃກ້ຄວາມຮູ້ສຶກ. ນອກຈາກນັ້ນ, ພວກເຮົາບໍ່ຮູ້ວ່າຈະເອົາ AI ເຂົ້າໄປໃນວົງເລັບຄວາມຮູ້ສຶກແນວໃດ, ບວກກັບບໍ່ມີໃຜສາມາດບອກໄດ້ຢ່າງແນ່ນອນວ່າພວກເຮົາຈະບັນລຸຄວາມຮູ້ສຶກຂອງ AI. ບາງທີມັນອາດຈະເກີດຂຶ້ນໃນມື້ຫນຶ່ງ, ຫຼືອາດຈະບໍ່.

ດັ່ງນັ້ນ, ຈຸດຂອງຂ້ອຍແມ່ນວ່າພວກເຮົາບໍ່ສາມາດກໍານົດຄວາມຕັ້ງໃຈໂດຍສະເພາະກັບປະເພດຂອງ AI ທີ່ພວກເຮົາມີໃນປະຈຸບັນ. ເວົ້າແນວນັ້ນ, ພວກເຮົາສາມາດມອບຄວາມຕັ້ງໃຈໃຫ້ກັບຜູ້ທີ່ສ້າງລະບົບ AI ໄດ້. ນັກພັດທະນາ AI ບາງຄົນບໍ່ຮູ້ເຖິງຄວາມຈິງທີ່ວ່າພວກເຂົາໄດ້ສ້າງລະບົບ AI ທີ່ປະກອບດ້ວຍຄວາມບໍ່ພໍໃຈແລະອາດມີອະຄະຕິທີ່ຜິດກົດຫມາຍ. ໃນຂະນະດຽວກັນ, ຜູ້ພັດທະນາ AI ອື່ນໆຮັບຮູ້ວ່າພວກເຂົາກໍາລັງສ້າງອະຄະຕິເຂົ້າໄປໃນລະບົບ AI ຂອງພວກເຂົາ, ອາດຈະເຮັດໃນລັກສະນະທີ່ຜິດພາດທີ່ມີຈຸດປະສົງ.

ໃນກໍລະນີໃດກໍ່ຕາມ, ຜົນໄດ້ຮັບແມ່ນຍັງເບິ່ງບໍ່ເຫັນແລະອາດຈະຜິດກົດຫມາຍ.

ຄວາມພະຍາຍາມຢ່າງເຂັ້ມງວດແມ່ນກຳລັງດຳເນີນເພື່ອປະກາດໃຊ້ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ທີ່ຈະສ້າງຄວາມສະຫວ່າງໃຫ້ແກ່ນັກພັດທະນາ AI ແລະໃຫ້ຄຳແນະນຳທີ່ເໝາະສົມສຳລັບການຊີ້ນຳທີ່ຈະແຈ້ງຂອງການຝັງອະຄະຕິເຂົ້າໃນລະບົບ AI ຂອງເຂົາເຈົ້າ. ນີ້ຈະຊ່ວຍໃນຄົນອັບເດດ: twofer. ທໍາອິດ, AI crafting ເຫຼົ່ານັ້ນຈະບໍ່ມີຂໍ້ແກ້ຕົວທີ່ພ້ອມທີ່ຈະເຮັດແລ້ວວ່າພວກເຂົາພຽງແຕ່ບໍ່ເຂົ້າໃຈສິ່ງທີ່ຄວນປະຕິບັດຕາມ. ອັນທີສອງ, ຜູ້ທີ່ປະຕິບັດຕາມເງື່ອນໄຂ AI ດ້ານຈັນຍາບັນຈະຖືກຈັບໄດ້ງ່າຍຂຶ້ນແລະສະແດງໃຫ້ເຫັນວ່າເປັນການຫລີກລ່ຽງສິ່ງທີ່ພວກເຂົາຖືກເຕືອນລ່ວງຫນ້າວ່າທັງສອງເຮັດແລະບໍ່ເຮັດ.

ຂໍເວລາພິຈາລະນາສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ບາງຂໍ້ເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຜູ້ສ້າງ AI ຄວນຄິດກ່ຽວກັບແລະປະຕິບັດຢ່າງເຂັ້ມງວດຈາກຈຸດຢືນດ້ານຈັນຍາບັນຂອງ AI.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະການກວດສອບ, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະທີ່ຕິດພັນກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍຕາມ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດໄລຍະການພັດທະນາ ແລະການນຳໃຊ້ AI ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ກະ​ລຸ​ນາ​ຮັບ​ຮູ້​ວ່າ​ມັນ​ໃຊ້​ເວ​ລາ​ບ້ານ​ເພື່ອ​ສ້າງ​ແລະ​ພາກ​ສະ​ຫນາມ AI​. ​ເພື່ອ​ໃຫ້​ທົ່ວ​ບ້ານ​ຕ້ອງ​ຮັກສາ​ຈັນຍາ​ບັນ AI.

ຢ່າງໃດກໍ່ຕາມ, ຕອນນີ້ຂ້ອຍໄດ້ເຂົ້າໄປໃນຕາຕະລາງທີ່ AI ສາມາດບັນຈຸຄວາມລໍາອຽງ, ບາງທີພວກເຮົາທຸກຄົນສາມາດຕົກລົງເຫັນດີກັບສອງຂໍ້ເທັດຈິງທີ່ປາກົດຂື້ນ:

1. ມະນຸດສາມາດມີອະຄະຕິທີ່ບໍ່ເຂົ້າໃຈຫຼາຍຢ່າງ ແລະສາມາດກະທຳຕາມພວກມັນໄດ້

2. AI ສາມາດມີອະຄະຕິທີ່ບໍ່ເຂົ້າກັນຫຼາຍຢ່າງ ແລະສາມາດປະຕິບັດຕໍ່ຄວາມລຳອຽງເຫຼົ່ານັ້ນ

ຂ້ອຍຮູ້ສຶກອິດສາບາງຢ່າງທີ່ຈະວາງມະນຸດກັບ AI ໃນສະພາບການນັ້ນ, ເພາະວ່າມັນອາດ ໝາຍ ຄວາມວ່າ AI ມີຄວາມສາມາດທາງດ້ານຄວາມຮູ້ສຶກເທົ່າກັບມະນຸດ. ນີ້ແນ່ນອນບໍ່ແມ່ນດັ່ງນັ້ນ. ຂ້ອຍຈະກັບຄືນສູ່ຄວາມເປັນຫ່ວງທີ່ເພີ່ມຂຶ້ນກ່ຽວກັບ anthropomorphizing ຂອງ AI ເລັກນ້ອຍຕໍ່ມາໃນການສົນທະນານີ້.

ອັນໃດຮ້າຍແຮງກວ່ານັ້ນ, ມະນຸດທີ່ສະແດງຄວາມບໍ່ລຳອຽງ ຫຼື AI ທີ່ເຮັດແນວນັ້ນ?

ຂ້າພະເຈົ້າກ້າເວົ້າວ່າຄໍາຖາມດັ່ງກ່າວເປັນຫນຶ່ງຂອງທາງເລືອກ dour ເຫຼົ່ານັ້ນ. ມັນເປັນຄໍາສຸພາສິດຫນ້ອຍຂອງຄວາມຊົ່ວຮ້າຍສອງຢ່າງ, ຫນຶ່ງອາດຈະຂັດແຍ້ງ. ພວກ​ເຮົາ​ຢາກ​ໃຫ້​ມະ​ນຸດ​ບໍ່​ມີ​ອະ​ຄະ​ຕິ​ທີ່​ບໍ່​ມີ​ອະ​ຄະ​ຕິ. ພວກ​ເຮົາ​ຍັງ​ປາດ​ຖະ​ຫນາ​ວ່າ​ເຖິງ​ແມ່ນ​ວ່າ​ມະ​ນຸດ​ຈະ​ມີ​ອະ​ຄະ​ຕິ​ທີ່​ບໍ່​ມີ​ອະ​ຄະ​ຕິ​ທີ່​ເຂົາ​ເຈົ້າ​ຈະ​ບໍ່​ປະ​ຕິ​ບັດ​ຕາມ​ອະ​ຄະ​ຕິ​ເຫຼົ່າ​ນັ້ນ. ສິ່ງດຽວກັນສາມາດເວົ້າໄດ້ຢ່າງຖືກຕ້ອງກ່ຽວກັບ AI. ພວກເຮົາປາດຖະຫນາວ່າ AI ບໍ່ໄດ້ຝັງຢູ່ໃນຄວາມລໍາອຽງທີ່ບໍ່ມີຄວາມລໍາອຽງແລະວ່າເຖິງແມ່ນວ່າມີອະຄະຕິພາຍໃນລະຫັດທີ່ AI ຈະບໍ່ປະຕິບັດຕໍ່ພວກມັນ.

ຄວາມປາດຖະຫນາເຖິງແມ່ນວ່າບໍ່ຈໍາເປັນຕ້ອງດໍາເນີນການໂລກ (ສໍາລັບການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບລັກສະນະທີ່ເພີ່ມຂຶ້ນແລະລົບກວນຂອງອັນທີ່ເອີ້ນວ່າ. AI ຄວາມປາດຖະຫນາສໍາເລັດ ໂດຍສັງຄົມໃນຂະຫນາດໃຫຍ່, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ຕົກລົງ, ແນ່ນອນ, ພວກເຮົາຕ້ອງການໃຫ້ມະນຸດຮູ້ຂໍ້ຈໍາກັດຂອງເຂົາເຈົ້າ. ມີຄວາມສໍາຄັນທີ່ຈະຮັບຮູ້ໃນເວລາທີ່ທ່ານມີຄວາມລໍາອຽງທີ່ບໍ່ເຂົ້າໃຈ. ມີຄວາມສໍາຄັນເທົ່າທຽມກັນໃນຄວາມພະຍາຍາມເພື່ອປ້ອງກັນບໍ່ໃຫ້ຄວາມລໍາອຽງທີ່ບໍ່ເຂົ້າໃຈເຫຼົ່ານັ້ນຖືກເຂົ້າໄປໃນການກະທໍາແລະການຕັດສິນໃຈຂອງເຈົ້າ. ທຸລະກິດໃນມື້ນີ້ກໍາລັງພະຍາຍາມທຸກປະເພດຂອງວິທີການເພື່ອຮັກສາພະນັກງານຂອງເຂົາເຈົ້າຈາກການຕົກຢູ່ໃນຄວາມລໍາອຽງ untoward pitfalls ຮ້າຍແຮງ. ການຝຶກອົບຮົມພິເສດແມ່ນໄດ້ຖືກມອບໃຫ້ພະນັກງານກ່ຽວກັບວິທີການປະຕິບັດວຽກງານຂອງເຂົາເຈົ້າຢ່າງມີຈັນຍາບັນ. ຂະບວນການຕ່າງໆແມ່ນເປັນຮູບຊົງອ້ອມຮອບພະນັກງານເພື່ອແຈ້ງເຕືອນພວກເຂົາເມື່ອພວກເຂົາເບິ່ງຄືວ່າຈະສະແດງສິ່ງທີ່ບໍ່ມີຈັນຍາບັນ. ແລະອື່ນໆ.

ອີກວິທີໜຶ່ງໃນການຮັບມືກັບມະນຸດ ແລະຄວາມບໍ່ລົງລອຍກັນຂອງພວກມັນແມ່ນເພື່ອເຮັດໃຫ້ວຽກງານທີ່ອີງໃສ່ມະນຸດໂດຍອັດຕະໂນມັດ. ແມ່ນແລ້ວ, ພຽງແຕ່ເອົາມະນຸດອອກຈາກວົງ. ຢ່າປ່ອຍໃຫ້ມະນຸດເຮັດໜ້າທີ່ຕັດສິນໃຈ ແລະສົມມຸດວ່າເຈົ້າຈະບໍ່ມີຄວາມກັງວົນຕໍ່ໄປອີກແລ້ວ ຕໍ່ການເກີດລູກຂອງມະນຸດໄປສູ່ອະຄະຕິທີ່ບໍ່ເປັນຈິງ. ບໍ່ມີມະນຸດມີສ່ວນຮ່ວມແລະດັ່ງນັ້ນບັນຫາຂອງຄວາມລໍາອຽງຂອງມະນຸດທີ່ອາດຈະໄດ້ຮັບການແກ້ໄຂ.

ຂ້າພະເຈົ້າຍົກເລື່ອງນີ້ຂຶ້ນເພາະວ່າພວກເຮົາເຫັນການປ່ຽນແປງເທື່ອລະກ້າວແລະຂະຫນາດໃຫຍ່ໄປສູ່ການນໍາໃຊ້ AI ໃນລັກສະນະການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM). ຖ້າທ່ານສາມາດທົດແທນພະນັກງານຂອງມະນຸດດ້ວຍ AI, ບໍ່ລົງຮອຍກັນແມ່ນວ່າຜົນປະໂຫຍດຫຼາຍຈະເກີດຂື້ນ. ດັ່ງທີ່ໄດ້ກ່າວມາແລ້ວ, ເຈົ້າຈະບໍ່ກັງວົນໃຈກັບຄວາມລໍາອຽງຂອງມະນຸດຂອງພະນັກງານມະນຸດ (ຜູ້ທີ່ບໍ່ໄດ້ເຮັດວຽກນັ້ນອີກຕໍ່ໄປ). ໂອກາດແມ່ນວ່າ AI ຈະມີຄ່າໃຊ້ຈ່າຍຫນ້ອຍລົງໂດຍລວມເມື່ອປຽບທຽບກັບຂອບເຂດທີ່ໃຊ້ເວລາໄລຍະຍາວ. ທ່ານ​ໄດ້​ປະ​ຖິ້ມ​ຄວາມ​ຫຍຸ້ງ​ຍາກ​ອື່ນໆ​ທັງ​ຫມົດ​ທີ່​ມີ​ສ່ວນ​ຫນຶ່ງ​ແລະ parcel ກັບ​ພະ​ນັກ​ງານ​ມະ​ນຸດ​. ເປັນຕົ້ນ.

ຂໍ້ສະ ເໜີ ທີ່ ກຳ ລັງໄດ້ຮັບພື້ນຖານເບິ່ງຄືວ່ານີ້: ເມື່ອພະຍາຍາມຕັດສິນໃຈວ່າຈະວາງ AI ໄວ້ບ່ອນໃດດີທີ່ສຸດ, ໃຫ້ເບິ່ງກ່ອນໜ້ານີ້ຕໍ່ກັບການຕັ້ງຄ່າທີ່ເຮັດໃຫ້ເກີດຄວາມລຳອຽງຂອງມະນຸດໂດຍຄົນງານຂອງເຈົ້າ ແລະ ເຊິ່ງຄວາມລຳອຽງເຫຼົ່ານັ້ນຖືກຕັດຂາດ ຫຼື ມີຄວາມຊັບຊ້ອນຫຼາຍເກີນໄປໃນວຽກງານການຕັດສິນໃຈສະເພາະ.

ເສັ້ນທາງລຸ່ມແມ່ນວ່າມັນເບິ່ງຄືວ່າມີຄວາມລະມັດລະວັງທີ່ຈະເກັບເງິນໄດ້ຫຼາຍທີ່ສຸດສໍາລັບ buck ຂອງທ່ານໃນແງ່ຂອງການລົງທຶນໃນ AI ໂດຍແນໃສ່ສີ່ຫລ່ຽມໃນວຽກງານການຕັດສິນໃຈຂອງມະນຸດທີ່ເປີດເຜີຍສູງທີ່ເຄັ່ງຄັດໃນການຄວບຄຸມຈາກທັດສະນະ infusion infusion untoward. ປົດ​ຄົນ​ງານ​ມະ​ນຸດ​ອອກ​ຈາກ​ພາ​ລະ​ບົດ​ບາດ​ນັ້ນ. ທົດແທນພວກມັນດ້ວຍ AI. ການສົມມຸດຕິຖານແມ່ນວ່າ AI ຈະບໍ່ມີຄວາມລໍາອຽງດັ່ງກ່າວ. ດັ່ງນັ້ນ, ເຈົ້າສາມາດມີເຄ້ກຂອງເຈົ້າແລະກິນມັນຄືກັນ, ຄື, ປະຕິບັດວຽກງານການຕັດສິນໃຈແລະເຮັດສິ່ງນັ້ນລົບກັບຈັນຍາບັນແລະກົດຫມາຍຂອງຄວາມບໍ່ລໍາອຽງ.

ໃນເວລາທີ່ທ່ານ pencil ອອກ, ROI (ຜົນຕອບແທນຂອງການລົງທຶນ) ອາດຈະເຮັດໃຫ້ການຮັບຮອງເອົາຂອງ AI ເປັນທາງເລືອກທີ່ບໍ່ມີສະຫມອງ.

ນີ້ແມ່ນວິທີການທີ່ມັກຈະຫຼິ້ນອອກ.

ເບິ່ງທົ່ວບໍລິສັດຂອງທ່ານແລະພະຍາຍາມກໍານົດວຽກງານການຕັດສິນໃຈທີ່ສົ່ງຜົນກະທົບຕໍ່ລູກຄ້າ. ໃນວຽກງານເຫຼົ່ານັ້ນ, ວຽກງານໃດທີ່ອາດຈະຖືກຫລອກລວງທີ່ບໍ່ເໝາະສົມທີ່ສຸດ ຖ້າຜູ້ອອກແຮງງານມີຄວາມບໍ່ລໍາອຽງ? ຖ້າທ່ານໄດ້ພະຍາຍາມຄວບຄຸມຄວາມລໍາອຽງເຫຼົ່ານັ້ນແລ້ວ, ບາງທີເຈົ້າອາດຈະປ່ອຍໃຫ້ສິ່ງທີ່ເປັນຢູ່. ໃນທາງກົງກັນຂ້າມ, ຖ້າຄວາມລໍາອຽງສືບຕໍ່ປະກົດຕົວຄືນໃຫມ່ແລະຄວາມພະຍາຍາມເພື່ອຂັດຂວາງພວກມັນອອກແມ່ນມີຄວາມອ່ອນໄຫວ, ພິຈາລະນາເອົາ AI ທີ່ກ່ຽວຂ້ອງເຂົ້າໄປໃນບົດບາດນັ້ນ. ຢ່າເຮັດໃຫ້ຄົນງານຢູ່ໃນການປະສົມກັນເພາະວ່າພວກເຂົາອາດຈະ override AI ຫຼືຊຸກດັນໃຫ້ AI ກັບຄືນສູ່ຄວາມລໍາອຽງທີ່ບໍ່ຫນ້າເຊື່ອ. ນອກຈາກນັ້ນ, ໃຫ້ແນ່ໃຈວ່າ AI ສາມາດປະຕິບັດວຽກງານໄດ້ຢ່າງຄ່ອງແຄ້ວແລະທ່ານໄດ້ຈັບພາບການຕັດສິນໃຈທີ່ຈໍາເປັນເພື່ອປະຕິບັດວຽກງານຢ່າງພຽງພໍ.

ລ້າງແລະເຮັດຊ້ ຳ ອີກ.

ຂ້າພະເຈົ້າຮັບຮູ້ວ່າເບິ່ງຄືວ່າເປັນແນວຄິດທີ່ກົງໄປກົງມາ, ເຖິງແມ່ນວ່າຮູ້ວ່າມີຫຼາຍວິທີທີ່ຈະປ່ຽນພະນັກງານຂອງມະນຸດດ້ວຍ AI ສາມາດເຮັດໄດ້ງ່າຍ. ຫລາຍບໍລິສັດມີຄວາມກະຕືລືລົ້ນທີ່ຈະປະຕິບັດການດັ່ງກ່າວແລະບໍ່ໄດ້ພິຈາລະນາຢ່າງລະມັດລະວັງວ່າຈະເຮັດແນວໃດ. ດັ່ງນັ້ນ, ພວກເຂົາເຈົ້າມັກຈະເຮັດໃຫ້ລັງກິນອາຫານທີ່ຮ້າຍແຮງກວ່າທີ່ເຂົາເຈົ້າມີຢູ່ໃນມືຂອງເຂົາເຈົ້າທີ່ຈະເລີ່ມຕົ້ນດ້ວຍ.

ຂ້ອຍຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງແລະເນັ້ນຫນັກວ່າ AI ບໍ່ແມ່ນ panacea.

ເວົ້າກ່ຽວກັບເລື່ອງນັ້ນ, ມັນມີອຸປະສັກອັນໃຫຍ່ຫຼວງກ່ຽວກັບຄວາມສະອາດທີ່ເບິ່ງຄືວ່າຈະຖິ້ມຜູ້ຕັດສິນໃຈທີ່ມີຄວາມລໍາອຽງຂອງມະນຸດກັບ AI ທີ່ບໍ່ລໍາອຽງທີ່ຖືກກ່າວຫາ. ອຸປະສັກແມ່ນວ່າເຈົ້າອາດຈະພຽງແຕ່ປ່ຽນຊຸດໜຶ່ງຂອງຄວາມລຳອຽງທີ່ບໍ່ມີອະຄະຕິໃຫ້ກັບອີກອັນໜຶ່ງ. ຕາມການຊີ້ບອກກ່ອນໜ້ານີ້, AI ສາມາດບັນຈຸຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າໃຈ ແລະສາມາດປະຕິບັດຕໍ່ຄວາມລຳອຽງເຫຼົ່ານັ້ນ. ການເຮັດໃຫ້ສົມມຸດຕິຖານທີ່ໂງ່ຈ້າທີ່ການແລກປ່ຽນມະນຸດທີ່ມີອະຄະຕິສໍາລັບ AI ທີ່ບໍ່ລໍາອຽງບໍ່ແມ່ນທັງຫມົດທີ່ມັນຖືກທໍາລາຍ.

ໃນສັ້ນ, ນີ້ແມ່ນຂໍ້ຕົກລົງໃນເວລາທີ່ເບິ່ງບັນຫາຢ່າງເຂັ້ມງວດຈາກປັດໃຈຄວາມລໍາອຽງ:

  • AI ບໍ່ມີຄວາມລໍາອຽງທີ່ບໍ່ຫນ້າເຊື່ອແລະຄິດວ່າ ADM ທີ່ອີງໃສ່ AI ແມ່ນເປັນປະໂຫຍດທີ່ຈະນໍາໄປໃຊ້.
  • AI ມີຄວາມລໍາອຽງທີ່ບໍ່ມີຄວາມລໍາອຽງຄືກັນກັບມະນຸດທີ່ຖືກແທນທີ່ແລະດັ່ງນັ້ນ ADM ທີ່ອີງໃສ່ AI ກໍາລັງມີບັນຫາ.
  • AI ນຳສະເໜີຄວາມລຳອຽງໃໝ່ໆທີ່ບໍ່ໜ້າເຊື່ອນອກເໜືອໄປຈາກມະນຸດທີ່ຈະຖືກແທນທີ່ ແລະອາດຈະເຮັດໃຫ້ສິ່ງຕ່າງໆຮ້າຍແຮງຂຶ້ນຕາມຄວາມເໝາະສົມ.
  • AI ໃນ​ຕອນ​ທໍາ​ອິດ​ເບິ່ງ​ຄື​ວ່າ​ດີ​ແລະ​ຫຼັງ​ຈາກ​ນັ້ນ​ຄ່ອຍໆ​ສັ່ນ​ສະ​ເທືອນ​ເຂົ້າ​ໄປ​ໃນ​ອະ​ຄະ​ຕິ​ທີ່​ບໍ່​ມີ​ອະ​ຄະ​ຕິ​
  • ອື່ນ ໆ

ພວກ​ເຮົາ​ສາ​ມາດ​ຖອດ​ຖອນ​ຄວາມ​ເປັນ​ໄປ​ໄດ້​ເຫຼົ່າ​ນັ້ນ​ໂດຍ​ຫຍໍ້​.

ອັນທໍາອິດແມ່ນສະບັບທີ່ເຫມາະສົມຂອງສິ່ງທີ່ອາດຈະເກີດຂຶ້ນ. AI ບໍ່​ມີ​ອະ​ຄະ​ຕິ untoward​. ທ່ານເອົາ AI ເຂົ້າໄປໃນສະຖານທີ່ແລະມັນເຮັດວຽກທີ່ດີເລີດ. ດີ​ສໍາ​ລັບ​ເຈົ້າ! ແນ່ນອນ, ຄົນ ໜຶ່ງ ຫວັງວ່າເຈົ້າມີວິທີການຈັດການກັບການຍົກຍ້າຍແຮງງານຂອງມະນຸດຍ້ອນການລວມເອົາ AI.

ໃນກໍລະນີທີສອງ, ທ່ານວາງ AI ແລະຄົ້ນພົບວ່າ AI ກໍາລັງສະແດງຄວາມບໍ່ລໍາອຽງດຽວກັນກັບຄົນງານຂອງມະນຸດ. ນີ້ເປັນໄປໄດ້ແນວໃດ? ວິທີການທົ່ວໄປຂອງການຕົກຢູ່ໃນຈັ່ນຈັບນີ້ແມ່ນໂດຍການນໍາໃຊ້ Machine Learning (ML) ແລະ Deep Learning (DL) ອີງຕາມຂໍ້ມູນທີ່ເກັບກໍາກ່ຽວກັບວິທີທີ່ມະນຸດໃນພາລະບົດບາດໄດ້ຕັດສິນໃຈໃນເມື່ອກ່ອນ.

ອະນຸຍາດໃຫ້ຂ້ອຍໃຊ້ເວລາອະທິບາຍ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດວຽກມາເປັນເວລາຫຼາຍປີນັບມື້ນັບມີອະຄະຕິທີ່ບໍ່ເຂົ້າກັນໄດ້, ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າຂໍ້ມູນສະທ້ອນໃຫ້ເຫັນເລື່ອງນີ້ໃນທາງທີ່ອ່ອນໂຍນແຕ່ມີຄວາມສໍາຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະ​ນິດ​ສາດ Arcane ອາດ​ຈະ​ເຮັດ​ໃຫ້​ມັນ​ຍາກ​ທີ່​ຈະ ferret ອອກ​ອະ​ຄະ​ຕິ​ທີ່​ເຊື່ອງ​ໄວ້​ໃນ​ປັດ​ຈຸ​ບັນ​. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່ານັກພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທັງຫມົດທີ່ບອກ, ທ່ານອາດຈະສິ້ນສຸດເຖິງສີ່ຫຼ່ຽມມົນ. ຄວາມລຳອຽງອັນດຽວກັນຂອງມະນຸດແມ່ນໄດ້ຖືກສະທ້ອນຈາກຄອມພິວເຕີ້ຢູ່ໃນລະບົບ AI. ເຈົ້າຍັງບໍ່ໄດ້ລົບລ້າງຄວາມລໍາອຽງ.

ຮ້າຍແຮງໄປກວ່ານັ້ນ, ທ່ານອາດຈະມີແນວໂນ້ມຫນ້ອຍທີ່ຈະຮັບຮູ້ວ່າ AI ມີຄວາມລໍາອຽງ. ໃນ​ກໍ​ລະ​ນີ​ຂອງ​ມະ​ນຸດ, ໂດຍ​ປົກ​ກະ​ຕິ​ທ່ານ​ອາດ​ຈະ​ຢູ່​ໃນ​ການ​ປ້ອງ​ກັນ​ຂອງ​ທ່ານ​ທີ່​ມະ​ນຸດ​ມີ​ອະ​ຄະ​ຕິ​ທີ່​ບໍ່​ມີ​ອະ​ຄະ​ຕິ. ນີ້ແມ່ນຄວາມຄາດຫວັງພື້ນຖານ. ການນໍາໃຊ້ AI ສາມາດຊັກຊວນຜູ້ນໍາໃຫ້ເຊື່ອວ່າອັດຕະໂນມັດໄດ້ລົບລ້າງຄວາມລໍາອຽງຂອງມະນຸດໃດໆ. ດັ່ງນັ້ນ, ພວກເຂົາເຈົ້າກໍາລັງຕັ້ງຕົວເອງສໍາລັບການຍິງຕົນເອງຢູ່ໃນຕີນ. ພວກເຂົາເຈົ້າໄດ້ກໍາຈັດມະນຸດທີ່ມີຄວາມລໍາອຽງທີ່ເບິ່ງຄືວ່າບໍ່ມີອະຄະຕິ, ຖືກທົດແທນໂດຍ AI ທີ່ຄິດວ່າບໍ່ມີຄວາມລໍາອຽງດັ່ງກ່າວ, ແລະໃນປັດຈຸບັນໄດ້ນໍາໃຊ້ AI ເຕັມໄປດ້ວຍຄວາມລໍາອຽງດຽວກັນທີ່ຮູ້ແລ້ວວ່າມີຢູ່ແລ້ວ.

ນີ້ສາມາດເຮັດໃຫ້ສິ່ງທີ່ເບິ່ງຂ້າມໄດ້. ເຈົ້າອາດຈະໄດ້ເອົາ guardrails ອື່ນໆທີ່ຖືກນໍາໃຊ້ກັບຄົນງານຂອງມະນຸດທີ່ຖືກສ້າງຕັ້ງຂຶ້ນເພື່ອກວດພົບແລະປ້ອງກັນການເກີດໃຫມ່ຂອງອະຄະຕິຂອງມະນຸດທີ່ຄາດໄວ້ແລ້ວ. AI ໃນປັດຈຸບັນມີ rein ຟຣີ. ບໍ່ມີຫຍັງຢູ່ໃນສະຖານທີ່ທີ່ຈະຈັບມັນກ່ອນທີ່ຈະສະແດງຂຶ້ນ. ຫຼັງຈາກນັ້ນ, AI ສາມາດເລີ່ມຕົ້ນນໍາທ່ານໄປສູ່ເສັ້ນທາງກ້າວສູ່ການສະສົມອັນໃຫຍ່ຫຼວງຂອງການກະທໍາທີ່ລໍາອຽງ.

ແລະ, ເຈົ້າຢູ່ໃນທ່າທີ່ງຸ່ມງ່າມ ແລະບາງທີອາດມີຄວາມຮັບຜິດຊອບທີ່ເຈົ້າເຄີຍຮູ້ກ່ຽວກັບອະຄະຕິ ແລະ ດຽວນີ້ໄດ້ປ່ອຍໃຫ້ຄວາມລຳອຽງເຫຼົ່ານັ້ນສ້າງຄວາມເສຍຫາຍ. ບາງທີອາດເປັນສິ່ງໜຶ່ງທີ່ບໍ່ເຄີຍໄດ້ພົບກັບຄວາມລຳອຽງທີ່ບໍ່ໜ້າເຊື່ອ ແລະຈາກນັ້ນຢ່າງກະທັນຫັນ AI ອອກມາຈາກສີຟ້າ. ທ່ານອາດຈະພະຍາຍາມແກ້ຕົວນີ້ກັບ "ຜູ້ທີ່ຈະເດົາ" ປະເພດຂອງການລົບກວນ (ບໍ່ convincingly, ບາງທີ). ແຕ່ດຽວນີ້ໄດ້ຕັ້ງ AI ທີ່ເຮັດການກະ ທຳ ທີ່ບໍ່ ໜ້າ ລຳ ອຽງຄືກັນກັບແຕ່ກ່ອນ, ດີ, ຄຳ ແກ້ຕົວຂອງເຈົ້າແມ່ນເບົາບາງລົງແລະຂີ້ຄ້ານ.

ການບິດເບືອນກ່ຽວກັບເລື່ອງນີ້ເຮັດໃຫ້ AI ສະແດງໃຫ້ເຫັນເຖິງຄວາມລໍາອຽງທີ່ບໍ່ເຄີຍພົບໃນເມື່ອກ່ອນໃນເວລາທີ່ມະນຸດກໍາລັງປະຕິບັດຫນ້າວຽກ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າບາງທີມັນອາດຈະເປັນການຍາກທີ່ຈະປ້ອງກັນໄດ້ເນື່ອງຈາກມັນປະກອບດ້ວຍ "ອະຄະຕິໃຫມ່" ທີ່ບໍລິສັດບໍ່ເຄີຍຊອກຫາມາກ່ອນ. ເຖິງ​ຢ່າງ​ໃດ​ກໍ​ຕາມ, ຂໍ້​ແກ້​ຕົວ​ອາດ​ຈະ​ບໍ່​ໃຫ້​ເຈົ້າ​ໄດ້​ຮັບ​ການ​ບັນ​ເທົາ​ທຸກ​ຫຼາຍ. ຖ້າລະບົບ AI ໄດ້ເຂົ້າໄປໃນອານາເຂດທີ່ຜິດສິນລະທໍາແລະຜິດກົດຫມາຍ, goose ຂອງທ່ານອາດຈະຖືກປຸງແຕ່ງ.

ອີກດ້ານ ໜຶ່ງ ທີ່ຄວນຈື່ແມ່ນວ່າ AI ອາດຈະເລີ່ມຕົ້ນໄດ້ດີແລະຫຼັງຈາກນັ້ນກ້າວໄປສູ່ຄວາມບໍ່ ລຳ ອຽງ. ນີ້ແມ່ນເປັນໄປໄດ້ໂດຍສະເພາະໃນເວລາທີ່ການນໍາໃຊ້ຂອງການຮຽນຮູ້ເຄື່ອງຈັກຫຼືການຮຽນຮູ້ເລິກເກີດຂຶ້ນຢ່າງຕໍ່ເນື່ອງເພື່ອຮັກສາ AI ທີ່ທັນສະໄຫມ. ບໍ່ວ່າຈະເປັນ ML/DL ກໍາລັງເຮັດວຽກໃນເວລາຈິງຫຼືເຮັດການປັບປຸງເປັນໄລຍະ, ຄວາມສົນໃຈຄວນຈະເປັນວ່າ AI ອາດຈະເອົາຂໍ້ມູນທີ່ປະຈຸບັນປະກອບດ້ວຍຄວາມລໍາອຽງແລະໃນເມື່ອກ່ອນບໍ່ມີ.

ສໍາລັບຜູ້ນໍາທີ່ຄິດວ່າເຂົາເຈົ້າໄດ້ຮັບອາຫານທ່ຽງຟຣີໂດຍການໂບກມື magic ເພື່ອທົດແທນພະນັກງານຂອງມະນຸດທີ່ມີອະຄະຕິດ້ວຍ AI, ເຂົາເຈົ້າຢູ່ໃນການປຸກທີ່ຂີ້ຮ້າຍຫຼາຍ. ເບິ່ງການສົນທະນາຂອງຂ້ອຍກ່ຽວກັບຄວາມສໍາຄັນຂອງການສ້າງຄວາມເຂັ້ມແຂງໃຫ້ຜູ້ນໍາທີ່ມີຂໍ້ກໍານົດຂອງຈັນຍາບັນ AI ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃນຈຸດເຊື່ອມຕໍ່ຂອງການສົນທະນານີ້, ຂ້າພະເຈົ້າຂໍວາງເດີມພັນວ່າທ່ານຕ້ອງການຕົວຢ່າງໃນໂລກທີ່ແທ້ຈິງບາງຢ່າງທີ່ອາດຈະສະແດງໃຫ້ເຫັນເຖິງຄວາມຂັດແຍ້ງຂອງການປ່ຽນແທນຄວາມລໍາອຽງຂອງມະນຸດ (ຫຼືບໍ່ແມ່ນ) ດ້ວຍຄວາມລໍາອຽງທີ່ອີງໃສ່ AI.

ຂ້ອຍດີໃຈທີ່ເຈົ້າຖາມ.

ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດອັນໜຶ່ງກ່ຽວກັບຄວາມບໍ່ເປັນອະຄະຕິໃນ AI, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນການຊີ້ແຈງ, ລົດທີ່ຂັບຂີ່ດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນສິ່ງທີ່ AI ຂັບຂີ່ລົດທັງ ໝົດ ດ້ວຍຕົນເອງແລະບໍ່ມີການຊ່ວຍເຫຼືອໃດໆຂອງມະນຸດໃນເວລາເຮັດວຽກຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງບໍ່ທັນມີລົດທີ່ຂັບດ້ວຍຕົນເອງທີ່ແທ້ຈິງໃນລະດັບ 5, ເຊິ່ງພວກເຮົາຍັງບໍ່ຮູ້ວ່າມັນຈະເປັນໄປໄດ້ບໍ່ທີ່ຈະບັນລຸໄດ້, ແລະມັນຈະໃຊ້ເວລາດົນປານໃດເພື່ອຈະໄປເຖິງ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI ດ້ວຍຄວາມລຳອຽງ

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.

ຕອນນີ້ພວກເຮົາເລີ່ມຕົ້ນທີ່ຈະລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ ແລະຄວາມເປັນໄປໄດ້ທາງດ້ານຈັນຍາບັນຂອງ AI ທີ່ປະກອບດ້ວຍການສຳຫຼວດ AI ແລະຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າໃຈ.

ໃຫ້ເຮົາໃຊ້ຕົວຢ່າງທີ່ກົງໄປກົງມາ. ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ກໍາລັງແລ່ນຢູ່ໃນຖະໜົນໃກ້ບ້ານຂອງເຈົ້າ ແລະເບິ່ງຄືວ່າຈະຂັບຂີ່ຢ່າງປອດໄພ. ໃນຕອນທໍາອິດ, ທ່ານໄດ້ເອົາໃຈໃສ່ເປັນພິເສດໃນແຕ່ລະຄັ້ງທີ່ເຈົ້າສາມາດແນມເບິ່ງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍານພາຫະນະທີ່ປົກຄອງຕົນເອງໄດ້ຢືນຢູ່ຂ້າງນອກດ້ວຍເຊັນເຊີເອເລັກໂຕຣນິກທີ່ປະກອບມີກ້ອງຖ່າຍຮູບວິດີໂອ, ຫນ່ວຍ radar, ອຸປະກອນ LIDAR, ແລະອື່ນໆ. ຫຼັງ​ຈາກ​ຫຼາຍ​ອາ​ທິດ​ຂອງ​ລົດ​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ລ່ອງ​ເຮືອ​ໃນ​ທົ່ວ​ຊຸມ​ຊົນ​ຂອງ​ທ່ານ​, ໃນ​ປັດ​ຈຸ​ບັນ​ທ່ານ​ເກືອບ​ບໍ່​ໄດ້​ສັງ​ເກດ​ເຫັນ​ມັນ​. ຕາມທີ່ເຈົ້າເປັນຫ່ວງ, ມັນເປັນພຽງແຕ່ລົດອີກຄັນໜຶ່ງທີ່ຢູ່ເທິງຖະໜົນຫົນທາງສາທາລະນະທີ່ຫຍຸ້ງຢູ່ແລ້ວ.

ຢ້ານວ່າເຈົ້າຄິດວ່າມັນເປັນໄປບໍ່ໄດ້ ຫຼື ໄຮ້ເຫດຜົນທີ່ຈະຄຸ້ນເຄີຍກັບການເຫັນລົດຂັບລົດຕົນເອງ, ຂ້ອຍໄດ້ຂຽນເລື້ອຍໆກ່ຽວກັບວ່າທ້ອງຖິ່ນທີ່ຢູ່ໃນຂອບເຂດຂອງການທົດລອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ຄ່ອຍໆຄຸ້ນເຄີຍກັບການເຫັນລົດຍົນທີ່ໂດດເດັ່ນແນວໃດ, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້. ໃນທີ່ສຸດຄົນທ້ອງຖິ່ນຫຼາຍຄົນໄດ້ປ່ຽນຈາກປາກເປົ່າແກວ່ງປາກເປັນສຽງດັງ ກາຍເປັນຄວາມເບື່ອໜ່າຍອັນກວ້າງໃຫຍ່ໄພສານ ເພື່ອເປັນພະຍານເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ລ້ຽວນັ້ນ.

ອາດ​ຈະ​ເປັນ​ເຫດ​ຜົນ​ຕົ້ນ​ຕໍ​ໃນ​ປັດ​ຈຸ​ບັນ​ທີ່​ເຂົາ​ເຈົ້າ​ອາດ​ຈະ​ສັງ​ເກດ​ເຫັນ​ຍານ​ພາ​ຫະ​ນະ​ອັດ​ຕະ​ໂນ​ມັດ​ແມ່ນ​ຍ້ອນ​ວ່າ​ປັດ​ໄຈ​ລະ​ຄາຍ​ເຄືອງ​ແລະ exasperation ໄດ້​. ລະບົບການຂັບຂີ່ AI ທີ່ເຮັດມາຈາກປື້ມບັນທຶກໃຫ້ແນ່ໃຈວ່າລົດໄດ້ປະຕິບັດຕາມການຈໍາກັດຄວາມໄວທັງຫມົດແລະກົດລະບຽບຂອງຖະຫນົນ. ສໍາລັບຄົນຂັບລົດທີ່ວຸ້ນວາຍຢູ່ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດແບບດັ້ງເດີມ, ເຈົ້າຮູ້ສຶກຕົກໃຈໃນບາງຄັ້ງເມື່ອຕິດຢູ່ຫຼັງລົດທີ່ຂັບເອງຕາມກົດໝາຍ AI ຢ່າງເຂັ້ມງວດ.

ນັ້ນ​ແມ່ນ​ບາງ​ສິ່ງ​ບາງ​ຢ່າງ​ທີ່​ພວກ​ເຮົາ​ທຸກ​ຄົນ​ອາດ​ຈະ​ຕ້ອງ​ເຮັດ​ໃຫ້​ເຄຍ​ຊີນ, ຖືກ​ຕ້ອງ​ຫຼື​ຜິດ.

ກັບຄືນໄປບ່ອນ tale ຂອງພວກເຮົາ.

ປະກົດວ່າມີສອງຄວາມກັງວົນທີ່ເບິ່ງບໍ່ເປັນຄືເລີ່ມເກີດຂຶ້ນກ່ຽວກັບລົດທີ່ຂັບເອງໄດ້ແບບ AI ໂດຍທົ່ວໄປແລ້ວທີ່ບໍ່ມີຄວາມຜິດ ແລະໄດ້ຮັບການຕ້ອນຮັບໂດຍທົ່ວໄປ, ໂດຍສະເພາະ:

ກ. ບ່ອນທີ່ AI ກໍາລັງແລ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງສໍາລັບການຂີ່ລົດໄດ້ກາຍເປັນຄວາມກັງວົນໃຈໃນຊຸມຊົນຢ່າງຫຼວງຫຼາຍ.

ຂ. ວິທີການທີ່ AI ກໍາລັງປະຕິບັດຕໍ່ຄົນຍ່າງທາງທີ່ລໍຖ້າທາງຍ່າງທີ່ບໍ່ມີສິດແມ່ນຍັງເປັນບັນຫາທີ່ເພີ່ມຂຶ້ນ.

ໃນຕອນທໍາອິດ, AI ໄດ້ roaming ລົດຂັບລົດດ້ວຍຕົນເອງໃນທົ່ວເມືອງທັງຫມົດ. ໃຜກໍ່ຕາມທີ່ຕ້ອງການທີ່ຈະຮ້ອງຂໍການຂັບເຄື່ອນໃນລົດທີ່ຂັບລົດຕົນເອງໄດ້ມີໂອກາດເທົ່າທຽມກັນທີ່ຈະຊົມເຊີຍຫນຶ່ງ. ຄ່ອຍໆ, AI ໄດ້ເລີ່ມຕົ້ນທີ່ຈະຮັກສາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເປັນຕົ້ນຕໍ roaming ຢູ່ໃນພຽງແຕ່ຫນຶ່ງພາກສ່ວນຂອງຕົວເມືອງ. ພາກນີ້ແມ່ນຜູ້ສ້າງເງິນຫຼາຍກວ່າເກົ່າແລະລະບົບ AI ໄດ້ຖືກດໍາເນີນໂຄງການເພື່ອພະຍາຍາມແລະສ້າງລາຍໄດ້ສູງສຸດເປັນສ່ວນຫນຶ່ງຂອງການນໍາໃຊ້ໃນຊຸມຊົນ.

ສະມາຊິກຊຸມຊົນໃນເຂດທີ່ທຸກຍາກຂອງຕົວເມືອງມີແນວໂນ້ມຫນ້ອຍທີ່ຈະສາມາດຂີ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້. ອັນນີ້ແມ່ນຍ້ອນວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ຢູ່ໄກອອກໄປ ແລະ roaming ໃນພາກສ່ວນລາຍຮັບທີ່ສູງຂຶ້ນຂອງທ້ອງຖິ່ນ. ເມື່ອຄໍາຮ້ອງຂໍເຂົ້າມາຈາກເຂດຫ່າງໄກຂອງຕົວເມືອງ, ການຮ້ອງຂໍໃດໆຈາກສະຖານທີ່ໃກ້ຊິດທີ່ມີແນວໂນ້ມໃນສ່ວນ "ເປັນທີ່ເຄົາລົບ" ຂອງເມືອງຈະໄດ້ຮັບຄວາມສໍາຄັນສູງກວ່າ. ໃນທີ່ສຸດ, ການມີລົດຂັບລົດດ້ວຍຕົນເອງຢູ່ບ່ອນໃດບ່ອນໜຶ່ງນອກເໜືອໄປຈາກເຂດທີ່ອຸດົມສົມບູນຂອງເມືອງແມ່ນເກືອບເປັນໄປບໍ່ໄດ້, ເປັນສິ່ງທີ່ໜ້າຕື່ນເຕັ້ນຫຼາຍສຳລັບຜູ້ທີ່ອາໄສຢູ່ໃນເຂດທີ່ຂາດແຄນຊັບພະຍາກອນໃນປັດຈຸບັນ.

ທ່ານສາມາດຍືນຍັນວ່າ AI ໄດ້ລົງຈອດຢູ່ໃນຮູບແບບຂອງການຈໍາແນກຕົວແທນ (ຍັງມັກຈະເອີ້ນວ່າການຈໍາແນກທາງອ້ອມ). AI ບໍ່ໄດ້ຕັ້ງໂຄງການເພື່ອຫຼີກເວັ້ນເຂດທີ່ທຸກຍາກເຫຼົ່ານັ້ນ. ແທນທີ່ຈະ, ມັນ "ຮຽນຮູ້" ທີ່ຈະເຮັດແນວນັ້ນໂດຍຜ່ານການນໍາໃຊ້ ML / DL.

ສິ່ງດັ່ງກ່າວແມ່ນ, ຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຂີ່ລົດຍົນໄດ້ເປັນທີ່ຮູ້ຈັກສໍາລັບການເຮັດສິ່ງດຽວກັນ, ເຖິງແມ່ນວ່າບໍ່ຈໍາເປັນພຽງແຕ່ຍ້ອນມຸມສ້າງລາຍໄດ້. ມີບາງຄົນຂັບລົດມະນຸດທີ່ຮ່ວມເດີນທາງທີ່ມີອະຄະຕິທີ່ບໍ່ໜ້າເຊື່ອກ່ຽວກັບການເອົາຜູ້ຂັບຂີ່ໃນບາງສ່ວນຂອງເມືອງ. ນີ້​ແມ່ນ​ປະກົດ​ການ​ທີ່​ຮູ້​ຈັກ​ໜ້ອຍ​ໜຶ່ງ ​ແລະ ​ເມືອງ​ໄດ້​ວາງ​ມາດ​ຕະການ​ຕິດຕາມ​ກວດກາ ​ເພື່ອ​ຈັບ​ຄົນ​ຂັບ​ຂີ່​ມະນຸດ. ຜູ້ຂັບຂີ່ຂອງມະນຸດສາມາດປະສົບບັນຫາໃນການປະຕິບັດການຄັດເລືອກທີ່ບໍ່ແຊບ.

ສົມມຸດວ່າ AI ຈະບໍ່ຕົກຢູ່ໃນດິນຊາຍແບບດຽວກັນນັ້ນ. ບໍ່ມີການຕັ້ງການຕິດຕາມແບບພິເສດເພື່ອຕິດຕາມບ່ອນທີ່ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ໄດ້ໄປ. ພຽງແຕ່ຫຼັງຈາກສະມາຊິກຊຸມຊົນເລີ່ມຈົ່ມວ່າຜູ້ນໍາເມືອງຮັບຮູ້ສິ່ງທີ່ເກີດຂຶ້ນ. ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບປະເພດຂອງບັນຫາທົ່ວເມືອງເຫຼົ່ານີ້ທີ່ຍານພາຫະນະອັດຕະໂນມັດແລະລົດຂັບລົດຕົນເອງກໍາລັງຈະນໍາສະເຫນີ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍທີ່ ລິ້ງນີ້ຢູ່ນີ້ ແລະທີ່ອະທິບາຍການສຶກສາທີ່ນໍາພາໂດຍ Harvard ທີ່ຂ້າພະເຈົ້າໄດ້ຮ່ວມກັນຂຽນໃນຫົວຂໍ້.

ຕົວຢ່າງຂອງລັກສະນະໂຣມມິງຂອງລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ນີ້ສະແດງໃຫ້ເຫັນເຖິງການຊີ້ບອກກ່ອນຫນ້ານັ້ນວ່າມັນສາມາດມີສະຖານະການທີ່ເຮັດໃຫ້ເກີດຄວາມບໍ່ລໍາອຽງຂອງມະນຸດ, ເຊິ່ງການຄວບຄຸມໄດ້ຖືກວາງໄວ້, ແລະວ່າ AI ແທນຄົນຂັບລົດຂອງມະນຸດເຫຼົ່ານັ້ນໄດ້ຖືກປະຖິ້ມໄວ້. ຟຣີ. ແຕ່ຫນ້າເສຍດາຍ, AI ສາມາດເພີ່ມຂຶ້ນເປັນ mired ໃນຄວາມລໍາອຽງທີ່ຄ້າຍຄືກັນແລະເຮັດແນວນັ້ນໂດຍບໍ່ມີການ guardrails ພຽງພໍໃນສະຖານທີ່.

ຕົວຢ່າງທີສອງກ່ຽວຂ້ອງກັບ AI ກໍານົດວ່າຈະຢຸດສໍາລັບການລໍຖ້າຄົນຍ່າງທາງທີ່ບໍ່ມີສິດທີ່ຈະຂ້າມຖະຫນົນ.

ແນ່ນອນເຈົ້າໄດ້ຂັບລົດໄປ ແລະໄດ້ພົບກັບຄົນຍ່າງທາງທີ່ລໍຖ້າຂ້າມຖະໜົນ ແຕ່ເຂົາເຈົ້າບໍ່ມີສິດທີ່ຈະເຮັດແນວນັ້ນ. ນີ້ຫມາຍຄວາມວ່າທ່ານມີການຕັດສິນໃຈທີ່ຈະຢຸດແລະປ່ອຍໃຫ້ພວກເຂົາຂ້າມ. ທ່ານສາມາດດໍາເນີນການໄດ້ໂດຍບໍ່ປ່ອຍໃຫ້ພວກເຂົາຂ້າມຜ່ານແລະຍັງຢູ່ໃນກົດລະບຽບການຂັບຂີ່ທີ່ຖືກຕ້ອງຕາມກົດຫມາຍຂອງການເຮັດເຊັ່ນນັ້ນ.

ການສຶກສາກ່ຽວກັບວິທີທີ່ຄົນຂັບລົດມະນຸດຕັດສິນໃຈຢຸດ ຫຼືບໍ່ຢຸດສຳລັບຄົນຍ່າງທາງນັ້ນ ໄດ້ແນະນຳວ່າ ບາງຄັ້ງຄົນຂັບລົດມະນຸດເລືອກໂດຍພື້ນຖານຂອງຄວາມລຳອຽງທີ່ບໍ່ມີເຫດຜົນ. ຄົນຂັບລົດມະນຸດອາດຈະແນມເບິ່ງຄົນຍ່າງ ແລະເລືອກທີ່ຈະບໍ່ຢຸດ, ເຖິງແມ່ນວ່າເຂົາເຈົ້າຈະຢຸດແລ້ວກໍຕາມ ຖ້າຄົນຍ່າງມີຮູບຮ່າງທີ່ແຕກຕ່າງເຊັ່ນ: ອີງໃສ່ເຊື້ອຊາດ ຫຼືເພດ. ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ກວດ​ກາ​ນີ້​ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI ແມ່ນໂຄງການເພື່ອຈັດການກັບຄໍາຖາມທີ່ຈະຢຸດຫລືບໍ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາ. ນີ້ແມ່ນວິທີທີ່ຜູ້ພັດທະນາ AI ຕັດສິນໃຈຂຽນໂປຣແກຣມນີ້. ພວກເຂົາເຈົ້າເກັບກໍາຂໍ້ມູນຈາກກ້ອງຖ່າຍຮູບວິດີໂອຂອງຕົວເມືອງທີ່ວາງໄວ້ທົ່ວເມືອງ. ຂໍ້ມູນສະແດງໃຫ້ເຫັນຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາແລະຄົນຂັບລົດຂອງມະນຸດທີ່ບໍ່ຢຸດ. ມັນໄດ້ຖືກລວບລວມທັງຫມົດເຂົ້າໄປໃນຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່.

ໂດຍການນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກແລະການຮຽນຮູ້ເລິກ, ຂໍ້ມູນໄດ້ຖືກສ້າງແບບຈໍາລອງໃນຄອມພິວເຕີ້. ລະບົບການຂັບຂີ່ AI ຫຼັງຈາກນັ້ນໃຊ້ຮູບແບບນີ້ເພື່ອຕັດສິນໃຈວ່າເວລາໃດຈະຢຸດຫຼືບໍ່ຢຸດ. ໂດຍທົ່ວໄປແລ້ວ, ແນວຄວາມຄິດແມ່ນວ່າສິ່ງໃດກໍ່ຕາມທີ່ປະເພນີທ້ອງຖິ່ນປະກອບດ້ວຍ, ນີ້ແມ່ນວິທີທີ່ AI ກໍາລັງຊີ້ນໍາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ.

ເພື່ອຄວາມແປກໃຈຂອງຜູ້ນໍາເມືອງແລະຊາວເມືອງ, ເຫັນໄດ້ຊັດເຈນວ່າ AI ໄດ້ເລືອກທີ່ຈະຢຸດຫຼືບໍ່ຢຸດໂດຍອີງໃສ່ຮູບລັກສະນະຂອງຜູ້ຍ່າງທາງ, ລວມທັງເຊື້ອຊາດແລະເພດຂອງພວກເຂົາ. ເຊັນເຊີຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະສະແກນຄົນຍ່າງທາງທີ່ລໍຖ້າ, ປ້ອນຂໍ້ມູນນີ້ເຂົ້າໄປໃນແບບຈໍາລອງ ML/DL, ແລະຕົວແບບຈະປ່ອຍສັນຍານໃຫ້ກັບ AI ວ່າຈະຢຸດ ຫຼື ສືບຕໍ່. ໂສກເສົ້າ, ເມືອງດັ່ງກ່າວມີອະຄະຕິການຂັບຂີ່ຂອງມະນຸດຫຼາຍໃນເລື່ອງນີ້ແລະ AI ກໍາລັງເຮັດແບບດຽວກັນ.

ຂ່າວດີແມ່ນວ່ານີ້ເຮັດໃຫ້ເກີດບັນຫາທີ່ເກືອບບໍ່ມີໃຜຮູ້ກ່ອນຫນ້ານີ້. ຂ່າວບໍ່ດີແມ່ນວ່ານັບຕັ້ງແຕ່ AI ຖືກຈັບໄດ້ເຮັດສິ່ງນີ້, ມັນໄດ້ຖືກຕໍາຫນິຫຼາຍທີ່ສຸດ. ຕົວຢ່າງນີ້ສະແດງໃຫ້ເຫັນເຖິງລະບົບ AI ອາດຈະພຽງແຕ່ຊ້ໍາກັນກັບຄວາມລໍາອຽງທີ່ມີຢູ່ແລ້ວຂອງມະນຸດ.

ສະຫຼຸບ

ມີຫຼາຍວິທີທີ່ຈະພະຍາຍາມ ແລະຫຼີກລ່ຽງການສ້າງ AI ທີ່ອອກນອກປະຕູມີອະຄະຕິທີ່ບໍ່ຂຶ້ນກັບ ຫຼືວ່າມີອະຄະຕິເມື່ອເວລາຜ່ານໄປ. ວິທີການຫນຶ່ງກ່ຽວຂ້ອງກັບການຮັບປະກັນວ່າຜູ້ພັດທະນາ AI ຮັບຮູ້ເຖິງເຫດການນີ້ແລະດັ່ງນັ້ນຈິ່ງເຮັດໃຫ້ພວກເຂົາຢູ່ປາຍຕີນຂອງພວກເຂົາເພື່ອດໍາເນີນໂຄງການ AI ເພື່ອຫລີກລ້ຽງບັນຫາ. ເສັ້ນທາງອື່ນປະກອບດ້ວຍການມີ AI ຕິດຕາມກວດກາຕົນເອງສໍາລັບພຶດຕິກໍາທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການສົນທະນາຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້) ແລະ/ຫຼືມີ AI ອື່ນທີ່ຕິດຕາມລະບົບ AI ອື່ນໆສໍາລັບພຶດຕິກໍາທີ່ອາດບໍ່ມີຈັນຍາບັນ (ຂ້າພະເຈົ້າໄດ້ກວມເອົາເລື່ອງນີ້ຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ເພື່ອສະຫຼຸບຄືນ, ພວກເຮົາຈໍາເປັນຕ້ອງຮັບຮູ້ວ່າມະນຸດສາມາດມີອະຄະຕິທີ່ບໍ່ເຂົ້າໃຈແລະວ່າພວກເຂົາຈໍາເປັນຕ້ອງຮູ້ຂໍ້ຈໍາກັດຂອງເຂົາເຈົ້າ. ເຊັ່ນດຽວກັນ, AI ສາມາດມີອະຄະຕິທີ່ບໍ່ເຂົ້າໃຈ, ແລະພວກເຮົາຈໍາເປັນຕ້ອງຮູ້ຂໍ້ຈໍາກັດຂອງມັນ.

ສຳລັບບັນດາທ່ານທີ່ມັກຖືຫຼັກຈັນຍາບັນຂອງ AI, ຂ້າພະເຈົ້າຂໍຈົບລົງດ້ວຍອີກສາຍໜຶ່ງທີ່ມີຊື່ສຽງທີ່ທຸກຄົນຕ້ອງຮູ້ຢູ່ແລ້ວ. ຄື, ກະລຸນາສືບຕໍ່ນໍາໃຊ້ແລະແບ່ງປັນຄວາມສໍາຄັນຂອງຈັນຍາບັນ AI. ແລະໂດຍການເຮັດເຊັ່ນນັ້ນ, ຂ້ອຍຢາກເວົ້ານີ້ຢ່າງໂຫດຮ້າຍ: "ສືບຕໍ່ເດີນຫນ້າ, ເຮັດໃຫ້ມື້ຂອງຂ້ອຍ."

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/