ຈັນຍາບັນຂອງ AI ດັງຂຶ້ນເປັນສຽງເຕືອນກ່ຽວກັບຄວາມລໍາອຽງຂອງ AI ທີ່ກໍາລັງປະກົດຂຶ້ນໃນຂອບເຂດທົ່ວໂລກ, ໂດຍສະເພາະນໍ້າມັນເຊື້ອໄຟຜ່ານລະບົບປົກຄອງຕົນເອງຢ່າງເຕັມທີ່.

Plato ທີ່ມີຊື່ສຽງກ່າວວ່າການຕັດສິນໃຈທີ່ດີແມ່ນອີງໃສ່ຄວາມຮູ້ແລະບໍ່ແມ່ນຕົວເລກ.

ຄວາມເຂົ້າໃຈທີ່ກະຕືລືລົ້ນນີ້ເບິ່ງຄືວ່າມີຄວາມປະຫຼາດໃຈຫຼາຍກ່ຽວກັບປັນຍາປະດິດ (AI).

ເຈົ້າເຫັນ, ເຖິງວ່າຈະມີຫົວຂໍ້ຂ່າວທີ່ ໜ້າ ງຶດງໍ້ໃນຂະນະນີ້ທີ່ປະກາດວ່າ AI ໄດ້ບັນລຸຄວາມຮູ້ສຶກແລະປະກອບຄວາມຮູ້ແລະເຫດຜົນຂອງມະນຸດ, ກະລຸນາຮັບຊາບວ່າ hyperbole AI ທີ່ເວົ້າເກີນນີ້ແມ່ນການລ່ວງລະເມີດທີ່ຮ້າຍກາດເພາະວ່າພວກເຮົາຍັງອີງໃສ່ຕົວເລກທີ່ຫຍຸ້ງຍາກໃນການຕັດສິນໃຈຂອງ algorithm ຂອງມື້ນີ້ (ADM ) ຕາມ​ການ​ປະ​ຕິ​ບັດ​ໂດຍ​ລະ​ບົບ AI​. ເຖິງແມ່ນວ່າການຮຽນຮູ້ເຄື່ອງຈັກ (ML) ແລະການຮຽນຮູ້ເລິກ (DL) ປະກອບດ້ວຍການຈັບຄູ່ຮູບແບບການຄິດໄລ່, ຊຶ່ງຫມາຍຄວາມວ່າຕົວເລກແມ່ນຍັງເປັນຫຼັກຂອງການໃຊ້ ML / DL ທີ່ສູງສົ່ງ.

ພວກເຮົາບໍ່ຮູ້ວ່າ AI ບັນລຸຄວາມຮູ້ສຶກເປັນໄປໄດ້. ອາດຈະເປັນ, ອາດຈະບໍ່ແມ່ນ. ບໍ່ມີໃຜສາມາດບອກໄດ້ຢ່າງແນ່ນອນວ່າສິ່ງນີ້ອາດຈະເກີດຂື້ນໄດ້ແນວໃດ. ບາງ​ຄົນ​ເຊື່ອ​ວ່າ​ພວກ​ເຮົາ​ຈະ​ປັບ​ປຸງ​ຄວາມ​ພະ​ຍາ​ຍາມ AI ຄອມ​ພິວ​ເຕີ​ຂອງ​ພວກ​ເຮົາ​ເພີ່ມ​ຂຶ້ນ​ເຊັ່ນ​ວ່າ​ຮູບ​ແບບ​ຂອງ​ຄວາມ​ຮູ້​ສຶກ​ຈະ​ເກີດ​ຂຶ້ນ spontaneous​. ຄົນອື່ນຄິດວ່າ AI ອາດຈະເຂົ້າໄປໃນປະເພດຂອງ supernova ຄອມພິວເຕີ້ແລະສາມາດບັນລຸຄວາມຮູ້ສຶກທີ່ຂ້ອນຂ້າງຂື້ນກັບຕົວມັນເອງ (ໂດຍທົ່ວໄປແລ້ວເອີ້ນວ່າຄວາມໂດດດ່ຽວ). ສໍາລັບເພີ່ມເຕີມກ່ຽວກັບທິດສະດີເຫຼົ່ານີ້ກ່ຽວກັບອະນາຄົດຂອງ AI, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ສະນັ້ນ, ບໍ່ຄວນຖືຕົວເຮົາເອງ ແລະເຊື່ອແບບຜິດໆວ່າ AI ສະໄໝປັດຈຸບັນສາມາດຄິດຄືກັບມະນຸດໄດ້. ຂ້າພະເຈົ້າສົມມຸດວ່າຄໍາຖາມດັ່ງກ່າວໄດ້ມາຮອດແຖວຫນ້າກ່ຽວກັບຂໍ້ສັງເກດຂອງ Plato ກ່ຽວກັບວ່າພວກເຮົາສາມາດມີການຕັດສິນໃຈທີ່ດີໂດຍອີງໃສ່ AI ຄອມພິວເຕີ້ແທນທີ່ຈະເປັນ AI ທີ່ມີຄວາມຮູ້ສຶກ. ເຈົ້າອາດຈະປະຫລາດໃຈທີ່ຮູ້ວ່າຂ້ອຍຈະຢືນຢັນວ່າພວກເຮົາສາມາດມີການຕັດສິນໃຈທີ່ດີໂດຍລະບົບ AI ປະຈໍາວັນຢ່າງແທ້ຈິງ.

ອີກດ້ານຫນຶ່ງຂອງຫຼຽນນັ້ນແມ່ນວ່າພວກເຮົາຍັງສາມາດມີລະບົບ AI ປະຈໍາວັນທີ່ເຮັດໃຫ້ການຕັດສິນໃຈທີ່ບໍ່ດີ. ການຕັດສິນໃຈເນົ່າເປື່ອຍ. ການຕັດສິນໃຈທີ່ເຕັມໄປດ້ວຍຄວາມລຳອຽງ ແລະຄວາມບໍ່ສະເໝີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI ສາມາດພົບໄດ້ທີ່ ລິ້ງນີ້ຢູ່ນີ້ ແລະ ລິ້ງນີ້ຢູ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ສໍາລັບເລື່ອງນີ້ໃນການສົນທະນານີ້, ຂ້າພະເຈົ້າຢາກຈະນໍາເອົາລັກສະນະທີ່ຫນ້າເປັນຫ່ວງໂດຍສະເພາະກ່ຽວກັບ AI ທີ່ຜູ້ທີ່ຢູ່ໃນສະຫນາມກິລາຈັນຍາບັນ AI ກໍາລັງຮ້ອງອອກມາຢ່າງຖືກຕ້ອງແລະພະຍາຍາມສ້າງຄວາມຮັບຮູ້ທີ່ເຫມາະສົມກ່ຽວກັບ. ຄວາມຈິງແລ້ວເລື່ອງທີ່ສຸຂຸມ ແລະຄວາມບໍ່ພໍໃຈແມ່ນຂ້ອນຂ້າງກົງໄປກົງມາທີ່ຈະຊີ້ໃຫ້ເຫັນ.

ມັນ​ຢູ່​ນີ້: AI ມີທ່າແຮງໃນໂລກທີ່ແທ້ຈິງຂອງການປະກາດຄວາມລໍາອຽງຂອງ AI ໃນລະດັບໂລກທີ່ຫນ້າຕົກໃຈ.

ແລະເມື່ອຂ້ອຍເວົ້າວ່າ "ໃນລະດັບ" ນີ້ສະແດງໃຫ້ເຫັນເຖິງຂະຫນາດຂະຫນາດໃຫຍ່ໃນທົ່ວໂລກ. ຂະຫນາດ humongous. ຂະຫນາດທີ່ອອກໄປຈາກຂະຫນາດ.

ກ່ອນທີ່ຂ້ອຍຈະລົງເລິກເຖິງວິທີທີ່ການຂະຫຍາຍຄວາມລໍາອຽງຂອງ AI-steeped ນີ້ຈະເກີດຂຶ້ນ, ໃຫ້ແນ່ໃຈວ່າພວກເຮົາທຸກຄົນມີຄວາມຄ້າຍຄືກັນກັບວິທີທີ່ AI ສາມາດລວມເອົາຄວາມລໍາອຽງທີ່ບໍ່ສົມຄວນແລະຄວາມບໍ່ສະເຫມີພາບ. ຈື່ອີກເທື່ອຫນຶ່ງວ່ານີ້ບໍ່ແມ່ນຄວາມຫລາກຫລາຍທີ່ມີຄວາມຮູ້ສຶກ. ນີ້​ແມ່ນ​ທັງ​ຫມົດ​ຂອງ caliber ການ​ຄິດ​ໄລ່​.

ເຈົ້າອາດຈະສັບສົນກັບວິທີທີ່ AI ສາມາດສ້າງອະຄະຕິທາງລົບ ແລະຄວາມບໍ່ສະເໝີພາບອັນດຽວກັນທີ່ມະນຸດເຮັດໄດ້. ພວກເຮົາມີແນວໂນ້ມທີ່ຈະຄິດວ່າ AI ມີຄວາມເປັນກາງທັງຫມົດ, ບໍ່ລໍາອຽງ, ພຽງແຕ່ເປັນເຄື່ອງຈັກທີ່ບໍ່ມີຄວາມຮູ້ສຶກແລະຄວາມຄິດທີ່ບໍ່ດີທີ່ມະນຸດອາດຈະມີ. ຫນຶ່ງໃນວິທີການທົ່ວໄປທີ່ສຸດຂອງ AI ຕົກຢູ່ໃນຄວາມລໍາອຽງແລະຄວາມບໍ່ສະເຫມີພາບ dourness ເກີດຂຶ້ນໃນເວລາທີ່ການນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກແລະການຮຽນຮູ້ເລິກ, ບາງສ່ວນເປັນຜົນມາຈາກການອີງໃສ່ຂໍ້ມູນທີ່ເກັບກໍາກ່ຽວກັບວິທີທີ່ມະນຸດກໍາລັງຕັດສິນໃຈ.

ອະນຸຍາດໃຫ້ຂ້ອຍອະທິບາຍໄດ້ໄລຍະ ໜຶ່ງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງສິ່ງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄຳນວນຂອງການຮຽນຮູ້ເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງ algorithm ຫຼື ADM ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ນີ້ເຮັດໃຫ້ພວກເຮົາກ່ຽວກັບຄວາມລໍາອຽງຂອງ AI-steeped ໃນເວລາທີ່ຢູ່ໃນຂະຫນາດ.

ທໍາອິດ, ໃຫ້ພິຈາລະນາເບິ່ງວ່າຄວາມລໍາອຽງຂອງມະນຸດອາດຈະສ້າງຄວາມບໍ່ສະເຫມີພາບແນວໃດ. ບໍລິສັດທີ່ເຮັດສິນເຊື່ອຈໍານອງຕັດສິນໃຈຈ້າງຕົວແທນເງິນກູ້ຈໍານອງ. ຕົວແທນແມ່ນຄວນຈະທົບທວນຄືນຄໍາຮ້ອງຂໍຈາກຜູ້ບໍລິໂພກທີ່ຕ້ອງການກູ້ຢືມເຮືອນ. ຫຼັງ​ຈາກ​ການ​ປະ​ເມີນ​ໃບ​ຄໍາ​ຮ້ອງ​ສະ​ຫມັກ​, ຕົວ​ແທນ​ເຮັດ​ໃຫ້​ການ​ຕັດ​ສິນ​ໃຈ​ທີ່​ຈະ​ໃຫ້​ການ​ກູ້​ຢືມ​ເງິນ​ຫຼື​ປະ​ຕິ​ເສດ​ການ​ກູ້​ຢືມ​ເງິນ​. ງ່າຍ-peasy.

ສໍາລັບ sake ຂອງການສົນທະນາ, ໃຫ້ພວກເຮົາຈິນຕະນາການວ່າຕົວແທນເງິນກູ້ຂອງມະນຸດສາມາດວິເຄາະເງິນກູ້ 8 ຕໍ່ມື້, ໃຊ້ເວລາປະມານຫນຶ່ງຊົ່ວໂມງຕໍ່ການທົບທວນຄືນ. ໃນອາທິດເຮັດວຽກຫ້າມື້, ຕົວແທນເຮັດປະມານ 40 ການທົບທວນຄືນເງິນກູ້. ບົນພື້ນຖານປະຈໍາປີ, ຕົວແທນປົກກະຕິເຮັດປະມານ 2,000 ການທົບທວນຄືນເງິນກູ້, ໃຫ້ຫຼືໃຊ້ເວລາເລັກນ້ອຍ.

ບໍລິສັດຕ້ອງການເພີ່ມປະລິມານການທົບທວນເງິນກູ້ຂອງຕົນ, ດັ່ງນັ້ນບໍລິສັດຈຶ່ງຈ້າງຕົວແທນເງິນກູ້ຕື່ມອີກ 100 ຄົນ. ໃຫ້ສົມມຸດວ່າພວກເຂົາທັງຫມົດມີຜົນຜະລິດດຽວກັນແລະນີ້ຫມາຍຄວາມວ່າພວກເຮົາສາມາດຈັດການກັບເງິນກູ້ປະມານ 200,000 ຕໍ່ປີ (ໃນອັດຕາ 2,000 ການທົບທວນຄືນເງິນກູ້ຕໍ່ປີຕໍ່ຕົວແທນ). ມັນເບິ່ງຄືວ່າພວກເຮົາໄດ້ເລັ່ງລັດການປະມວນຜົນການຮ້ອງຂໍເງິນກູ້ຂອງພວກເຮົາ.

ປະກົດວ່າບໍລິສັດສ້າງລະບົບ AI ທີ່ສາມາດເຮັດການທົບທວນເງິນກູ້ຄືກັນກັບຕົວແທນຂອງມະນຸດ. AI ກໍາລັງເຮັດວຽກຢູ່ໃນເຄື່ອງແມ່ຂ່າຍຄອມພິວເຕີຢູ່ໃນຄລາວ. ຜ່ານພື້ນຖານໂຄງລ່າງຄລາວ, ບໍລິສັດສາມາດເພີ່ມພະລັງງານຄອມພິວເຕີເພີ່ມເຕີມເພື່ອຮອງຮັບປະລິມານການທົບທວນເງິນກູ້ທີ່ອາດຈະຕ້ອງການ.

ດ້ວຍການຕັ້ງຄ່າ AI ທີ່ມີຢູ່ແລ້ວ, ພວກເຂົາສາມາດເຮັດ 1,000 ການທົບທວນຄືນເງິນກູ້ຕໍ່ຊົ່ວໂມງ. ນີ້ຍັງສາມາດເກີດຂຶ້ນໄດ້ 24 × 7. ບໍ່ມີເວລາພັກຜ່ອນທີ່ຕ້ອງການສໍາລັບ AI. ບໍ່ມີການພັກຜ່ອນອາຫານທ່ຽງ. AI ເຮັດວຽກໄດ້ຕະຫຼອດໂມງໂດຍບໍ່ມີການ squawking ກ່ຽວກັບການເຮັດວຽກຫຼາຍເກີນໄປ. ພວກ​ເຮົາ​ຈະ​ເວົ້າ​ວ່າ​ໃນ​ຈັງ​ຫວະ​ປະ​ມານ​ນັ້ນ, AI ສາ​ມາດ​ປະ​ມວນ​ຜົນ​ເກືອບ 9 ລ້ານ​ຄໍາ​ຮ້ອງ​ສະ​ຫມັກ​ກູ້​ຢືມ​ເງິນ​ຕໍ່​ປີ.

ສັງເກດເຫັນວ່າພວກເຮົາໄປຈາກການມີ 100 ຕົວແທນຂອງມະນຸດທີ່ສາມາດເຮັດ 200,000 ເງິນກູ້ຕໍ່ປີແລະ jumped ຫຼາຍເທື່ອກັບຈໍານວນທີ່ເພີ່ມຂຶ້ນຫຼາຍຂອງ 9 ລ້ານການທົບທວນຄືນຕໍ່ປີຜ່ານລະບົບ AI. ພວກເຮົາໄດ້ຂະຫຍາຍການປະມວນຜົນການຮ້ອງຂໍເງິນກູ້ຂອງພວກເຮົາຢ່າງຫຼວງຫຼາຍ. ບໍ່ມີຄວາມສົງໃສກ່ຽວກັບມັນ.

ກຽມພ້ອມສໍາລັບ kicker ທີ່ອາດຈະເຮັດໃຫ້ທ່ານຕົກຈາກເກົ້າອີ້ຂອງທ່ານ.

ສົມມຸດວ່າບາງຕົວແທນຂອງມະນຸດຂອງພວກເຮົາກໍາລັງຕັດສິນໃຈເງິນກູ້ຂອງເຂົາເຈົ້າໂດຍອີງໃສ່ຄວາມລໍາອຽງທີ່ບໍ່ມີຄວາມລໍາອຽງ. ບາງ​ທີ​ບາງ​ຄົນ​ແມ່ນ​ໃຫ້​ປັດ​ໄຈ​ເຊື້ອ​ຊາດ​ເປັນ​ບົດ​ບາດ​ສໍາ​ຄັນ​ໃນ​ການ​ຕັດ​ສິນ​ໃຈ​ເງິນ​ກູ້. ບາງທີບາງຄົນກໍາລັງໃຊ້ເພດ. ຄົນອື່ນກໍາລັງໃຊ້ອາຍຸ. ແລະອື່ນໆ.

ຂອງການທົບທວນເງິນກູ້ປະຈໍາປີ 200,000, ມີຈໍານວນເທົ່າໃດທີ່ຖືກປະຕິບັດພາຍໃຕ້ການເບິ່ງທີ່ຜິດພາດຂອງຄວາມລໍາອຽງທາງລົບແລະຄວາມບໍ່ສະເຫມີພາບ? ບາງທີ 10% ເຊິ່ງແມ່ນປະມານ 20,000 ຂອງການຮ້ອງຂໍເງິນກູ້. ຮ້າຍແຮງໄປກວ່ານັ້ນ, ສົມມຸດວ່າມັນເປັນ 50% ຂອງການຮ້ອງຂໍເງິນກູ້, ໃນກໍລະນີນີ້ມີ 100,000 ກໍລະນີປະຈໍາປີຂອງການຕັດສິນໃຈກູ້ຢືມທີ່ຜິດພາດ.

ນັ້ນບໍ່ດີ. ແຕ່ພວກເຮົາຍັງບໍ່ທັນໄດ້ພິຈາລະນາຄວາມເປັນໄປໄດ້ທີ່ຫນ້າຢ້ານກົວຫຼາຍກວ່າເກົ່າ.

ສົມມຸດວ່າ AI ມີອະຄະຕິທີ່ເຊື່ອງໄວ້ເຊິ່ງປະກອບດ້ວຍປັດໃຈເຊັ່ນ: ເຊື້ອຊາດ, ເພດ, ອາຍຸ, ແລະອື່ນໆ. ຖ້າ 10% ຂອງການວິເຄາະເງິນກູ້ປະຈໍາປີແມ່ນຂຶ້ນກັບຄວາມບໍ່ສະບາຍນີ້, ພວກເຮົາມີ 900,000 ຄໍາຮ້ອງຂໍເງິນກູ້ທີ່ຖືກຈັດການທີ່ບໍ່ຖືກຕ້ອງ. ນັ້ນແມ່ນຫຼາຍກ່ວາສິ່ງທີ່ຕົວແທນຂອງມະນຸດສາມາດເຮັດໄດ້, ຕົ້ນຕໍແມ່ນຍ້ອນລັກສະນະປະລິມານ. ຕົວແທນ 100 ເຫຼົ່ານັ້ນຖ້າທັງຫມົດກໍາລັງດໍາເນີນການທົບທວນທີ່ບໍ່ສະເຫມີພາບທີ່ສຸດສາມາດເຮັດໄດ້ໃນ 200,000 ການທົບທວນຄືນເງິນກູ້ປະຈໍາປີ. AI ສາມາດເຮັດເຊັ່ນດຽວກັນໃນຂະຫນາດໃຫຍ່ຫຼາຍຂອງ 9,000,000 ການທົບທວນຄືນປະຈໍາປີ.

ຍຳ!

ນີ້ແມ່ນຄວາມລຳອຽງຂອງ AI ຢ່າງແທ້ຈິງໃນລະດັບທີ່ໃຫຍ່ຫຼວງ.

ເມື່ອຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັນຖືກຝັງຢູ່ໃນລະບົບ AI, ການປັບຂະ ໜາດ ດຽວກັນທີ່ເບິ່ງຄືວ່າໄດ້ປຽບໃນປັດຈຸບັນແມ່ນຫັນ ໜ້າ ຂອງມັນແລະກາຍເປັນຜົນການຂະ ໜາດ ທີ່ຫຼອກລວງຢ່າງໃຫຍ່ຫຼວງ (ແລະລົບກວນ). ໃນອີກດ້ານຫນຶ່ງ, AI ສາມາດໄດ້ຮັບຜົນປະໂຫຍດເພື່ອຈັດການປະຊາຊົນທີ່ກໍາລັງຮ້ອງຂໍເງິນກູ້ບ້ານຫຼາຍຂຶ້ນ. ຢູ່ເທິງພື້ນຜິວ, ມັນເບິ່ງຄືວ່າເປັນຕາຢ້ານ AI ສໍາລັບທີ່ດີ. ພວກເຮົາຄວນຈະ pat ຕົວເຮົາເອງຢູ່ດ້ານຫລັງສໍາລັບການສົມມຸດວ່າຂະຫຍາຍໂອກາດຂອງມະນຸດໄດ້ຮັບເງິນກູ້ທີ່ຈໍາເປັນ. ໃນ​ຂະ​ນະ​ດຽວ​ກັນ, ຖ້າ AI ໄດ້ຝັງຄວາມລໍາອຽງ, ການປັບຂະຫນາດຈະເປັນຜົນເສຍຫາຍຢ່າງໃຫຍ່ຫຼວງແລະພວກເຮົາພົບວ່າຕົນເອງມີຄວາມເສົ້າສະຫລົດໃຈ. AI ສໍາລັບບໍ່ດີ, ໃນລະດັບຂະຫນາດໃຫຍ່ແທ້ໆ.

ສຸພາສິດ ດາບສອງຄົມ.

AI ສາມາດເພີ່ມການເຂົ້າເຖິງການຕັດສິນໃຈສໍາລັບຜູ້ທີ່ກໍາລັງຊອກຫາບໍລິການແລະຜະລິດຕະພັນທີ່ຕ້ອງການ. ບໍ່ມີຂໍ້ຈຳກັດດ້ານແຮງງານຂອງມະນຸດອີກຕໍ່ໄປ. ໂດດເດັ່ນ! ອີກດ້ານຫນຶ່ງຂອງດາບແມ່ນວ່າຖ້າ AI ປະກອບດ້ວຍຄວາມບໍ່ດີເຊັ່ນຄວາມບໍ່ສະເຫມີພາບທີ່ເຊື່ອງໄວ້, ຂະຫນາດຂະຫນາດໃຫຍ່ດຽວກັນຈະປະກາດການປະພຶດທີ່ບໍ່ດີນັ້ນໃນລະດັບທີ່ບໍ່ສາມາດຄາດເດົາໄດ້. ຮ້າຍກາດ, ຜິດ, ອັບອາຍ, ແລະພວກເຮົາບໍ່ສາມາດປ່ອຍໃຫ້ສັງຄົມຕົກຢູ່ໃນເຫວທີ່ຂີ້ຮ້າຍແບບນີ້.

ໃຜກໍ່ຕາມທີ່ສັບສົນວ່າເປັນຫຍັງພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ເອົາໃຈໃສ່ເຖິງຄວາມສໍາຄັນຂອງຈັນຍາບັນ AI ຄວນຈະຮູ້ວ່າປະກົດການຂະຫນາດ AI ເປັນເຫດຜົນທີ່ສໍາຄັນສໍາລັບການປະຕິບັດຕາມຈັນຍາບັນ AI. ຂໍເວລາພິຈາລະນາສັ້ນໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI ຫຼັກບາງຢ່າງເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນເປັນຈຸດສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດອາຊີບ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະການກວດສອບ, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະທີ່ຕິດພັນກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍຕາມ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດໄລຍະການພັດທະນາ ແລະການນຳໃຊ້ AI ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ກະ​ລຸ​ນາ​ຮັບ​ຮູ້​ວ່າ​ມັນ​ໃຊ້​ເວ​ລາ​ບ້ານ​ເພື່ອ​ສ້າງ​ແລະ​ພາກ​ສະ​ຫນາມ AI​. ​ເພື່ອ​ໃຫ້​ທົ່ວ​ບ້ານ​ຕ້ອງ​ຮັກສາ​ຈັນຍາ​ບັນ AI.

AI-Steeped Biasing Scaling ເຮັດວຽກແນວໃດ

ຕອນນີ້ຂ້ອຍໄດ້ເຂົ້າໄປໃນຕາຕະລາງທີ່ AI ສາມາດບັນຈຸຄວາມລໍາອຽງ, ພວກເຮົາພ້ອມທີ່ຈະກວດສອບບາງເຫດຜົນວ່າເປັນຫຍັງ AI scaling ແມ່ນ intrusive ຫຼາຍ.

ພິຈາລະນາບັນຊີລາຍຊື່ສໍາຄັນຂອງສິບເຫດຜົນພື້ນຖານ:

  1. replicated ໄດ້ຢ່າງງ່າຍດາຍ
  2. ຄ່າ​ໃຊ້​ຈ່າຍ​ຕໍາ​່​ສຸດ​ທີ່​ເພື່ອ​ຂະ​ຫຍາຍ​
  3. ສອດຄ່ອງກັນຢ່າງໜ້າກຽດຊັງ
  4. ຂາດການສະທ້ອນຕົນເອງ
  5. ການເຊື່ອຟັງທີ່ຕາບອດ
  6. ບໍ່ໄດ້ປາຍມືຂອງມັນ
  7. ຜູ້ຮັບບໍ່ສົງໃສ
  8. ແນວໂນ້ມທີ່ຈະບໍ່ກະຕຸ້ນການກະຕຸ້ນ
  9. ກິ່ນອາຍຂອງຄວາມຍຸດຕິ ທຳ ທີ່ບໍ່ຖືກຕ້ອງ
  10. ຍາກທີ່ຈະປະຕິເສດ

ຂ້ອຍຈະສຳຫຼວດແຕ່ລະຈຸດສຳຄັນເຫຼົ່ານັ້ນໂດຍຫຍໍ້.

ເມື່ອທ່ານພະຍາຍາມຂະຫຍາຍແຮງງານຂອງມະນຸດ, ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າການເຮັດດັ່ງນັ້ນຈະສັບສົນຫຼາຍ. ເຈົ້າຕ້ອງຊອກຫາ ແລະຈ້າງຄົນ. ທ່ານຕ້ອງຝຶກອົບຮົມໃຫ້ເຂົາເຈົ້າເຮັດວຽກ. ທ່ານຕ້ອງຈ່າຍໃຫ້ເຂົາເຈົ້າແລະຄໍານຶງເຖິງຄວາມຕ້ອງການແລະຄວາມຕ້ອງການຂອງມະນຸດ. ປຽບທຽບນີ້ກັບລະບົບ AI. ທ່ານພັດທະນາມັນແລະເຮັດໃຫ້ມັນເຂົ້າໄປໃນການນໍາໃຊ້. ນອກເໜືອໄປຈາກການຮັກສາ AI ຢ່າງຕໍ່ເນື່ອງຈຳນວນໜຶ່ງ, ທ່ານສາມາດນັ່ງກັບຄືນ ແລະປ່ອຍໃຫ້ມັນດຳເນີນໄປຢ່າງບໍ່ຢຸດຢັ້ງ.

ນີ້ຫມາຍຄວາມວ່າ AI ຖືກຈໍາລອງໄດ້ຢ່າງງ່າຍດາຍ. ທ່ານ​ສາ​ມາດ​ເພີ່ມ​ພະ​ລັງ​ງານ​ຄອມ​ພິວ​ເຕີ​ຫຼາຍ​ຕາມ​ທີ່​ຫນ້າ​ວຽກ​ແລະ​ປະ​ລິ​ມານ​ທີ່​ອາດ​ຈະ​ຕ້ອງ​ການ (ທ່ານ​ບໍ່​ໄດ້​ວ່າ​ຈ້າງ​ຫຼື​ການ​ຍິງ​)​. ການ​ນໍາ​ໃຊ້​ທົ່ວ​ໂລກ​ແມ່ນ​ເຮັດ​ໄດ້​ດ້ວຍ​ການ​ກົດ​ປຸ່ມ​ແລະ​ບັນ​ລຸ​ໄດ້​ໂດຍ​ການ​ມີ​ຢູ່​ໃນ​ທົ່ວ​ໂລກ​ຂອງ​ອິນ​ເຕີ​ເນັດ​. ການຂະຫຍາຍໃຫຍ່ຂື້ນແມ່ນຄ່າໃຊ້ຈ່າຍ ໜ້ອຍ ທີ່ສຸດເມື່ອປຽບທຽບກັບການເຮັດເຊັ່ນດຽວກັນກັບແຮງງານຂອງມະນຸດ.

ແຮງງານຂອງມະນຸດແມ່ນບໍ່ສອດຄ່ອງກັນທີ່ມີຊື່ສຽງ. ເມື່ອທ່ານມີທີມໃຫຍ່, ທ່ານມີກ່ອງຊັອກໂກແລັດທີ່ແນ່ນອນວ່າເຈົ້າບໍ່ເຄີຍຮູ້ວ່າເຈົ້າອາດມີຫຍັງຢູ່ໃນມືຂອງເຈົ້າ. ລະບົບ AI ມີແນວໂນ້ມທີ່ຈະສອດຄ່ອງສູງ. ມັນເຮັດກິດຈະກຳອັນດຽວກັນຊ້ຳແລ້ວຊ້ຳອີກ, ແຕ່ລະຄັ້ງທີ່ສຳຄັນຄືຄັ້ງສຸດທ້າຍ.

ໂດຍປົກກະຕິ, ພວກເຮົາຈະມັກຄວາມສອດຄ່ອງຂອງ AI. ຖ້າມະນຸດມັກມີອະຄະຕິ, ພວກເຮົາຈະມີບາງສ່ວນຂອງແຮງງານຂອງມະນຸດທີ່ຫຼົງທາງຢູ່ສະເໝີ. AI, ຖ້າບໍ່ມີຄວາມລໍາອຽງຢ່າງແທ້ຈິງໃນຄວາມພະຍາຍາມໃນການກໍ່ສ້າງແລະຄອມພິວເຕີ້, ມັນຈະມີຄວາມສອດຄ່ອງຫຼາຍກວ່າເກົ່າ. ບັນຫາແມ່ນວ່າຖ້າ AI ມີອະຄະຕິທີ່ເຊື່ອງໄວ້, ຄວາມສອດຄ່ອງໃນປັດຈຸບັນແມ່ນເປັນຕາກຽດຊັງ. ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າພຶດຕິກໍາທີ່ລໍາອຽງຈະຖືກປະຕິບັດຢ່າງຕໍ່ເນື່ອງ, ເລື້ອຍໆ.

ມະນຸດຈະມີຄວາມຫວັງວ່າຈະມີການສະທ້ອນຕົນເອງບາງສ່ວນ ແລະອາດຈະຈັບຕົວຕົນເອງໃນການຕັດສິນໃຈທີ່ມີອະຄະຕິ. ຂ້າພະເຈົ້າບໍ່ໄດ້ເວົ້າວ່າທຸກຄົນຈະເຮັດແນວນັ້ນ. ຂ້າ​ພະ​ເຈົ້າ​ຍັງ​ບໍ່​ໄດ້​ເວົ້າ​ວ່າ​ຜູ້​ທີ່​ຈັບ​ຕົວ​ເອງ​ຈະ​ຈໍາ​ເປັນ​ຕ້ອງ​ແກ້​ໄຂ​ຄວາມ​ຜິດ​ພາດ​ຂອງ​ເຂົາ​ເຈົ້າ. ໃນກໍລະນີໃດກໍ່ຕາມ, ບາງຄັ້ງມະນຸດບາງຄົນອາດຈະແກ້ໄຂຕົວເອງ.

AI ອາດຈະບໍ່ມີຮູບແບບຂອງການສະທ້ອນຕົນເອງຈາກການຄິດໄລ່. ນີ້ຫມາຍຄວາມວ່າ AI ພຽງແຕ່ສືບຕໍ່ເຮັດສິ່ງທີ່ມັນກໍາລັງເຮັດ. ເບິ່ງຄືວ່າຈະບໍ່ມີໂອກາດທີ່ AI ກວດພົບວ່າມັນ ກຳ ລັງແລ່ນໄປສູ່ຄວາມທ່ຽງ ທຳ. ທີ່ຖືກເວົ້າ, ຂ້າພະເຈົ້າໄດ້ອະທິບາຍຄວາມພະຍາຍາມບາງຢ່າງເພື່ອຈັດການກັບສິ່ງນີ້, ເຊັ່ນ: ການສ້າງອົງປະກອບດ້ານຈັນຍາບັນຂອງ AI ພາຍໃນ AI (ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້) ແລະວາງແຜນ AI ທີ່ຕິດຕາມ AI ອື່ນໆເພື່ອແນມເບິ່ງກິດຈະກໍາ AI ທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ການຂາດການສະທ້ອນຕົນເອງໃດໆ, AI ຍັງມີແນວໂນ້ມທີ່ຈະມີການເຊື່ອຟັງທີ່ຕາບອດຢ່າງສໍາຄັນຕໍ່ສິ່ງໃດກໍ່ຕາມທີ່ມັນຖືກແນະນໍາໃຫ້ເຮັດ. ມະນຸດອາດຈະບໍ່ເຊື່ອຟັງຫຼາຍ. ມີໂອກາດທີ່ມະນຸດບາງຄົນທີ່ກຳລັງເຮັດໜ້າທີ່ໃດໜຶ່ງຈະຕັ້ງຄຳຖາມວ່າເຂົາເຈົ້າອາດຈະຖືກນຳໄປສູ່ເຂດທີ່ບໍ່ສະເໝີພາບຫຼືບໍ່. ພວກເຂົາເຈົ້າມີແນວໂນ້ມທີ່ຈະປະຕິເສດຄໍາສັ່ງທີ່ບໍ່ມີຈັນຍາບັນຫຼືບາງທີອາດຈະໄປເສັ້ນທາງຜູ້ແຈ້ງຂ່າວ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້). ຢ່າຄາດຫວັງວ່າ AI ຍຸກປະຈຸບັນປະຈໍາວັນຈະຕັ້ງຄໍາຖາມກ່ຽວກັບການຂຽນໂປຼແກຼມຂອງມັນ.

ຕໍ່ໄປພວກເຮົາຈະຫັນໄປຫາຜູ້ທີ່ໃຊ້ AI. ຖ້າເຈົ້າຊອກຫາເງິນກູ້ບ້ານ ແລະລົມກັບມະນຸດ, ເຈົ້າອາດຈະເຕືອນເຈົ້າວ່າ ມະນຸດກຳລັງໃຫ້ຄວາມສັ່ນສະເທືອນຂອງເຈົ້າຫຼືບໍ່. ເມື່ອໃຊ້ລະບົບ AI, ຄົນສ່ວນໃຫຍ່ເບິ່ງຄືວ່າມີຄວາມສົງໃສຫນ້ອຍ. ພວກເຂົາເຈົ້າມັກຈະສົມມຸດວ່າ AI ແມ່ນຍຸດຕິທໍາແລະ ergo ບໍ່ໄດ້ຮັບການ riled ຢ່າງໄວວາ. AI ປາກົດຂຶ້ນເພື່ອລໍ້ຄົນເຂົ້າໄປໃນ "ມັນເປັນພຽງແຕ່ເຄື່ອງຈັກ" trance. ຢູ່ເທິງສຸດນີ້, ມັນສາມາດຍາກທີ່ຈະພະຍາຍາມແລະປະທ້ວງ AI. ໃນທາງກົງກັນຂ້າມ, ການປະທ້ວງວິທີທີ່ທ່ານຖືກປະຕິບັດໂດຍຕົວແທນຂອງມະນຸດແມ່ນງ່າຍຂຶ້ນຫຼາຍແລະໄດ້ຮັບການຍອມຮັບໂດຍທົ່ວໄປແລະຖືວ່າເປັນໄປໄດ້.

ທັງຫມົດທີ່ບອກແລ້ວ, AI ທີ່ມີຄວາມລໍາອຽງມີຄວາມລໍາອຽງມີຄວາມຫນ້າກຽດຕໍ່ມະນຸດທີ່ມີຄວາມລໍາອຽງ, ຄືໃນແງ່ຂອງຄວາມສາມາດໃນການໃຫ້ AI ນໍາໃຊ້ຄວາມລໍາອຽງເຫຼົ່ານັ້ນໃນລະດັບຂະຫນາດໃຫຍ່, ດໍາເນີນການໂດຍບໍ່ມີການຈັບຫຼືມີຜູ້ບໍລິໂພກ. ຮັບຮູ້ສິ່ງທີ່ຖືກລົບກວນເກີດຂຶ້ນ.

ໃນຈຸດເຊື່ອມຕໍ່ຂອງການສົນທະນານີ້, ຂ້າພະເຈົ້າຂໍວາງເດີມພັນວ່າທ່ານຕ້ອງການຕົວຢ່າງເພີ່ມເຕີມບາງຢ່າງທີ່ອາດຈະສະແດງໃຫ້ເຫັນເຖິງຄວາມຂັດແຍ້ງຂອງຄວາມລໍາອຽງຂອງ AI ໃນລະດັບສູງ.

ຂ້ອຍດີໃຈທີ່ເຈົ້າຖາມ.

ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດອັນໜຶ່ງກ່ຽວກັບຄວາມລຳອຽງຂອງ AI ໃນລະດັບສູງ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນຫຍັງ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນການຊີ້ແຈງ, ລົດທີ່ຂັບຂີ່ດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນສິ່ງທີ່ AI ຂັບຂີ່ລົດທັງ ໝົດ ດ້ວຍຕົນເອງແລະບໍ່ມີການຊ່ວຍເຫຼືອໃດໆຂອງມະນຸດໃນເວລາເຮັດວຽກຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງບໍ່ທັນມີລົດທີ່ຂັບດ້ວຍຕົນເອງທີ່ແທ້ຈິງໃນລະດັບ 5, ເຊິ່ງພວກເຮົາຍັງບໍ່ຮູ້ວ່າມັນຈະເປັນໄປໄດ້ບໍ່ທີ່ຈະບັນລຸໄດ້, ແລະມັນຈະໃຊ້ເວລາດົນປານໃດເພື່ອຈະໄປເຖິງ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI Biass ໃນຂະຫນາດ

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.

ດຽວນີ້ພວກເຮົາເລີ່ມຕົ້ນທີ່ຈະລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະຄວາມເປັນໄປໄດ້ຂອງ AI ດ້ານຈັນຍາບັນທີ່ປະກອບດ້ວຍການຂຸດຄົ້ນຄວາມລໍາອຽງຂອງ AI ທີ່ຖືກປະກາດໃນຂອບເຂດຂະຫນາດໃຫຍ່.

ໃຫ້ເຮົາໃຊ້ຕົວຢ່າງທີ່ກົງໄປກົງມາ. ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ກໍາລັງແລ່ນຢູ່ໃນຖະໜົນໃກ້ບ້ານຂອງເຈົ້າ ແລະເບິ່ງຄືວ່າຈະຂັບຂີ່ຢ່າງປອດໄພ. ໃນຕອນທໍາອິດ, ທ່ານໄດ້ເອົາໃຈໃສ່ເປັນພິເສດໃນແຕ່ລະຄັ້ງທີ່ເຈົ້າສາມາດແນມເບິ່ງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍານພາຫະນະທີ່ປົກຄອງຕົນເອງໄດ້ຢືນຢູ່ຂ້າງນອກດ້ວຍເຊັນເຊີເອເລັກໂຕຣນິກທີ່ປະກອບມີກ້ອງຖ່າຍຮູບວິດີໂອ, ຫນ່ວຍ radar, ອຸປະກອນ LIDAR, ແລະອື່ນໆ. ຫຼັງ​ຈາກ​ຫຼາຍ​ອາ​ທິດ​ຂອງ​ລົດ​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ລ່ອງ​ເຮືອ​ໃນ​ທົ່ວ​ຊຸມ​ຊົນ​ຂອງ​ທ່ານ​, ໃນ​ປັດ​ຈຸ​ບັນ​ທ່ານ​ເກືອບ​ບໍ່​ໄດ້​ສັງ​ເກດ​ເຫັນ​ມັນ​. ຕາມທີ່ເຈົ້າເປັນຫ່ວງ, ມັນເປັນພຽງແຕ່ລົດອີກຄັນໜຶ່ງທີ່ຢູ່ເທິງຖະໜົນຫົນທາງສາທາລະນະທີ່ຫຍຸ້ງຢູ່ແລ້ວ.

ຢ້ານວ່າເຈົ້າຄິດວ່າມັນເປັນໄປບໍ່ໄດ້ ຫຼື ໄຮ້ເຫດຜົນທີ່ຈະຄຸ້ນເຄີຍກັບການເຫັນລົດຂັບລົດຕົນເອງ, ຂ້ອຍໄດ້ຂຽນເລື້ອຍໆກ່ຽວກັບວ່າທ້ອງຖິ່ນທີ່ຢູ່ໃນຂອບເຂດຂອງການທົດລອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ຄ່ອຍໆຄຸ້ນເຄີຍກັບການເຫັນລົດຍົນທີ່ໂດດເດັ່ນແນວໃດ, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້. ໃນທີ່ສຸດຄົນທ້ອງຖິ່ນຫຼາຍຄົນໄດ້ປ່ຽນຈາກປາກເປົ່າແກວ່ງປາກເປັນສຽງດັງ ກາຍເປັນຄວາມເບື່ອໜ່າຍອັນກວ້າງໃຫຍ່ໄພສານ ເພື່ອເປັນພະຍານເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ລ້ຽວນັ້ນ.

ອາດ​ຈະ​ເປັນ​ເຫດ​ຜົນ​ຕົ້ນ​ຕໍ​ໃນ​ປັດ​ຈຸ​ບັນ​ທີ່​ເຂົາ​ເຈົ້າ​ອາດ​ຈະ​ສັງ​ເກດ​ເຫັນ​ຍານ​ພາ​ຫະ​ນະ​ອັດ​ຕະ​ໂນ​ມັດ​ແມ່ນ​ຍ້ອນ​ວ່າ​ປັດ​ໄຈ​ລະ​ຄາຍ​ເຄືອງ​ແລະ exasperation ໄດ້​. ລະບົບການຂັບຂີ່ AI ທີ່ເຮັດມາຈາກປື້ມບັນທຶກໃຫ້ແນ່ໃຈວ່າລົດໄດ້ປະຕິບັດຕາມການຈໍາກັດຄວາມໄວທັງຫມົດແລະກົດລະບຽບຂອງຖະຫນົນ. ສໍາລັບຄົນຂັບລົດທີ່ວຸ້ນວາຍຢູ່ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດແບບດັ້ງເດີມ, ເຈົ້າຮູ້ສຶກຕົກໃຈໃນບາງຄັ້ງເມື່ອຕິດຢູ່ຫຼັງລົດທີ່ຂັບເອງຕາມກົດໝາຍ AI ຢ່າງເຂັ້ມງວດ.

ນັ້ນ​ແມ່ນ​ບາງ​ສິ່ງ​ບາງ​ຢ່າງ​ທີ່​ພວກ​ເຮົາ​ທຸກ​ຄົນ​ອາດ​ຈະ​ຕ້ອງ​ເຮັດ​ໃຫ້​ເຄຍ​ຊີນ, ຖືກ​ຕ້ອງ​ຫຼື​ຜິດ.

ກັບຄືນໄປບ່ອນ tale ຂອງພວກເຮົາ.

ປະກົດວ່າມີສອງຄວາມກັງວົນທີ່ເບິ່ງບໍ່ເປັນຄືເລີ່ມເກີດຂຶ້ນກ່ຽວກັບລົດທີ່ຂັບເອງໄດ້ແບບ AI ໂດຍທົ່ວໄປແລ້ວທີ່ບໍ່ມີຄວາມຜິດ ແລະໄດ້ຮັບການຕ້ອນຮັບໂດຍທົ່ວໄປ, ໂດຍສະເພາະ:

ກ. ບ່ອນທີ່ AI ກໍາລັງແລ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເພື່ອຮັບການຂັບຂີ່ໄດ້ປະກົດຂຶ້ນເປັນຄວາມກັງວົນໃຈ

ຂ. ວິທີການທີ່ AI ກໍາລັງປະຕິບັດຕໍ່ຜູ້ຍ່າງທາງທີ່ລໍຄອຍທີ່ບໍ່ມີທາງຂວາໄດ້ເພີ່ມຂຶ້ນເປັນບັນຫາທີ່ຮີບດ່ວນ.

ໃນຕອນທໍາອິດ, AI ໄດ້ roaming ລົດຂັບລົດດ້ວຍຕົນເອງໃນທົ່ວເມືອງທັງຫມົດ. ໃຜກໍ່ຕາມທີ່ຕ້ອງການທີ່ຈະຮ້ອງຂໍການຂັບເຄື່ອນໃນລົດທີ່ຂັບລົດຕົນເອງໄດ້ມີໂອກາດເທົ່າທຽມກັນທີ່ຈະຊົມເຊີຍຫນຶ່ງ. ຄ່ອຍໆ, AI ໄດ້ເລີ່ມຕົ້ນທີ່ຈະຮັກສາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເປັນຕົ້ນຕໍ roaming ຢູ່ໃນພຽງແຕ່ຫນຶ່ງພາກສ່ວນຂອງຕົວເມືອງ. ພາກນີ້ແມ່ນຜູ້ສ້າງເງິນຫຼາຍກວ່າເກົ່າແລະລະບົບ AI ໄດ້ຖືກດໍາເນີນໂຄງການເພື່ອພະຍາຍາມແລະສ້າງລາຍໄດ້ສູງສຸດເປັນສ່ວນຫນຶ່ງຂອງການນໍາໃຊ້ໃນຊຸມຊົນ.

ສະມາຊິກຊຸມຊົນໃນເຂດທີ່ທຸກຍາກຂອງຕົວເມືອງມີແນວໂນ້ມຫນ້ອຍທີ່ຈະສາມາດຂີ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້. ອັນນີ້ແມ່ນຍ້ອນວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ຢູ່ໄກອອກໄປ ແລະ roaming ໃນພາກສ່ວນລາຍຮັບທີ່ສູງຂຶ້ນຂອງທ້ອງຖິ່ນ. ເມື່ອຄໍາຮ້ອງຂໍເຂົ້າມາຈາກເຂດຫ່າງໄກຂອງຕົວເມືອງ, ການຮ້ອງຂໍໃດໆຈາກສະຖານທີ່ໃກ້ຊິດທີ່ມີແນວໂນ້ມໃນສ່ວນ "ເປັນທີ່ເຄົາລົບ" ຂອງເມືອງຈະໄດ້ຮັບຄວາມສໍາຄັນສູງກວ່າ. ໃນທີ່ສຸດ, ການມີລົດຂັບລົດດ້ວຍຕົນເອງຢູ່ບ່ອນໃດບ່ອນໜຶ່ງນອກເໜືອໄປຈາກເຂດທີ່ອຸດົມສົມບູນຂອງເມືອງແມ່ນເກືອບເປັນໄປບໍ່ໄດ້, ເປັນສິ່ງທີ່ໜ້າຕື່ນເຕັ້ນຫຼາຍສຳລັບຜູ້ທີ່ອາໄສຢູ່ໃນເຂດທີ່ຂາດແຄນຊັບພະຍາກອນໃນປັດຈຸບັນ.

ທ່ານສາມາດຍືນຍັນວ່າ AI ໄດ້ລົງຈອດຢູ່ໃນຮູບແບບຂອງການຈໍາແນກຕົວແທນ (ຍັງມັກຈະເອີ້ນວ່າການຈໍາແນກທາງອ້ອມ). AI ບໍ່ໄດ້ຕັ້ງໂຄງການເພື່ອຫຼີກເວັ້ນເຂດທີ່ທຸກຍາກເຫຼົ່ານັ້ນ. ແທນທີ່ຈະ, ມັນ "ຮຽນຮູ້" ທີ່ຈະເຮັດແນວນັ້ນໂດຍຜ່ານການນໍາໃຊ້ ML / DL.

ສິ່ງດັ່ງກ່າວແມ່ນ, ຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຂີ່ລົດຍົນໄດ້ເປັນທີ່ຮູ້ຈັກສໍາລັບການເຮັດສິ່ງດຽວກັນ, ເຖິງແມ່ນວ່າບໍ່ຈໍາເປັນພຽງແຕ່ຍ້ອນມຸມສ້າງລາຍໄດ້. ມີບາງຄົນຂັບລົດມະນຸດທີ່ຮ່ວມເດີນທາງທີ່ມີອະຄະຕິທີ່ບໍ່ໜ້າເຊື່ອກ່ຽວກັບການເອົາຜູ້ຂັບຂີ່ໃນບາງສ່ວນຂອງເມືອງ. ນີ້​ແມ່ນ​ປະກົດ​ການ​ທີ່​ຮູ້​ຈັກ​ໜ້ອຍ​ໜຶ່ງ ​ແລະ ​ເມືອງ​ໄດ້​ວາງ​ມາດ​ຕະການ​ຕິດຕາມ​ກວດກາ ​ເພື່ອ​ຈັບ​ຄົນ​ຂັບ​ຂີ່​ມະນຸດ. ຜູ້ຂັບຂີ່ຂອງມະນຸດສາມາດປະສົບບັນຫາໃນການປະຕິບັດການຄັດເລືອກທີ່ບໍ່ແຊບ.

ສົມມຸດວ່າ AI ຈະບໍ່ຕົກຢູ່ໃນດິນຊາຍແບບດຽວກັນນັ້ນ. ບໍ່ມີການຕັ້ງການຕິດຕາມແບບພິເສດເພື່ອຕິດຕາມບ່ອນທີ່ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ໄດ້ໄປ. ພຽງແຕ່ຫຼັງຈາກສະມາຊິກຊຸມຊົນເລີ່ມຈົ່ມວ່າຜູ້ນໍາເມືອງຮັບຮູ້ສິ່ງທີ່ເກີດຂຶ້ນ. ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບປະເພດຂອງບັນຫາທົ່ວເມືອງເຫຼົ່ານີ້ທີ່ຍານພາຫະນະອັດຕະໂນມັດແລະລົດຂັບລົດຕົນເອງກໍາລັງຈະນໍາສະເຫນີ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍທີ່ ລິ້ງນີ້ຢູ່ນີ້ ແລະທີ່ອະທິບາຍການສຶກສາທີ່ນໍາພາໂດຍ Harvard ທີ່ຂ້າພະເຈົ້າໄດ້ຮ່ວມກັນຂຽນໃນຫົວຂໍ້.

ຕົວຢ່າງຂອງລັກສະນະໂຣມມິງຂອງລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ນີ້ສະແດງໃຫ້ເຫັນເຖິງການຊີ້ບອກກ່ອນຫນ້ານັ້ນວ່າມັນສາມາດມີສະຖານະການທີ່ເຮັດໃຫ້ເກີດຄວາມບໍ່ລໍາອຽງຂອງມະນຸດ, ເຊິ່ງການຄວບຄຸມໄດ້ຖືກວາງໄວ້, ແລະວ່າ AI ແທນຄົນຂັບລົດຂອງມະນຸດເຫຼົ່ານັ້ນໄດ້ຖືກປະຖິ້ມໄວ້. ຟຣີ. ແຕ່ຫນ້າເສຍດາຍ, AI ສາມາດເພີ່ມຂຶ້ນເປັນ mired ໃນຄວາມລໍາອຽງທີ່ຄ້າຍຄືກັນແລະເຮັດແນວນັ້ນໂດຍບໍ່ມີການ guardrails ພຽງພໍໃນສະຖານທີ່.

ອັນນີ້ຍັງສະແດງໃຫ້ເຫັນເຖິງຄວາມລຳອຽງຂອງ AI ໃນບັນຫາຂະໜາດ.

ໃນກໍລະນີຂອງຄົນຂັບລົດມະນຸດ, ພວກເຮົາອາດຈະມີຈໍານວນຫນ້ອຍຢູ່ທີ່ນີ້ຫຼືບ່ອນນັ້ນທີ່ກໍາລັງປະຕິບັດຄວາມບໍ່ສະເຫມີພາບໃນບາງຮູບແບບ. ສໍາລັບລະບົບການຂັບລົດ AI, ມັນມັກຈະເປັນຫນຶ່ງ AI ທີ່ເປັນເອກະພາບສໍາລັບເຮືອທັງຫມົດຂອງລົດຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ພວກເຮົາອາດຈະເລີ່ມຕົ້ນດ້ວຍການເວົ້າວ່າລົດຂັບລົດດ້ວຍຕົນເອງຫ້າສິບຄັນໃນຕົວເມືອງ (ທັງຫມົດແມ່ນແລ່ນດ້ວຍລະຫັດ AI ດຽວກັນ), ແລະຄ່ອຍໆເພີ່ມຂຶ້ນເພື່ອສົມມຸດວ່າ 500 ລົດຂັບລົດດ້ວຍຕົນເອງ (ທັງຫມົດແມ່ນແລ່ນດ້ວຍລະຫັດ AI ດຽວກັນ). ເນື່ອງຈາກລົດທີ່ຂັບເອງທັງໝົດຫ້າຮ້ອຍຄັນນັ້ນຖືກແລ່ນດ້ວຍ AI ດຽວກັນ, ພວກມັນລ້ວນແຕ່ຂຶ້ນກັບຄວາມລຳອຽງ ແລະຄວາມບໍ່ສະເໝີພາບທີ່ມາຈາກ AI ດຽວກັນ.

ການປັບຂະໜາດເຮັດໃຫ້ເຮົາເຈັບປວດໃນເລື່ອງນັ້ນ.

ຕົວຢ່າງທີສອງກ່ຽວຂ້ອງກັບ AI ກໍານົດວ່າຈະຢຸດສໍາລັບການລໍຖ້າຄົນຍ່າງທາງທີ່ບໍ່ມີສິດທີ່ຈະຂ້າມຖະຫນົນ.

ແນ່ນອນເຈົ້າໄດ້ຂັບລົດໄປ ແລະໄດ້ພົບກັບຄົນຍ່າງທາງທີ່ລໍຖ້າຂ້າມຖະໜົນ ແຕ່ເຂົາເຈົ້າບໍ່ມີສິດທີ່ຈະເຮັດແນວນັ້ນ. ນີ້ຫມາຍຄວາມວ່າທ່ານມີການຕັດສິນໃຈທີ່ຈະຢຸດແລະປ່ອຍໃຫ້ພວກເຂົາຂ້າມ. ທ່ານສາມາດດໍາເນີນການໄດ້ໂດຍບໍ່ປ່ອຍໃຫ້ພວກເຂົາຂ້າມຜ່ານແລະຍັງຢູ່ໃນກົດລະບຽບການຂັບຂີ່ທີ່ຖືກຕ້ອງຕາມກົດຫມາຍຂອງການເຮັດເຊັ່ນນັ້ນ.

ການສຶກສາກ່ຽວກັບວິທີທີ່ຄົນຂັບລົດມະນຸດຕັດສິນໃຈຢຸດ ຫຼືບໍ່ຢຸດສຳລັບຄົນຍ່າງທາງນັ້ນ ໄດ້ແນະນຳວ່າ ບາງຄັ້ງຄົນຂັບລົດມະນຸດເລືອກໂດຍພື້ນຖານຂອງຄວາມລຳອຽງທີ່ບໍ່ມີເຫດຜົນ. ຄົນຂັບລົດມະນຸດອາດຈະແນມເບິ່ງຄົນຍ່າງ ແລະເລືອກທີ່ຈະບໍ່ຢຸດ, ເຖິງແມ່ນວ່າເຂົາເຈົ້າຈະຢຸດແລ້ວກໍຕາມ ຖ້າຄົນຍ່າງມີຮູບຮ່າງທີ່ແຕກຕ່າງເຊັ່ນ: ອີງໃສ່ເຊື້ອຊາດ ຫຼືເພດ. ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ກວດ​ກາ​ນີ້​ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI ແມ່ນໂຄງການເພື່ອຈັດການກັບຄໍາຖາມທີ່ຈະຢຸດຫລືບໍ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາ. ນີ້ແມ່ນວິທີທີ່ຜູ້ພັດທະນາ AI ຕັດສິນໃຈຂຽນໂປຣແກຣມນີ້. ພວກເຂົາເຈົ້າເກັບກໍາຂໍ້ມູນຈາກກ້ອງຖ່າຍຮູບວິດີໂອຂອງຕົວເມືອງທີ່ວາງໄວ້ທົ່ວເມືອງ. ຂໍ້ມູນສະແດງໃຫ້ເຫັນຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາແລະຄົນຂັບລົດຂອງມະນຸດທີ່ບໍ່ຢຸດ. ມັນໄດ້ຖືກລວບລວມທັງຫມົດເຂົ້າໄປໃນຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່.

ໂດຍການນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກແລະການຮຽນຮູ້ເລິກ, ຂໍ້ມູນໄດ້ຖືກສ້າງແບບຈໍາລອງໃນຄອມພິວເຕີ້. ລະບົບການຂັບຂີ່ AI ຫຼັງຈາກນັ້ນໃຊ້ຮູບແບບນີ້ເພື່ອຕັດສິນໃຈວ່າເວລາໃດຈະຢຸດຫຼືບໍ່ຢຸດ. ໂດຍທົ່ວໄປແລ້ວ, ແນວຄວາມຄິດແມ່ນວ່າສິ່ງໃດກໍ່ຕາມທີ່ປະເພນີທ້ອງຖິ່ນປະກອບດ້ວຍ, ນີ້ແມ່ນວິທີທີ່ AI ກໍາລັງຊີ້ນໍາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ.

ເພື່ອຄວາມແປກໃຈຂອງຜູ້ນໍາເມືອງແລະຊາວເມືອງ, ເຫັນໄດ້ຊັດເຈນວ່າ AI ໄດ້ເລືອກທີ່ຈະຢຸດຫຼືບໍ່ຢຸດໂດຍອີງໃສ່ຮູບລັກສະນະຂອງຜູ້ຍ່າງທາງ, ລວມທັງເຊື້ອຊາດແລະເພດຂອງພວກເຂົາ. ເຊັນເຊີຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະສະແກນຄົນຍ່າງທາງທີ່ລໍຖ້າ, ປ້ອນຂໍ້ມູນນີ້ເຂົ້າໄປໃນແບບຈໍາລອງ ML/DL, ແລະຕົວແບບຈະປ່ອຍສັນຍານໃຫ້ກັບ AI ວ່າຈະຢຸດ ຫຼື ສືບຕໍ່. ໂສກເສົ້າ, ເມືອງດັ່ງກ່າວມີອະຄະຕິການຂັບຂີ່ຂອງມະນຸດຫຼາຍໃນເລື່ອງນີ້ແລະ AI ກໍາລັງເຮັດແບບດຽວກັນ.

ຕົວຢ່າງນີ້ສະແດງໃຫ້ເຫັນເຖິງລະບົບ AI ພຽງແຕ່ອາດຈະຊ້ໍາກັນກັບຄວາມລໍາອຽງທີ່ມີຢູ່ແລ້ວຂອງມະນຸດ. ນອກຈາກນັ້ນ, ມັນເຮັດໄດ້ໃນລະດັບ. ບາງເທື່ອຄົນຂັບມະນຸດຄົນໃດຄົນໜຶ່ງອາດຈະຖືກສອນໃຫ້ເຮັດແບບນັ້ນແບບບໍ່ເຂົ້າໃຈ ຫຼືອາດຈະຖືກເລືອກໃຫ້ເຮັດແບບນັ້ນເອງ, ແຕ່ໂອກາດທີ່ຄົນຂັບມະນຸດສ່ວນໃຫຍ່ອາດຈະບໍ່ເຮັດແບບນີ້.

ໃນທາງກົງກັນຂ້າມ, ລະບົບການຂັບຂີ່ AI ທີ່ຖືກນໍາໃຊ້ເພື່ອຂັບລົດຂັບລົດດ້ວຍຕົນເອງມີແນວໂນ້ມທີ່ຈະປະຕິບັດຄວາມລໍາອຽງທີ່ໄດ້ມາຢ່າງຫນ້າລັງກຽດ.

ສະຫຼຸບ

ມີຫຼາຍວິທີທີ່ຈະພະຍາຍາມ ແລະຫຼີກລ່ຽງການສ້າງ AI ທີ່ມີອະຄະຕິທີ່ບໍ່ຂຶ້ນກັບ ຫຼືວ່າມີອະຄະຕິເມື່ອເວລາຜ່ານໄປ. ຫຼາຍເທົ່າທີ່ເປັນໄປໄດ້, ແນວຄວາມຄິດແມ່ນເພື່ອຈັບບັນຫາກ່ອນທີ່ທ່ານຈະເຂົ້າໄປໃນເຄື່ອງມືສູງແລະ ramp ເຖິງສໍາລັບການປັບຂະຫນາດ. ຫວັງວ່າ, ຄວາມລໍາອຽງບໍ່ໄດ້ອອກຈາກປະຕູ, ສະນັ້ນເວົ້າ.

ສົມມຸດວ່າວິທີການຫນຶ່ງຫຼືຄວາມລໍາອຽງອື່ນຈະເກີດຂື້ນໃນ AI. ເມື່ອທ່ານຖືກ ນຳ ໃຊ້ເຂົ້າໃນຂະ ໜາດ ໃຫຍ່ດ້ວຍ AI, ທ່ານບໍ່ສາມາດເຮັດ ໜຶ່ງ ໃນແນວຄິດທີ່ປະກາດເລື້ອຍໆກ່ຽວກັບເຕັກໂນໂລຢີ "ໄຟແລະລືມ". ທ່ານຕ້ອງມີຄວາມພາກພຽນສືບຕໍ່ຕິດຕາມສິ່ງທີ່ AI ກໍາລັງເຮັດແລະຊອກຫາວິທີທີ່ຈະກວດພົບຄວາມລໍາອຽງທີ່ບໍ່ດີທີ່ຕ້ອງໄດ້ຮັບການແກ້ໄຂ.

ດັ່ງທີ່ໄດ້ຊີ້ໃຫ້ເຫັນກ່ອນຫນ້ານີ້, ວິທີການຫນຶ່ງກ່ຽວຂ້ອງກັບການຮັບປະກັນວ່າຜູ້ພັດທະນາ AI ຮູ້ຈັກຈັນຍາບັນຂອງ AI ແລະດັ່ງນັ້ນຈຶ່ງກະຕຸ້ນໃຫ້ພວກເຂົາຢູ່ໃນຫົວຂອງພວກເຂົາເພື່ອດໍາເນີນໂຄງການ AI ເພື່ອຫລີກລ້ຽງບັນຫາເຫຼົ່ານີ້. ເສັ້ນທາງອື່ນປະກອບດ້ວຍການມີ AI ຕິດຕາມກວດກາຕົນເອງສໍາລັບພຶດຕິກໍາທີ່ບໍ່ມີຈັນຍາບັນແລະ / ຫຼືມີຊິ້ນສ່ວນຂອງ AI ອື່ນທີ່ຕິດຕາມລະບົບ AI ອື່ນໆສໍາລັບພຶດຕິກໍາທີ່ບໍ່ມີຈັນຍາບັນ. ຂ້າພະເຈົ້າໄດ້ກວມເອົາການແກ້ໄຂທີ່ມີທ່າແຮງອື່ນໆຈໍານວນຫລາຍໃນການຂຽນຂອງຂ້ອຍ.

ຄວາມຄິດສຸດທ້າຍສໍາລັບໃນປັດຈຸບັນ. ໄດ້ເລີ່ມຕົ້ນການສົນທະນານີ້ດ້ວຍຄໍາເວົ້າຂອງ Plato, ມັນອາດຈະເຫມາະສົມທີ່ຈະປິດການສົນທະນາດ້ວຍຄໍາເວົ້າທີ່ສະຫລາດອີກໂດຍ Plato.

Plato ກ່າວ​ວ່າ​ບໍ່​ມີ​ອັນ​ຕະ​ລາຍ​ໃນ​ການ​ເຮັດ​ຊ້ຳ​ສິ່ງ​ທີ່​ດີ.

ຄວາມງ່າຍຂອງການກ້າວໄປເຖິງຂະໜາດດ້ວຍ AI ແມ່ນແນ່ນອນວ່າເປັນວິທີທາງທີ່ເໝາະສົມໃນການບັນລຸຄວາມປາຖະໜາອັນດີດັ່ງກ່າວ ເມື່ອ AI ເປັນຂອງ AI ສໍາລັບທີ່ດີ ແນວພັນ. ພວກເຮົາມັກເຮັດຊ້ຳສິ່ງທີ່ດີ. ເມື່ອ AI ເປັນ AI ສໍາລັບບໍ່ດີ ແລະເຕັມໄປດ້ວຍຄວາມລໍາອຽງແລະຄວາມບໍ່ສະເຫມີພາບທີ່ບໍ່ສະເຫມີພາບ, ພວກເຮົາອາດຈະອີງໃສ່ຂໍ້ສັງເກດຂອງ Plato ແລະເວົ້າວ່າມັນເປັນອັນຕະລາຍຫຼາຍໃນການເຮັດຊ້ໍາຄືນສິ່ງທີ່ບໍ່ດີ.

ຂໍໃຫ້ຟັງຄໍາເວົ້າທີ່ສະຫລາດຂອງ Plato ຢ່າງລະອຽດແລະສ້າງ AI ຂອງພວກເຮົາຕາມຄວາມເຫມາະສົມ.

ແຫຼ່ງຂໍ້ມູນ: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- ລະດັບໂລກ-ໂດຍສະເພາະ-ນໍ້າມັນເຊື້ອໄຟ-ຜ່ານ-looming-fully-autonomous-systems/