Plato ທີ່ມີຊື່ສຽງກ່າວວ່າການຕັດສິນໃຈທີ່ດີແມ່ນອີງໃສ່ຄວາມຮູ້ແລະບໍ່ແມ່ນຕົວເລກ.
ຄວາມເຂົ້າໃຈທີ່ກະຕືລືລົ້ນນີ້ເບິ່ງຄືວ່າມີຄວາມປະຫຼາດໃຈຫຼາຍກ່ຽວກັບປັນຍາປະດິດ (AI).
ເຈົ້າເຫັນ, ເຖິງວ່າຈະມີຫົວຂໍ້ຂ່າວທີ່ ໜ້າ ງຶດງໍ້ໃນຂະນະນີ້ທີ່ປະກາດວ່າ AI ໄດ້ບັນລຸຄວາມຮູ້ສຶກແລະປະກອບຄວາມຮູ້ແລະເຫດຜົນຂອງມະນຸດ, ກະລຸນາຮັບຊາບວ່າ hyperbole AI ທີ່ເວົ້າເກີນນີ້ແມ່ນການລ່ວງລະເມີດທີ່ຮ້າຍກາດເພາະວ່າພວກເຮົາຍັງອີງໃສ່ຕົວເລກທີ່ຫຍຸ້ງຍາກໃນການຕັດສິນໃຈຂອງ algorithm ຂອງມື້ນີ້ (ADM ) ຕາມການປະຕິບັດໂດຍລະບົບ AI. ເຖິງແມ່ນວ່າການຮຽນຮູ້ເຄື່ອງຈັກ (ML) ແລະການຮຽນຮູ້ເລິກ (DL) ປະກອບດ້ວຍການຈັບຄູ່ຮູບແບບການຄິດໄລ່, ຊຶ່ງຫມາຍຄວາມວ່າຕົວເລກແມ່ນຍັງເປັນຫຼັກຂອງການໃຊ້ ML / DL ທີ່ສູງສົ່ງ.
ພວກເຮົາບໍ່ຮູ້ວ່າ AI ບັນລຸຄວາມຮູ້ສຶກເປັນໄປໄດ້. ອາດຈະເປັນ, ອາດຈະບໍ່ແມ່ນ. ບໍ່ມີໃຜສາມາດບອກໄດ້ຢ່າງແນ່ນອນວ່າສິ່ງນີ້ອາດຈະເກີດຂື້ນໄດ້ແນວໃດ. ບາງຄົນເຊື່ອວ່າພວກເຮົາຈະປັບປຸງຄວາມພະຍາຍາມ AI ຄອມພິວເຕີຂອງພວກເຮົາເພີ່ມຂຶ້ນເຊັ່ນວ່າຮູບແບບຂອງຄວາມຮູ້ສຶກຈະເກີດຂຶ້ນ spontaneous. ຄົນອື່ນຄິດວ່າ AI ອາດຈະເຂົ້າໄປໃນປະເພດຂອງ supernova ຄອມພິວເຕີ້ແລະສາມາດບັນລຸຄວາມຮູ້ສຶກທີ່ຂ້ອນຂ້າງຂື້ນກັບຕົວມັນເອງ (ໂດຍທົ່ວໄປແລ້ວເອີ້ນວ່າຄວາມໂດດດ່ຽວ). ສໍາລັບເພີ່ມເຕີມກ່ຽວກັບທິດສະດີເຫຼົ່ານີ້ກ່ຽວກັບອະນາຄົດຂອງ AI, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ສະນັ້ນ, ບໍ່ຄວນຖືຕົວເຮົາເອງ ແລະເຊື່ອແບບຜິດໆວ່າ AI ສະໄໝປັດຈຸບັນສາມາດຄິດຄືກັບມະນຸດໄດ້. ຂ້າພະເຈົ້າສົມມຸດວ່າຄໍາຖາມດັ່ງກ່າວໄດ້ມາຮອດແຖວຫນ້າກ່ຽວກັບຂໍ້ສັງເກດຂອງ Plato ກ່ຽວກັບວ່າພວກເຮົາສາມາດມີການຕັດສິນໃຈທີ່ດີໂດຍອີງໃສ່ AI ຄອມພິວເຕີ້ແທນທີ່ຈະເປັນ AI ທີ່ມີຄວາມຮູ້ສຶກ. ເຈົ້າອາດຈະປະຫລາດໃຈທີ່ຮູ້ວ່າຂ້ອຍຈະຢືນຢັນວ່າພວກເຮົາສາມາດມີການຕັດສິນໃຈທີ່ດີໂດຍລະບົບ AI ປະຈໍາວັນຢ່າງແທ້ຈິງ.
ອີກດ້ານຫນຶ່ງຂອງຫຼຽນນັ້ນແມ່ນວ່າພວກເຮົາຍັງສາມາດມີລະບົບ AI ປະຈໍາວັນທີ່ເຮັດໃຫ້ການຕັດສິນໃຈທີ່ບໍ່ດີ. ການຕັດສິນໃຈເນົ່າເປື່ອຍ. ການຕັດສິນໃຈທີ່ເຕັມໄປດ້ວຍຄວາມລຳອຽງ ແລະຄວາມບໍ່ສະເໝີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກຈາກ vociferous ທາງດ້ານກົດຫມາຍ ການສະແຫວງຫາການຍຶດໝັ້ນໃນການກະທຳຜິດ, ຍັງມີການຊຸກຍູ້ອັນສຳຄັນໄປສູ່ການຖືສິນທຳ AI ເພື່ອແກ້ໄຂຄວາມຊົ່ວຮ້າຍຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມກັນນັ້ນ ໄດ້ປະກາດ ແລະ ສົ່ງເສີມຄວາມນິຍົມ AI ສໍາລັບທີ່ດີ.
ການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI ສາມາດພົບໄດ້ທີ່ ລິ້ງນີ້ຢູ່ນີ້ ແລະ ລິ້ງນີ້ຢູ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.
ສໍາລັບເລື່ອງນີ້ໃນການສົນທະນານີ້, ຂ້າພະເຈົ້າຢາກຈະນໍາເອົາລັກສະນະທີ່ຫນ້າເປັນຫ່ວງໂດຍສະເພາະກ່ຽວກັບ AI ທີ່ຜູ້ທີ່ຢູ່ໃນສະຫນາມກິລາຈັນຍາບັນ AI ກໍາລັງຮ້ອງອອກມາຢ່າງຖືກຕ້ອງແລະພະຍາຍາມສ້າງຄວາມຮັບຮູ້ທີ່ເຫມາະສົມກ່ຽວກັບ. ຄວາມຈິງແລ້ວເລື່ອງທີ່ສຸຂຸມ ແລະຄວາມບໍ່ພໍໃຈແມ່ນຂ້ອນຂ້າງກົງໄປກົງມາທີ່ຈະຊີ້ໃຫ້ເຫັນ.
ມັນຢູ່ນີ້: AI ມີທ່າແຮງໃນໂລກທີ່ແທ້ຈິງຂອງການປະກາດຄວາມລໍາອຽງຂອງ AI ໃນລະດັບໂລກທີ່ຫນ້າຕົກໃຈ.
ແລະເມື່ອຂ້ອຍເວົ້າວ່າ "ໃນລະດັບ" ນີ້ສະແດງໃຫ້ເຫັນເຖິງຂະຫນາດຂະຫນາດໃຫຍ່ໃນທົ່ວໂລກ. ຂະຫນາດ humongous. ຂະຫນາດທີ່ອອກໄປຈາກຂະຫນາດ.
ກ່ອນທີ່ຂ້ອຍຈະລົງເລິກເຖິງວິທີທີ່ການຂະຫຍາຍຄວາມລໍາອຽງຂອງ AI-steeped ນີ້ຈະເກີດຂຶ້ນ, ໃຫ້ແນ່ໃຈວ່າພວກເຮົາທຸກຄົນມີຄວາມຄ້າຍຄືກັນກັບວິທີທີ່ AI ສາມາດລວມເອົາຄວາມລໍາອຽງທີ່ບໍ່ສົມຄວນແລະຄວາມບໍ່ສະເຫມີພາບ. ຈື່ອີກເທື່ອຫນຶ່ງວ່ານີ້ບໍ່ແມ່ນຄວາມຫລາກຫລາຍທີ່ມີຄວາມຮູ້ສຶກ. ນີ້ແມ່ນທັງຫມົດຂອງ caliber ການຄິດໄລ່.
ເຈົ້າອາດຈະສັບສົນກັບວິທີທີ່ AI ສາມາດສ້າງອະຄະຕິທາງລົບ ແລະຄວາມບໍ່ສະເໝີພາບອັນດຽວກັນທີ່ມະນຸດເຮັດໄດ້. ພວກເຮົາມີແນວໂນ້ມທີ່ຈະຄິດວ່າ AI ມີຄວາມເປັນກາງທັງຫມົດ, ບໍ່ລໍາອຽງ, ພຽງແຕ່ເປັນເຄື່ອງຈັກທີ່ບໍ່ມີຄວາມຮູ້ສຶກແລະຄວາມຄິດທີ່ບໍ່ດີທີ່ມະນຸດອາດຈະມີ. ຫນຶ່ງໃນວິທີການທົ່ວໄປທີ່ສຸດຂອງ AI ຕົກຢູ່ໃນຄວາມລໍາອຽງແລະຄວາມບໍ່ສະເຫມີພາບ dourness ເກີດຂຶ້ນໃນເວລາທີ່ການນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກແລະການຮຽນຮູ້ເລິກ, ບາງສ່ວນເປັນຜົນມາຈາກການອີງໃສ່ຂໍ້ມູນທີ່ເກັບກໍາກ່ຽວກັບວິທີທີ່ມະນຸດກໍາລັງຕັດສິນໃຈ.
ອະນຸຍາດໃຫ້ຂ້ອຍອະທິບາຍໄດ້ໄລຍະ ໜຶ່ງ.
ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.
ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງສິ່ງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄຳນວນຂອງການຮຽນຮູ້ເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.
ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.
ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງ algorithm ຫຼື ADM ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.
ບໍ່ດີ.
ນີ້ເຮັດໃຫ້ພວກເຮົາກ່ຽວກັບຄວາມລໍາອຽງຂອງ AI-steeped ໃນເວລາທີ່ຢູ່ໃນຂະຫນາດ.
ທໍາອິດ, ໃຫ້ພິຈາລະນາເບິ່ງວ່າຄວາມລໍາອຽງຂອງມະນຸດອາດຈະສ້າງຄວາມບໍ່ສະເຫມີພາບແນວໃດ. ບໍລິສັດທີ່ເຮັດສິນເຊື່ອຈໍານອງຕັດສິນໃຈຈ້າງຕົວແທນເງິນກູ້ຈໍານອງ. ຕົວແທນແມ່ນຄວນຈະທົບທວນຄືນຄໍາຮ້ອງຂໍຈາກຜູ້ບໍລິໂພກທີ່ຕ້ອງການກູ້ຢືມເຮືອນ. ຫຼັງຈາກການປະເມີນໃບຄໍາຮ້ອງສະຫມັກ, ຕົວແທນເຮັດໃຫ້ການຕັດສິນໃຈທີ່ຈະໃຫ້ການກູ້ຢືມເງິນຫຼືປະຕິເສດການກູ້ຢືມເງິນ. ງ່າຍ-peasy.
ສໍາລັບ sake ຂອງການສົນທະນາ, ໃຫ້ພວກເຮົາຈິນຕະນາການວ່າຕົວແທນເງິນກູ້ຂອງມະນຸດສາມາດວິເຄາະເງິນກູ້ 8 ຕໍ່ມື້, ໃຊ້ເວລາປະມານຫນຶ່ງຊົ່ວໂມງຕໍ່ການທົບທວນຄືນ. ໃນອາທິດເຮັດວຽກຫ້າມື້, ຕົວແທນເຮັດປະມານ 40 ການທົບທວນຄືນເງິນກູ້. ບົນພື້ນຖານປະຈໍາປີ, ຕົວແທນປົກກະຕິເຮັດປະມານ 2,000 ການທົບທວນຄືນເງິນກູ້, ໃຫ້ຫຼືໃຊ້ເວລາເລັກນ້ອຍ.
ບໍລິສັດຕ້ອງການເພີ່ມປະລິມານການທົບທວນເງິນກູ້ຂອງຕົນ, ດັ່ງນັ້ນບໍລິສັດຈຶ່ງຈ້າງຕົວແທນເງິນກູ້ຕື່ມອີກ 100 ຄົນ. ໃຫ້ສົມມຸດວ່າພວກເຂົາທັງຫມົດມີຜົນຜະລິດດຽວກັນແລະນີ້ຫມາຍຄວາມວ່າພວກເຮົາສາມາດຈັດການກັບເງິນກູ້ປະມານ 200,000 ຕໍ່ປີ (ໃນອັດຕາ 2,000 ການທົບທວນຄືນເງິນກູ້ຕໍ່ປີຕໍ່ຕົວແທນ). ມັນເບິ່ງຄືວ່າພວກເຮົາໄດ້ເລັ່ງລັດການປະມວນຜົນການຮ້ອງຂໍເງິນກູ້ຂອງພວກເຮົາ.
ປະກົດວ່າບໍລິສັດສ້າງລະບົບ AI ທີ່ສາມາດເຮັດການທົບທວນເງິນກູ້ຄືກັນກັບຕົວແທນຂອງມະນຸດ. AI ກໍາລັງເຮັດວຽກຢູ່ໃນເຄື່ອງແມ່ຂ່າຍຄອມພິວເຕີຢູ່ໃນຄລາວ. ຜ່ານພື້ນຖານໂຄງລ່າງຄລາວ, ບໍລິສັດສາມາດເພີ່ມພະລັງງານຄອມພິວເຕີເພີ່ມເຕີມເພື່ອຮອງຮັບປະລິມານການທົບທວນເງິນກູ້ທີ່ອາດຈະຕ້ອງການ.
ດ້ວຍການຕັ້ງຄ່າ AI ທີ່ມີຢູ່ແລ້ວ, ພວກເຂົາສາມາດເຮັດ 1,000 ການທົບທວນຄືນເງິນກູ້ຕໍ່ຊົ່ວໂມງ. ນີ້ຍັງສາມາດເກີດຂຶ້ນໄດ້ 24 × 7. ບໍ່ມີເວລາພັກຜ່ອນທີ່ຕ້ອງການສໍາລັບ AI. ບໍ່ມີການພັກຜ່ອນອາຫານທ່ຽງ. AI ເຮັດວຽກໄດ້ຕະຫຼອດໂມງໂດຍບໍ່ມີການ squawking ກ່ຽວກັບການເຮັດວຽກຫຼາຍເກີນໄປ. ພວກເຮົາຈະເວົ້າວ່າໃນຈັງຫວະປະມານນັ້ນ, AI ສາມາດປະມວນຜົນເກືອບ 9 ລ້ານຄໍາຮ້ອງສະຫມັກກູ້ຢືມເງິນຕໍ່ປີ.
ສັງເກດເຫັນວ່າພວກເຮົາໄປຈາກການມີ 100 ຕົວແທນຂອງມະນຸດທີ່ສາມາດເຮັດ 200,000 ເງິນກູ້ຕໍ່ປີແລະ jumped ຫຼາຍເທື່ອກັບຈໍານວນທີ່ເພີ່ມຂຶ້ນຫຼາຍຂອງ 9 ລ້ານການທົບທວນຄືນຕໍ່ປີຜ່ານລະບົບ AI. ພວກເຮົາໄດ້ຂະຫຍາຍການປະມວນຜົນການຮ້ອງຂໍເງິນກູ້ຂອງພວກເຮົາຢ່າງຫຼວງຫຼາຍ. ບໍ່ມີຄວາມສົງໃສກ່ຽວກັບມັນ.
ກຽມພ້ອມສໍາລັບ kicker ທີ່ອາດຈະເຮັດໃຫ້ທ່ານຕົກຈາກເກົ້າອີ້ຂອງທ່ານ.
ສົມມຸດວ່າບາງຕົວແທນຂອງມະນຸດຂອງພວກເຮົາກໍາລັງຕັດສິນໃຈເງິນກູ້ຂອງເຂົາເຈົ້າໂດຍອີງໃສ່ຄວາມລໍາອຽງທີ່ບໍ່ມີຄວາມລໍາອຽງ. ບາງທີບາງຄົນແມ່ນໃຫ້ປັດໄຈເຊື້ອຊາດເປັນບົດບາດສໍາຄັນໃນການຕັດສິນໃຈເງິນກູ້. ບາງທີບາງຄົນກໍາລັງໃຊ້ເພດ. ຄົນອື່ນກໍາລັງໃຊ້ອາຍຸ. ແລະອື່ນໆ.
ຂອງການທົບທວນເງິນກູ້ປະຈໍາປີ 200,000, ມີຈໍານວນເທົ່າໃດທີ່ຖືກປະຕິບັດພາຍໃຕ້ການເບິ່ງທີ່ຜິດພາດຂອງຄວາມລໍາອຽງທາງລົບແລະຄວາມບໍ່ສະເຫມີພາບ? ບາງທີ 10% ເຊິ່ງແມ່ນປະມານ 20,000 ຂອງການຮ້ອງຂໍເງິນກູ້. ຮ້າຍແຮງໄປກວ່ານັ້ນ, ສົມມຸດວ່າມັນເປັນ 50% ຂອງການຮ້ອງຂໍເງິນກູ້, ໃນກໍລະນີນີ້ມີ 100,000 ກໍລະນີປະຈໍາປີຂອງການຕັດສິນໃຈກູ້ຢືມທີ່ຜິດພາດ.
ນັ້ນບໍ່ດີ. ແຕ່ພວກເຮົາຍັງບໍ່ທັນໄດ້ພິຈາລະນາຄວາມເປັນໄປໄດ້ທີ່ຫນ້າຢ້ານກົວຫຼາຍກວ່າເກົ່າ.
ສົມມຸດວ່າ AI ມີອະຄະຕິທີ່ເຊື່ອງໄວ້ເຊິ່ງປະກອບດ້ວຍປັດໃຈເຊັ່ນ: ເຊື້ອຊາດ, ເພດ, ອາຍຸ, ແລະອື່ນໆ. ຖ້າ 10% ຂອງການວິເຄາະເງິນກູ້ປະຈໍາປີແມ່ນຂຶ້ນກັບຄວາມບໍ່ສະບາຍນີ້, ພວກເຮົາມີ 900,000 ຄໍາຮ້ອງຂໍເງິນກູ້ທີ່ຖືກຈັດການທີ່ບໍ່ຖືກຕ້ອງ. ນັ້ນແມ່ນຫຼາຍກ່ວາສິ່ງທີ່ຕົວແທນຂອງມະນຸດສາມາດເຮັດໄດ້, ຕົ້ນຕໍແມ່ນຍ້ອນລັກສະນະປະລິມານ. ຕົວແທນ 100 ເຫຼົ່ານັ້ນຖ້າທັງຫມົດກໍາລັງດໍາເນີນການທົບທວນທີ່ບໍ່ສະເຫມີພາບທີ່ສຸດສາມາດເຮັດໄດ້ໃນ 200,000 ການທົບທວນຄືນເງິນກູ້ປະຈໍາປີ. AI ສາມາດເຮັດເຊັ່ນດຽວກັນໃນຂະຫນາດໃຫຍ່ຫຼາຍຂອງ 9,000,000 ການທົບທວນຄືນປະຈໍາປີ.
ຍຳ!
ນີ້ແມ່ນຄວາມລຳອຽງຂອງ AI ຢ່າງແທ້ຈິງໃນລະດັບທີ່ໃຫຍ່ຫຼວງ.
ເມື່ອຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັນຖືກຝັງຢູ່ໃນລະບົບ AI, ການປັບຂະ ໜາດ ດຽວກັນທີ່ເບິ່ງຄືວ່າໄດ້ປຽບໃນປັດຈຸບັນແມ່ນຫັນ ໜ້າ ຂອງມັນແລະກາຍເປັນຜົນການຂະ ໜາດ ທີ່ຫຼອກລວງຢ່າງໃຫຍ່ຫຼວງ (ແລະລົບກວນ). ໃນອີກດ້ານຫນຶ່ງ, AI ສາມາດໄດ້ຮັບຜົນປະໂຫຍດເພື່ອຈັດການປະຊາຊົນທີ່ກໍາລັງຮ້ອງຂໍເງິນກູ້ບ້ານຫຼາຍຂຶ້ນ. ຢູ່ເທິງພື້ນຜິວ, ມັນເບິ່ງຄືວ່າເປັນຕາຢ້ານ AI ສໍາລັບທີ່ດີ. ພວກເຮົາຄວນຈະ pat ຕົວເຮົາເອງຢູ່ດ້ານຫລັງສໍາລັບການສົມມຸດວ່າຂະຫຍາຍໂອກາດຂອງມະນຸດໄດ້ຮັບເງິນກູ້ທີ່ຈໍາເປັນ. ໃນຂະນະດຽວກັນ, ຖ້າ AI ໄດ້ຝັງຄວາມລໍາອຽງ, ການປັບຂະຫນາດຈະເປັນຜົນເສຍຫາຍຢ່າງໃຫຍ່ຫຼວງແລະພວກເຮົາພົບວ່າຕົນເອງມີຄວາມເສົ້າສະຫລົດໃຈ. AI ສໍາລັບບໍ່ດີ, ໃນລະດັບຂະຫນາດໃຫຍ່ແທ້ໆ.
ສຸພາສິດ ດາບສອງຄົມ.
AI ສາມາດເພີ່ມການເຂົ້າເຖິງການຕັດສິນໃຈສໍາລັບຜູ້ທີ່ກໍາລັງຊອກຫາບໍລິການແລະຜະລິດຕະພັນທີ່ຕ້ອງການ. ບໍ່ມີຂໍ້ຈຳກັດດ້ານແຮງງານຂອງມະນຸດອີກຕໍ່ໄປ. ໂດດເດັ່ນ! ອີກດ້ານຫນຶ່ງຂອງດາບແມ່ນວ່າຖ້າ AI ປະກອບດ້ວຍຄວາມບໍ່ດີເຊັ່ນຄວາມບໍ່ສະເຫມີພາບທີ່ເຊື່ອງໄວ້, ຂະຫນາດຂະຫນາດໃຫຍ່ດຽວກັນຈະປະກາດການປະພຶດທີ່ບໍ່ດີນັ້ນໃນລະດັບທີ່ບໍ່ສາມາດຄາດເດົາໄດ້. ຮ້າຍກາດ, ຜິດ, ອັບອາຍ, ແລະພວກເຮົາບໍ່ສາມາດປ່ອຍໃຫ້ສັງຄົມຕົກຢູ່ໃນເຫວທີ່ຂີ້ຮ້າຍແບບນີ້.
ໃຜກໍ່ຕາມທີ່ສັບສົນວ່າເປັນຫຍັງພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ເອົາໃຈໃສ່ເຖິງຄວາມສໍາຄັນຂອງຈັນຍາບັນ AI ຄວນຈະຮູ້ວ່າປະກົດການຂະຫນາດ AI ເປັນເຫດຜົນທີ່ສໍາຄັນສໍາລັບການປະຕິບັດຕາມຈັນຍາບັນ AI. ຂໍເວລາພິຈາລະນາສັ້ນໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI ຫຼັກບາງຢ່າງເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນເປັນຈຸດສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດອາຊີບ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.
ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:
- ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
- ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
- ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
- ບໍ່ ລຳ ອຽງ: ຫ້າມສ້າງຫຼືກະທຳຕາມຄວາມລຳອຽງ, ເປັນການປົກປ້ອງຄວາມຍຸຕິທຳ ແລະ ກຽດສັກສີຂອງມະນຸດ
- ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
- ຄວາມປອດໄພແລະຄວາມເປັນສ່ວນຕົວ: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.
ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:
- ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
- ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
- ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະການກວດສອບ, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
- ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
- ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.
ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:
- ຄວາມໂປ່ງໃສ
- ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
- ຄວາມບໍ່ເປັນອັນຕະລາຍ
- ຄວາມຮັບຜິດຊອບ
- ຄວາມເປັນສ່ວນຕົວ
- ຜົນປະໂຫຍດ
- ເສລີພາບ & ການປົກຄອງຕົນເອງ
- ຄວາມໄວ້ວາງໃຈ
- ຄວາມຍືນຍົງ
- ກຽດຕິຍົດ
- ຄວາມສົມດຸນ
ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະທີ່ຕິດພັນກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍຕາມ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.
ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດໄລຍະການພັດທະນາ ແລະການນຳໃຊ້ AI ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ກະລຸນາຮັບຮູ້ວ່າມັນໃຊ້ເວລາບ້ານເພື່ອສ້າງແລະພາກສະຫນາມ AI. ເພື່ອໃຫ້ທົ່ວບ້ານຕ້ອງຮັກສາຈັນຍາບັນ AI.
AI-Steeped Biasing Scaling ເຮັດວຽກແນວໃດ
ຕອນນີ້ຂ້ອຍໄດ້ເຂົ້າໄປໃນຕາຕະລາງທີ່ AI ສາມາດບັນຈຸຄວາມລໍາອຽງ, ພວກເຮົາພ້ອມທີ່ຈະກວດສອບບາງເຫດຜົນວ່າເປັນຫຍັງ AI scaling ແມ່ນ intrusive ຫຼາຍ.
ພິຈາລະນາບັນຊີລາຍຊື່ສໍາຄັນຂອງສິບເຫດຜົນພື້ນຖານ:
- replicated ໄດ້ຢ່າງງ່າຍດາຍ
- ຄ່າໃຊ້ຈ່າຍຕໍາ່ສຸດທີ່ເພື່ອຂະຫຍາຍ
- ສອດຄ່ອງກັນຢ່າງໜ້າກຽດຊັງ
- ຂາດການສະທ້ອນຕົນເອງ
- ການເຊື່ອຟັງທີ່ຕາບອດ
- ບໍ່ໄດ້ປາຍມືຂອງມັນ
- ຜູ້ຮັບບໍ່ສົງໃສ
- ແນວໂນ້ມທີ່ຈະບໍ່ກະຕຸ້ນການກະຕຸ້ນ
- ກິ່ນອາຍຂອງຄວາມຍຸດຕິ ທຳ ທີ່ບໍ່ຖືກຕ້ອງ
- ຍາກທີ່ຈະປະຕິເສດ
ຂ້ອຍຈະສຳຫຼວດແຕ່ລະຈຸດສຳຄັນເຫຼົ່ານັ້ນໂດຍຫຍໍ້.
ເມື່ອທ່ານພະຍາຍາມຂະຫຍາຍແຮງງານຂອງມະນຸດ, ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າການເຮັດດັ່ງນັ້ນຈະສັບສົນຫຼາຍ. ເຈົ້າຕ້ອງຊອກຫາ ແລະຈ້າງຄົນ. ທ່ານຕ້ອງຝຶກອົບຮົມໃຫ້ເຂົາເຈົ້າເຮັດວຽກ. ທ່ານຕ້ອງຈ່າຍໃຫ້ເຂົາເຈົ້າແລະຄໍານຶງເຖິງຄວາມຕ້ອງການແລະຄວາມຕ້ອງການຂອງມະນຸດ. ປຽບທຽບນີ້ກັບລະບົບ AI. ທ່ານພັດທະນາມັນແລະເຮັດໃຫ້ມັນເຂົ້າໄປໃນການນໍາໃຊ້. ນອກເໜືອໄປຈາກການຮັກສາ AI ຢ່າງຕໍ່ເນື່ອງຈຳນວນໜຶ່ງ, ທ່ານສາມາດນັ່ງກັບຄືນ ແລະປ່ອຍໃຫ້ມັນດຳເນີນໄປຢ່າງບໍ່ຢຸດຢັ້ງ.
ນີ້ຫມາຍຄວາມວ່າ AI ຖືກຈໍາລອງໄດ້ຢ່າງງ່າຍດາຍ. ທ່ານສາມາດເພີ່ມພະລັງງານຄອມພິວເຕີຫຼາຍຕາມທີ່ຫນ້າວຽກແລະປະລິມານທີ່ອາດຈະຕ້ອງການ (ທ່ານບໍ່ໄດ້ວ່າຈ້າງຫຼືການຍິງ). ການນໍາໃຊ້ທົ່ວໂລກແມ່ນເຮັດໄດ້ດ້ວຍການກົດປຸ່ມແລະບັນລຸໄດ້ໂດຍການມີຢູ່ໃນທົ່ວໂລກຂອງອິນເຕີເນັດ. ການຂະຫຍາຍໃຫຍ່ຂື້ນແມ່ນຄ່າໃຊ້ຈ່າຍ ໜ້ອຍ ທີ່ສຸດເມື່ອປຽບທຽບກັບການເຮັດເຊັ່ນດຽວກັນກັບແຮງງານຂອງມະນຸດ.
ແຮງງານຂອງມະນຸດແມ່ນບໍ່ສອດຄ່ອງກັນທີ່ມີຊື່ສຽງ. ເມື່ອທ່ານມີທີມໃຫຍ່, ທ່ານມີກ່ອງຊັອກໂກແລັດທີ່ແນ່ນອນວ່າເຈົ້າບໍ່ເຄີຍຮູ້ວ່າເຈົ້າອາດມີຫຍັງຢູ່ໃນມືຂອງເຈົ້າ. ລະບົບ AI ມີແນວໂນ້ມທີ່ຈະສອດຄ່ອງສູງ. ມັນເຮັດກິດຈະກຳອັນດຽວກັນຊ້ຳແລ້ວຊ້ຳອີກ, ແຕ່ລະຄັ້ງທີ່ສຳຄັນຄືຄັ້ງສຸດທ້າຍ.
ໂດຍປົກກະຕິ, ພວກເຮົາຈະມັກຄວາມສອດຄ່ອງຂອງ AI. ຖ້າມະນຸດມັກມີອະຄະຕິ, ພວກເຮົາຈະມີບາງສ່ວນຂອງແຮງງານຂອງມະນຸດທີ່ຫຼົງທາງຢູ່ສະເໝີ. AI, ຖ້າບໍ່ມີຄວາມລໍາອຽງຢ່າງແທ້ຈິງໃນຄວາມພະຍາຍາມໃນການກໍ່ສ້າງແລະຄອມພິວເຕີ້, ມັນຈະມີຄວາມສອດຄ່ອງຫຼາຍກວ່າເກົ່າ. ບັນຫາແມ່ນວ່າຖ້າ AI ມີອະຄະຕິທີ່ເຊື່ອງໄວ້, ຄວາມສອດຄ່ອງໃນປັດຈຸບັນແມ່ນເປັນຕາກຽດຊັງ. ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າພຶດຕິກໍາທີ່ລໍາອຽງຈະຖືກປະຕິບັດຢ່າງຕໍ່ເນື່ອງ, ເລື້ອຍໆ.
ມະນຸດຈະມີຄວາມຫວັງວ່າຈະມີການສະທ້ອນຕົນເອງບາງສ່ວນ ແລະອາດຈະຈັບຕົວຕົນເອງໃນການຕັດສິນໃຈທີ່ມີອະຄະຕິ. ຂ້າພະເຈົ້າບໍ່ໄດ້ເວົ້າວ່າທຸກຄົນຈະເຮັດແນວນັ້ນ. ຂ້າພະເຈົ້າຍັງບໍ່ໄດ້ເວົ້າວ່າຜູ້ທີ່ຈັບຕົວເອງຈະຈໍາເປັນຕ້ອງແກ້ໄຂຄວາມຜິດພາດຂອງເຂົາເຈົ້າ. ໃນກໍລະນີໃດກໍ່ຕາມ, ບາງຄັ້ງມະນຸດບາງຄົນອາດຈະແກ້ໄຂຕົວເອງ.
AI ອາດຈະບໍ່ມີຮູບແບບຂອງການສະທ້ອນຕົນເອງຈາກການຄິດໄລ່. ນີ້ຫມາຍຄວາມວ່າ AI ພຽງແຕ່ສືບຕໍ່ເຮັດສິ່ງທີ່ມັນກໍາລັງເຮັດ. ເບິ່ງຄືວ່າຈະບໍ່ມີໂອກາດທີ່ AI ກວດພົບວ່າມັນ ກຳ ລັງແລ່ນໄປສູ່ຄວາມທ່ຽງ ທຳ. ທີ່ຖືກເວົ້າ, ຂ້າພະເຈົ້າໄດ້ອະທິບາຍຄວາມພະຍາຍາມບາງຢ່າງເພື່ອຈັດການກັບສິ່ງນີ້, ເຊັ່ນ: ການສ້າງອົງປະກອບດ້ານຈັນຍາບັນຂອງ AI ພາຍໃນ AI (ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້) ແລະວາງແຜນ AI ທີ່ຕິດຕາມ AI ອື່ນໆເພື່ອແນມເບິ່ງກິດຈະກໍາ AI ທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້).
ການຂາດການສະທ້ອນຕົນເອງໃດໆ, AI ຍັງມີແນວໂນ້ມທີ່ຈະມີການເຊື່ອຟັງທີ່ຕາບອດຢ່າງສໍາຄັນຕໍ່ສິ່ງໃດກໍ່ຕາມທີ່ມັນຖືກແນະນໍາໃຫ້ເຮັດ. ມະນຸດອາດຈະບໍ່ເຊື່ອຟັງຫຼາຍ. ມີໂອກາດທີ່ມະນຸດບາງຄົນທີ່ກຳລັງເຮັດໜ້າທີ່ໃດໜຶ່ງຈະຕັ້ງຄຳຖາມວ່າເຂົາເຈົ້າອາດຈະຖືກນຳໄປສູ່ເຂດທີ່ບໍ່ສະເໝີພາບຫຼືບໍ່. ພວກເຂົາເຈົ້າມີແນວໂນ້ມທີ່ຈະປະຕິເສດຄໍາສັ່ງທີ່ບໍ່ມີຈັນຍາບັນຫຼືບາງທີອາດຈະໄປເສັ້ນທາງຜູ້ແຈ້ງຂ່າວ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້). ຢ່າຄາດຫວັງວ່າ AI ຍຸກປະຈຸບັນປະຈໍາວັນຈະຕັ້ງຄໍາຖາມກ່ຽວກັບການຂຽນໂປຼແກຼມຂອງມັນ.
ຕໍ່ໄປພວກເຮົາຈະຫັນໄປຫາຜູ້ທີ່ໃຊ້ AI. ຖ້າເຈົ້າຊອກຫາເງິນກູ້ບ້ານ ແລະລົມກັບມະນຸດ, ເຈົ້າອາດຈະເຕືອນເຈົ້າວ່າ ມະນຸດກຳລັງໃຫ້ຄວາມສັ່ນສະເທືອນຂອງເຈົ້າຫຼືບໍ່. ເມື່ອໃຊ້ລະບົບ AI, ຄົນສ່ວນໃຫຍ່ເບິ່ງຄືວ່າມີຄວາມສົງໃສຫນ້ອຍ. ພວກເຂົາເຈົ້າມັກຈະສົມມຸດວ່າ AI ແມ່ນຍຸດຕິທໍາແລະ ergo ບໍ່ໄດ້ຮັບການ riled ຢ່າງໄວວາ. AI ປາກົດຂຶ້ນເພື່ອລໍ້ຄົນເຂົ້າໄປໃນ "ມັນເປັນພຽງແຕ່ເຄື່ອງຈັກ" trance. ຢູ່ເທິງສຸດນີ້, ມັນສາມາດຍາກທີ່ຈະພະຍາຍາມແລະປະທ້ວງ AI. ໃນທາງກົງກັນຂ້າມ, ການປະທ້ວງວິທີທີ່ທ່ານຖືກປະຕິບັດໂດຍຕົວແທນຂອງມະນຸດແມ່ນງ່າຍຂຶ້ນຫຼາຍແລະໄດ້ຮັບການຍອມຮັບໂດຍທົ່ວໄປແລະຖືວ່າເປັນໄປໄດ້.
ທັງຫມົດທີ່ບອກແລ້ວ, AI ທີ່ມີຄວາມລໍາອຽງມີຄວາມລໍາອຽງມີຄວາມຫນ້າກຽດຕໍ່ມະນຸດທີ່ມີຄວາມລໍາອຽງ, ຄືໃນແງ່ຂອງຄວາມສາມາດໃນການໃຫ້ AI ນໍາໃຊ້ຄວາມລໍາອຽງເຫຼົ່ານັ້ນໃນລະດັບຂະຫນາດໃຫຍ່, ດໍາເນີນການໂດຍບໍ່ມີການຈັບຫຼືມີຜູ້ບໍລິໂພກ. ຮັບຮູ້ສິ່ງທີ່ຖືກລົບກວນເກີດຂຶ້ນ.
ໃນຈຸດເຊື່ອມຕໍ່ຂອງການສົນທະນານີ້, ຂ້າພະເຈົ້າຂໍວາງເດີມພັນວ່າທ່ານຕ້ອງການຕົວຢ່າງເພີ່ມເຕີມບາງຢ່າງທີ່ອາດຈະສະແດງໃຫ້ເຫັນເຖິງຄວາມຂັດແຍ້ງຂອງຄວາມລໍາອຽງຂອງ AI ໃນລະດັບສູງ.
ຂ້ອຍດີໃຈທີ່ເຈົ້າຖາມ.
ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.
ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດອັນໜຶ່ງກ່ຽວກັບຄວາມລຳອຽງຂອງ AI ໃນລະດັບສູງ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນຫຍັງ?
ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.
ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່ມີຄວາມຕ້ອງການສໍາລັບການຂັບລົດຂອງມະນຸດ, ແລະບໍ່ມີການຈັດສັນສໍາລັບມະນຸດຂັບລົດໄດ້. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.
ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ
ໃນຖານະເປັນການຊີ້ແຈງ, ລົດທີ່ຂັບຂີ່ດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນສິ່ງທີ່ AI ຂັບຂີ່ລົດທັງ ໝົດ ດ້ວຍຕົນເອງແລະບໍ່ມີການຊ່ວຍເຫຼືອໃດໆຂອງມະນຸດໃນເວລາເຮັດວຽກຂັບລົດ.
ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).
ຍັງບໍ່ທັນມີລົດທີ່ຂັບດ້ວຍຕົນເອງທີ່ແທ້ຈິງໃນລະດັບ 5, ເຊິ່ງພວກເຮົາຍັງບໍ່ຮູ້ວ່າມັນຈະເປັນໄປໄດ້ບໍ່ທີ່ຈະບັນລຸໄດ້, ແລະມັນຈະໃຊ້ເວລາດົນປານໃດເພື່ອຈະໄປເຖິງ.
ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).
ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).
ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.
ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.
ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI Biass ໃນຂະຫນາດ
ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.
ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.
AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.
ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.
ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?
ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.
ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.
ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.
ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.
ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.
ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.
ດຽວນີ້ພວກເຮົາເລີ່ມຕົ້ນທີ່ຈະລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະຄວາມເປັນໄປໄດ້ຂອງ AI ດ້ານຈັນຍາບັນທີ່ປະກອບດ້ວຍການຂຸດຄົ້ນຄວາມລໍາອຽງຂອງ AI ທີ່ຖືກປະກາດໃນຂອບເຂດຂະຫນາດໃຫຍ່.
ໃຫ້ເຮົາໃຊ້ຕົວຢ່າງທີ່ກົງໄປກົງມາ. ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ກໍາລັງແລ່ນຢູ່ໃນຖະໜົນໃກ້ບ້ານຂອງເຈົ້າ ແລະເບິ່ງຄືວ່າຈະຂັບຂີ່ຢ່າງປອດໄພ. ໃນຕອນທໍາອິດ, ທ່ານໄດ້ເອົາໃຈໃສ່ເປັນພິເສດໃນແຕ່ລະຄັ້ງທີ່ເຈົ້າສາມາດແນມເບິ່ງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍານພາຫະນະທີ່ປົກຄອງຕົນເອງໄດ້ຢືນຢູ່ຂ້າງນອກດ້ວຍເຊັນເຊີເອເລັກໂຕຣນິກທີ່ປະກອບມີກ້ອງຖ່າຍຮູບວິດີໂອ, ຫນ່ວຍ radar, ອຸປະກອນ LIDAR, ແລະອື່ນໆ. ຫຼັງຈາກຫຼາຍອາທິດຂອງລົດຂັບລົດດ້ວຍຕົນເອງລ່ອງເຮືອໃນທົ່ວຊຸມຊົນຂອງທ່ານ, ໃນປັດຈຸບັນທ່ານເກືອບບໍ່ໄດ້ສັງເກດເຫັນມັນ. ຕາມທີ່ເຈົ້າເປັນຫ່ວງ, ມັນເປັນພຽງແຕ່ລົດອີກຄັນໜຶ່ງທີ່ຢູ່ເທິງຖະໜົນຫົນທາງສາທາລະນະທີ່ຫຍຸ້ງຢູ່ແລ້ວ.
ຢ້ານວ່າເຈົ້າຄິດວ່າມັນເປັນໄປບໍ່ໄດ້ ຫຼື ໄຮ້ເຫດຜົນທີ່ຈະຄຸ້ນເຄີຍກັບການເຫັນລົດຂັບລົດຕົນເອງ, ຂ້ອຍໄດ້ຂຽນເລື້ອຍໆກ່ຽວກັບວ່າທ້ອງຖິ່ນທີ່ຢູ່ໃນຂອບເຂດຂອງການທົດລອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ຄ່ອຍໆຄຸ້ນເຄີຍກັບການເຫັນລົດຍົນທີ່ໂດດເດັ່ນແນວໃດ, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້. ໃນທີ່ສຸດຄົນທ້ອງຖິ່ນຫຼາຍຄົນໄດ້ປ່ຽນຈາກປາກເປົ່າແກວ່ງປາກເປັນສຽງດັງ ກາຍເປັນຄວາມເບື່ອໜ່າຍອັນກວ້າງໃຫຍ່ໄພສານ ເພື່ອເປັນພະຍານເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ລ້ຽວນັ້ນ.
ອາດຈະເປັນເຫດຜົນຕົ້ນຕໍໃນປັດຈຸບັນທີ່ເຂົາເຈົ້າອາດຈະສັງເກດເຫັນຍານພາຫະນະອັດຕະໂນມັດແມ່ນຍ້ອນວ່າປັດໄຈລະຄາຍເຄືອງແລະ exasperation ໄດ້. ລະບົບການຂັບຂີ່ AI ທີ່ເຮັດມາຈາກປື້ມບັນທຶກໃຫ້ແນ່ໃຈວ່າລົດໄດ້ປະຕິບັດຕາມການຈໍາກັດຄວາມໄວທັງຫມົດແລະກົດລະບຽບຂອງຖະຫນົນ. ສໍາລັບຄົນຂັບລົດທີ່ວຸ້ນວາຍຢູ່ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດແບບດັ້ງເດີມ, ເຈົ້າຮູ້ສຶກຕົກໃຈໃນບາງຄັ້ງເມື່ອຕິດຢູ່ຫຼັງລົດທີ່ຂັບເອງຕາມກົດໝາຍ AI ຢ່າງເຂັ້ມງວດ.
ນັ້ນແມ່ນບາງສິ່ງບາງຢ່າງທີ່ພວກເຮົາທຸກຄົນອາດຈະຕ້ອງເຮັດໃຫ້ເຄຍຊີນ, ຖືກຕ້ອງຫຼືຜິດ.
ກັບຄືນໄປບ່ອນ tale ຂອງພວກເຮົາ.
ປະກົດວ່າມີສອງຄວາມກັງວົນທີ່ເບິ່ງບໍ່ເປັນຄືເລີ່ມເກີດຂຶ້ນກ່ຽວກັບລົດທີ່ຂັບເອງໄດ້ແບບ AI ໂດຍທົ່ວໄປແລ້ວທີ່ບໍ່ມີຄວາມຜິດ ແລະໄດ້ຮັບການຕ້ອນຮັບໂດຍທົ່ວໄປ, ໂດຍສະເພາະ:
ກ. ບ່ອນທີ່ AI ກໍາລັງແລ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເພື່ອຮັບການຂັບຂີ່ໄດ້ປະກົດຂຶ້ນເປັນຄວາມກັງວົນໃຈ
ຂ. ວິທີການທີ່ AI ກໍາລັງປະຕິບັດຕໍ່ຜູ້ຍ່າງທາງທີ່ລໍຄອຍທີ່ບໍ່ມີທາງຂວາໄດ້ເພີ່ມຂຶ້ນເປັນບັນຫາທີ່ຮີບດ່ວນ.
ໃນຕອນທໍາອິດ, AI ໄດ້ roaming ລົດຂັບລົດດ້ວຍຕົນເອງໃນທົ່ວເມືອງທັງຫມົດ. ໃຜກໍ່ຕາມທີ່ຕ້ອງການທີ່ຈະຮ້ອງຂໍການຂັບເຄື່ອນໃນລົດທີ່ຂັບລົດຕົນເອງໄດ້ມີໂອກາດເທົ່າທຽມກັນທີ່ຈະຊົມເຊີຍຫນຶ່ງ. ຄ່ອຍໆ, AI ໄດ້ເລີ່ມຕົ້ນທີ່ຈະຮັກສາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເປັນຕົ້ນຕໍ roaming ຢູ່ໃນພຽງແຕ່ຫນຶ່ງພາກສ່ວນຂອງຕົວເມືອງ. ພາກນີ້ແມ່ນຜູ້ສ້າງເງິນຫຼາຍກວ່າເກົ່າແລະລະບົບ AI ໄດ້ຖືກດໍາເນີນໂຄງການເພື່ອພະຍາຍາມແລະສ້າງລາຍໄດ້ສູງສຸດເປັນສ່ວນຫນຶ່ງຂອງການນໍາໃຊ້ໃນຊຸມຊົນ.
ສະມາຊິກຊຸມຊົນໃນເຂດທີ່ທຸກຍາກຂອງຕົວເມືອງມີແນວໂນ້ມຫນ້ອຍທີ່ຈະສາມາດຂີ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້. ອັນນີ້ແມ່ນຍ້ອນວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ຢູ່ໄກອອກໄປ ແລະ roaming ໃນພາກສ່ວນລາຍຮັບທີ່ສູງຂຶ້ນຂອງທ້ອງຖິ່ນ. ເມື່ອຄໍາຮ້ອງຂໍເຂົ້າມາຈາກເຂດຫ່າງໄກຂອງຕົວເມືອງ, ການຮ້ອງຂໍໃດໆຈາກສະຖານທີ່ໃກ້ຊິດທີ່ມີແນວໂນ້ມໃນສ່ວນ "ເປັນທີ່ເຄົາລົບ" ຂອງເມືອງຈະໄດ້ຮັບຄວາມສໍາຄັນສູງກວ່າ. ໃນທີ່ສຸດ, ການມີລົດຂັບລົດດ້ວຍຕົນເອງຢູ່ບ່ອນໃດບ່ອນໜຶ່ງນອກເໜືອໄປຈາກເຂດທີ່ອຸດົມສົມບູນຂອງເມືອງແມ່ນເກືອບເປັນໄປບໍ່ໄດ້, ເປັນສິ່ງທີ່ໜ້າຕື່ນເຕັ້ນຫຼາຍສຳລັບຜູ້ທີ່ອາໄສຢູ່ໃນເຂດທີ່ຂາດແຄນຊັບພະຍາກອນໃນປັດຈຸບັນ.
ທ່ານສາມາດຍືນຍັນວ່າ AI ໄດ້ລົງຈອດຢູ່ໃນຮູບແບບຂອງການຈໍາແນກຕົວແທນ (ຍັງມັກຈະເອີ້ນວ່າການຈໍາແນກທາງອ້ອມ). AI ບໍ່ໄດ້ຕັ້ງໂຄງການເພື່ອຫຼີກເວັ້ນເຂດທີ່ທຸກຍາກເຫຼົ່ານັ້ນ. ແທນທີ່ຈະ, ມັນ "ຮຽນຮູ້" ທີ່ຈະເຮັດແນວນັ້ນໂດຍຜ່ານການນໍາໃຊ້ ML / DL.
ສິ່ງດັ່ງກ່າວແມ່ນ, ຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຂີ່ລົດຍົນໄດ້ເປັນທີ່ຮູ້ຈັກສໍາລັບການເຮັດສິ່ງດຽວກັນ, ເຖິງແມ່ນວ່າບໍ່ຈໍາເປັນພຽງແຕ່ຍ້ອນມຸມສ້າງລາຍໄດ້. ມີບາງຄົນຂັບລົດມະນຸດທີ່ຮ່ວມເດີນທາງທີ່ມີອະຄະຕິທີ່ບໍ່ໜ້າເຊື່ອກ່ຽວກັບການເອົາຜູ້ຂັບຂີ່ໃນບາງສ່ວນຂອງເມືອງ. ນີ້ແມ່ນປະກົດການທີ່ຮູ້ຈັກໜ້ອຍໜຶ່ງ ແລະ ເມືອງໄດ້ວາງມາດຕະການຕິດຕາມກວດກາ ເພື່ອຈັບຄົນຂັບຂີ່ມະນຸດ. ຜູ້ຂັບຂີ່ຂອງມະນຸດສາມາດປະສົບບັນຫາໃນການປະຕິບັດການຄັດເລືອກທີ່ບໍ່ແຊບ.
ສົມມຸດວ່າ AI ຈະບໍ່ຕົກຢູ່ໃນດິນຊາຍແບບດຽວກັນນັ້ນ. ບໍ່ມີການຕັ້ງການຕິດຕາມແບບພິເສດເພື່ອຕິດຕາມບ່ອນທີ່ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ໄດ້ໄປ. ພຽງແຕ່ຫຼັງຈາກສະມາຊິກຊຸມຊົນເລີ່ມຈົ່ມວ່າຜູ້ນໍາເມືອງຮັບຮູ້ສິ່ງທີ່ເກີດຂຶ້ນ. ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບປະເພດຂອງບັນຫາທົ່ວເມືອງເຫຼົ່ານີ້ທີ່ຍານພາຫະນະອັດຕະໂນມັດແລະລົດຂັບລົດຕົນເອງກໍາລັງຈະນໍາສະເຫນີ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍທີ່ ລິ້ງນີ້ຢູ່ນີ້ ແລະທີ່ອະທິບາຍການສຶກສາທີ່ນໍາພາໂດຍ Harvard ທີ່ຂ້າພະເຈົ້າໄດ້ຮ່ວມກັນຂຽນໃນຫົວຂໍ້.
ຕົວຢ່າງຂອງລັກສະນະໂຣມມິງຂອງລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ນີ້ສະແດງໃຫ້ເຫັນເຖິງການຊີ້ບອກກ່ອນຫນ້ານັ້ນວ່າມັນສາມາດມີສະຖານະການທີ່ເຮັດໃຫ້ເກີດຄວາມບໍ່ລໍາອຽງຂອງມະນຸດ, ເຊິ່ງການຄວບຄຸມໄດ້ຖືກວາງໄວ້, ແລະວ່າ AI ແທນຄົນຂັບລົດຂອງມະນຸດເຫຼົ່ານັ້ນໄດ້ຖືກປະຖິ້ມໄວ້. ຟຣີ. ແຕ່ຫນ້າເສຍດາຍ, AI ສາມາດເພີ່ມຂຶ້ນເປັນ mired ໃນຄວາມລໍາອຽງທີ່ຄ້າຍຄືກັນແລະເຮັດແນວນັ້ນໂດຍບໍ່ມີການ guardrails ພຽງພໍໃນສະຖານທີ່.
ອັນນີ້ຍັງສະແດງໃຫ້ເຫັນເຖິງຄວາມລຳອຽງຂອງ AI ໃນບັນຫາຂະໜາດ.
ໃນກໍລະນີຂອງຄົນຂັບລົດມະນຸດ, ພວກເຮົາອາດຈະມີຈໍານວນຫນ້ອຍຢູ່ທີ່ນີ້ຫຼືບ່ອນນັ້ນທີ່ກໍາລັງປະຕິບັດຄວາມບໍ່ສະເຫມີພາບໃນບາງຮູບແບບ. ສໍາລັບລະບົບການຂັບລົດ AI, ມັນມັກຈະເປັນຫນຶ່ງ AI ທີ່ເປັນເອກະພາບສໍາລັບເຮືອທັງຫມົດຂອງລົດຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ພວກເຮົາອາດຈະເລີ່ມຕົ້ນດ້ວຍການເວົ້າວ່າລົດຂັບລົດດ້ວຍຕົນເອງຫ້າສິບຄັນໃນຕົວເມືອງ (ທັງຫມົດແມ່ນແລ່ນດ້ວຍລະຫັດ AI ດຽວກັນ), ແລະຄ່ອຍໆເພີ່ມຂຶ້ນເພື່ອສົມມຸດວ່າ 500 ລົດຂັບລົດດ້ວຍຕົນເອງ (ທັງຫມົດແມ່ນແລ່ນດ້ວຍລະຫັດ AI ດຽວກັນ). ເນື່ອງຈາກລົດທີ່ຂັບເອງທັງໝົດຫ້າຮ້ອຍຄັນນັ້ນຖືກແລ່ນດ້ວຍ AI ດຽວກັນ, ພວກມັນລ້ວນແຕ່ຂຶ້ນກັບຄວາມລຳອຽງ ແລະຄວາມບໍ່ສະເໝີພາບທີ່ມາຈາກ AI ດຽວກັນ.
ການປັບຂະໜາດເຮັດໃຫ້ເຮົາເຈັບປວດໃນເລື່ອງນັ້ນ.
ຕົວຢ່າງທີສອງກ່ຽວຂ້ອງກັບ AI ກໍານົດວ່າຈະຢຸດສໍາລັບການລໍຖ້າຄົນຍ່າງທາງທີ່ບໍ່ມີສິດທີ່ຈະຂ້າມຖະຫນົນ.
ແນ່ນອນເຈົ້າໄດ້ຂັບລົດໄປ ແລະໄດ້ພົບກັບຄົນຍ່າງທາງທີ່ລໍຖ້າຂ້າມຖະໜົນ ແຕ່ເຂົາເຈົ້າບໍ່ມີສິດທີ່ຈະເຮັດແນວນັ້ນ. ນີ້ຫມາຍຄວາມວ່າທ່ານມີການຕັດສິນໃຈທີ່ຈະຢຸດແລະປ່ອຍໃຫ້ພວກເຂົາຂ້າມ. ທ່ານສາມາດດໍາເນີນການໄດ້ໂດຍບໍ່ປ່ອຍໃຫ້ພວກເຂົາຂ້າມຜ່ານແລະຍັງຢູ່ໃນກົດລະບຽບການຂັບຂີ່ທີ່ຖືກຕ້ອງຕາມກົດຫມາຍຂອງການເຮັດເຊັ່ນນັ້ນ.
ການສຶກສາກ່ຽວກັບວິທີທີ່ຄົນຂັບລົດມະນຸດຕັດສິນໃຈຢຸດ ຫຼືບໍ່ຢຸດສຳລັບຄົນຍ່າງທາງນັ້ນ ໄດ້ແນະນຳວ່າ ບາງຄັ້ງຄົນຂັບລົດມະນຸດເລືອກໂດຍພື້ນຖານຂອງຄວາມລຳອຽງທີ່ບໍ່ມີເຫດຜົນ. ຄົນຂັບລົດມະນຸດອາດຈະແນມເບິ່ງຄົນຍ່າງ ແລະເລືອກທີ່ຈະບໍ່ຢຸດ, ເຖິງແມ່ນວ່າເຂົາເຈົ້າຈະຢຸດແລ້ວກໍຕາມ ຖ້າຄົນຍ່າງມີຮູບຮ່າງທີ່ແຕກຕ່າງເຊັ່ນ: ອີງໃສ່ເຊື້ອຊາດ ຫຼືເພດ. ຂ້າພະເຈົ້າໄດ້ກວດການີ້ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI ແມ່ນໂຄງການເພື່ອຈັດການກັບຄໍາຖາມທີ່ຈະຢຸດຫລືບໍ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາ. ນີ້ແມ່ນວິທີທີ່ຜູ້ພັດທະນາ AI ຕັດສິນໃຈຂຽນໂປຣແກຣມນີ້. ພວກເຂົາເຈົ້າເກັບກໍາຂໍ້ມູນຈາກກ້ອງຖ່າຍຮູບວິດີໂອຂອງຕົວເມືອງທີ່ວາງໄວ້ທົ່ວເມືອງ. ຂໍ້ມູນສະແດງໃຫ້ເຫັນຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຢຸດສໍາລັບຄົນຍ່າງທາງທີ່ບໍ່ມີທາງຂວາແລະຄົນຂັບລົດຂອງມະນຸດທີ່ບໍ່ຢຸດ. ມັນໄດ້ຖືກລວບລວມທັງຫມົດເຂົ້າໄປໃນຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່.
ໂດຍການນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກແລະການຮຽນຮູ້ເລິກ, ຂໍ້ມູນໄດ້ຖືກສ້າງແບບຈໍາລອງໃນຄອມພິວເຕີ້. ລະບົບການຂັບຂີ່ AI ຫຼັງຈາກນັ້ນໃຊ້ຮູບແບບນີ້ເພື່ອຕັດສິນໃຈວ່າເວລາໃດຈະຢຸດຫຼືບໍ່ຢຸດ. ໂດຍທົ່ວໄປແລ້ວ, ແນວຄວາມຄິດແມ່ນວ່າສິ່ງໃດກໍ່ຕາມທີ່ປະເພນີທ້ອງຖິ່ນປະກອບດ້ວຍ, ນີ້ແມ່ນວິທີທີ່ AI ກໍາລັງຊີ້ນໍາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ.
ເພື່ອຄວາມແປກໃຈຂອງຜູ້ນໍາເມືອງແລະຊາວເມືອງ, ເຫັນໄດ້ຊັດເຈນວ່າ AI ໄດ້ເລືອກທີ່ຈະຢຸດຫຼືບໍ່ຢຸດໂດຍອີງໃສ່ຮູບລັກສະນະຂອງຜູ້ຍ່າງທາງ, ລວມທັງເຊື້ອຊາດແລະເພດຂອງພວກເຂົາ. ເຊັນເຊີຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະສະແກນຄົນຍ່າງທາງທີ່ລໍຖ້າ, ປ້ອນຂໍ້ມູນນີ້ເຂົ້າໄປໃນແບບຈໍາລອງ ML/DL, ແລະຕົວແບບຈະປ່ອຍສັນຍານໃຫ້ກັບ AI ວ່າຈະຢຸດ ຫຼື ສືບຕໍ່. ໂສກເສົ້າ, ເມືອງດັ່ງກ່າວມີອະຄະຕິການຂັບຂີ່ຂອງມະນຸດຫຼາຍໃນເລື່ອງນີ້ແລະ AI ກໍາລັງເຮັດແບບດຽວກັນ.
ຕົວຢ່າງນີ້ສະແດງໃຫ້ເຫັນເຖິງລະບົບ AI ພຽງແຕ່ອາດຈະຊ້ໍາກັນກັບຄວາມລໍາອຽງທີ່ມີຢູ່ແລ້ວຂອງມະນຸດ. ນອກຈາກນັ້ນ, ມັນເຮັດໄດ້ໃນລະດັບ. ບາງເທື່ອຄົນຂັບມະນຸດຄົນໃດຄົນໜຶ່ງອາດຈະຖືກສອນໃຫ້ເຮັດແບບນັ້ນແບບບໍ່ເຂົ້າໃຈ ຫຼືອາດຈະຖືກເລືອກໃຫ້ເຮັດແບບນັ້ນເອງ, ແຕ່ໂອກາດທີ່ຄົນຂັບມະນຸດສ່ວນໃຫຍ່ອາດຈະບໍ່ເຮັດແບບນີ້.
ໃນທາງກົງກັນຂ້າມ, ລະບົບການຂັບຂີ່ AI ທີ່ຖືກນໍາໃຊ້ເພື່ອຂັບລົດຂັບລົດດ້ວຍຕົນເອງມີແນວໂນ້ມທີ່ຈະປະຕິບັດຄວາມລໍາອຽງທີ່ໄດ້ມາຢ່າງຫນ້າລັງກຽດ.
ສະຫຼຸບ
ມີຫຼາຍວິທີທີ່ຈະພະຍາຍາມ ແລະຫຼີກລ່ຽງການສ້າງ AI ທີ່ມີອະຄະຕິທີ່ບໍ່ຂຶ້ນກັບ ຫຼືວ່າມີອະຄະຕິເມື່ອເວລາຜ່ານໄປ. ຫຼາຍເທົ່າທີ່ເປັນໄປໄດ້, ແນວຄວາມຄິດແມ່ນເພື່ອຈັບບັນຫາກ່ອນທີ່ທ່ານຈະເຂົ້າໄປໃນເຄື່ອງມືສູງແລະ ramp ເຖິງສໍາລັບການປັບຂະຫນາດ. ຫວັງວ່າ, ຄວາມລໍາອຽງບໍ່ໄດ້ອອກຈາກປະຕູ, ສະນັ້ນເວົ້າ.
ສົມມຸດວ່າວິທີການຫນຶ່ງຫຼືຄວາມລໍາອຽງອື່ນຈະເກີດຂື້ນໃນ AI. ເມື່ອທ່ານຖືກ ນຳ ໃຊ້ເຂົ້າໃນຂະ ໜາດ ໃຫຍ່ດ້ວຍ AI, ທ່ານບໍ່ສາມາດເຮັດ ໜຶ່ງ ໃນແນວຄິດທີ່ປະກາດເລື້ອຍໆກ່ຽວກັບເຕັກໂນໂລຢີ "ໄຟແລະລືມ". ທ່ານຕ້ອງມີຄວາມພາກພຽນສືບຕໍ່ຕິດຕາມສິ່ງທີ່ AI ກໍາລັງເຮັດແລະຊອກຫາວິທີທີ່ຈະກວດພົບຄວາມລໍາອຽງທີ່ບໍ່ດີທີ່ຕ້ອງໄດ້ຮັບການແກ້ໄຂ.
ດັ່ງທີ່ໄດ້ຊີ້ໃຫ້ເຫັນກ່ອນຫນ້ານີ້, ວິທີການຫນຶ່ງກ່ຽວຂ້ອງກັບການຮັບປະກັນວ່າຜູ້ພັດທະນາ AI ຮູ້ຈັກຈັນຍາບັນຂອງ AI ແລະດັ່ງນັ້ນຈຶ່ງກະຕຸ້ນໃຫ້ພວກເຂົາຢູ່ໃນຫົວຂອງພວກເຂົາເພື່ອດໍາເນີນໂຄງການ AI ເພື່ອຫລີກລ້ຽງບັນຫາເຫຼົ່ານີ້. ເສັ້ນທາງອື່ນປະກອບດ້ວຍການມີ AI ຕິດຕາມກວດກາຕົນເອງສໍາລັບພຶດຕິກໍາທີ່ບໍ່ມີຈັນຍາບັນແລະ / ຫຼືມີຊິ້ນສ່ວນຂອງ AI ອື່ນທີ່ຕິດຕາມລະບົບ AI ອື່ນໆສໍາລັບພຶດຕິກໍາທີ່ບໍ່ມີຈັນຍາບັນ. ຂ້າພະເຈົ້າໄດ້ກວມເອົາການແກ້ໄຂທີ່ມີທ່າແຮງອື່ນໆຈໍານວນຫລາຍໃນການຂຽນຂອງຂ້ອຍ.
ຄວາມຄິດສຸດທ້າຍສໍາລັບໃນປັດຈຸບັນ. ໄດ້ເລີ່ມຕົ້ນການສົນທະນານີ້ດ້ວຍຄໍາເວົ້າຂອງ Plato, ມັນອາດຈະເຫມາະສົມທີ່ຈະປິດການສົນທະນາດ້ວຍຄໍາເວົ້າທີ່ສະຫລາດອີກໂດຍ Plato.
Plato ກ່າວວ່າບໍ່ມີອັນຕະລາຍໃນການເຮັດຊ້ຳສິ່ງທີ່ດີ.
ຄວາມງ່າຍຂອງການກ້າວໄປເຖິງຂະໜາດດ້ວຍ AI ແມ່ນແນ່ນອນວ່າເປັນວິທີທາງທີ່ເໝາະສົມໃນການບັນລຸຄວາມປາຖະໜາອັນດີດັ່ງກ່າວ ເມື່ອ AI ເປັນຂອງ AI ສໍາລັບທີ່ດີ ແນວພັນ. ພວກເຮົາມັກເຮັດຊ້ຳສິ່ງທີ່ດີ. ເມື່ອ AI ເປັນ AI ສໍາລັບບໍ່ດີ ແລະເຕັມໄປດ້ວຍຄວາມລໍາອຽງແລະຄວາມບໍ່ສະເຫມີພາບທີ່ບໍ່ສະເຫມີພາບ, ພວກເຮົາອາດຈະອີງໃສ່ຂໍ້ສັງເກດຂອງ Plato ແລະເວົ້າວ່າມັນເປັນອັນຕະລາຍຫຼາຍໃນການເຮັດຊ້ໍາຄືນສິ່ງທີ່ບໍ່ດີ.
ຂໍໃຫ້ຟັງຄໍາເວົ້າທີ່ສະຫລາດຂອງ Plato ຢ່າງລະອຽດແລະສ້າງ AI ຂອງພວກເຮົາຕາມຄວາມເຫມາະສົມ.
ແຫຼ່ງຂໍ້ມູນ: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- ລະດັບໂລກ-ໂດຍສະເພາະ-ນໍ້າມັນເຊື້ອໄຟ-ຜ່ານ-looming-fully-autonomous-systems/