ການຊຸກຍູ້ຂອບເຂດຂອງຈັນຍາບັນ AI ໄປສູ່ໂລກທີ່ເຄັ່ງຕຶງຂອງ AI ດ້ານຈັນຍາບັນທີ່ຮຸນແຮງ, ເປັນຕົວຢ່າງທີ່ມີທ່າແຮງຜ່ານກໍລະນີການນໍາໃຊ້ລົດທີ່ຂັບລົດຕົນເອງທີ່ອີງໃສ່ AI vaunted.

ລັກສະນະເດັ່ນຂອງຈັນຍາບັນຂອງ AI ໄດ້ປະກົດຕົວຢ່າງແຜ່ຫຼາຍ ແລະ ຄວາມສົນໃຈໃນທຸກມື້ນີ້ໄດ້ເຂົ້າສູ່ສະພາບທີ່ເຫັນໄດ້ຊັດເຈນບໍ?

ບາງຄົນເບິ່ງຄືວ່າຕັດສິນໃຈຢ່າງແນ່ນອນ.

ໃຫ້ພວກເຮົາເອົາອັນນີ້ອອກ.

ໂດຍທົ່ວໄປແລ້ວທ່ານອາດຈະຮູ້ດີວ່າມີທ່າອ່ຽງເພີ່ມຂຶ້ນຂອງຄວາມສົນໃຈໃນຜົນກະທົບດ້ານຈັນຍາບັນຂອງ AI. ນີ້ມັກຈະຖືກເອີ້ນວ່າຈັນຍາບັນ AI ຫຼືຈັນຍາບັນ AI, ເຊິ່ງພວກເຮົາຈະພິຈາລະນາໃນທີ່ນີ້ທັງສອງ monikers ທີ່ມີຄວາມຄ້າຍຄືກັນແລະສາມາດແລກປ່ຽນກັນໄດ້ (ຂ້າພະເຈົ້າຄິດວ່າບາງຄົນອາດຈະ quibble ກ່ຽວກັບສົມມຸດຕິຖານນັ້ນ, ແຕ່ຂ້າພະເຈົ້າຢາກແນະນໍາວ່າພວກເຮົາບໍ່ໄດ້ຮັບການ distracted ໂດຍ. ຄວາມແຕກຕ່າງທີ່ເປັນໄປໄດ້, ຖ້າມີ, ສໍາລັບຈຸດປະສົງຂອງການສົນທະນານີ້).

ສ່ວນຫນຶ່ງຂອງເຫດຜົນທີ່ວ່າການພິຈາລະນາດ້ານຈັນຍາບັນແລະສິນທໍາເພີ່ມຂຶ້ນກ່ຽວກັບ AI ແມ່ນເນື່ອງມາຈາກການເພີ່ມຂຶ້ນເທື່ອລະກ້າວຂອງອັນທີ່ເອີ້ນວ່າ. AI ສໍາລັບບໍ່ດີ. ເຈົ້າເຫັນ, ໃນເບື້ອງຕົ້ນຄື້ນຫລ້າສຸດຂອງ AI ໄດ້ຖືກຮັບຮູ້ວ່າເປັນການສະເຫນີຂາຍຕົ້ນຕໍ AI ສໍາລັບທີ່ດີ. ນີ້ແມ່ນຄວາມຄິດທີ່ AI ສາມາດຊ່ວຍໃນການແກ້ໄຂບັນຫາຈໍານວນຫຼາຍທີ່ບໍ່ສາມາດແກ້ໄຂໄດ້ທີ່ຄອມພິວເຕີ້ມີມາກ່ອນທີ່ບໍ່ສາມາດທີ່ຈະຊ່ວຍໄດ້. ໃນທີ່ສຸດພວກເຮົາອາດຈະພົບວ່າຕົວເອງໃຊ້ AI ເພື່ອແກ້ໄຂບັນຫາທີ່ຍາກທີ່ສຸດໃນໂລກ.

ຄຽງຄູ່ກັບການເດີນທາງທີ່ຂ້ອນຂ້າງຝັນນັ້ນ, ຄວາມເປັນຈິງໄດ້ຕີກັບບ້ານວ່າມີອີກດ້ານຫນຶ່ງຂອງຫຼຽນ. ນັ້ນແມ່ນ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງ, ທ່ານອາດຈະຮູ້ກ່ຽວກັບ brouhaha ໃນໄລຍະການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ເຊິ່ງບາງຄັ້ງມີຄວາມລໍາອຽງທາງດ້ານເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ໃນລິ້ງນີ້ທີ່ນີ້). ບໍ່​ດີ. ໃນປັດຈຸບັນມີຫຼາຍໆກໍລະນີທີ່ຊັດເຈນຂອງລະບົບ AI ທີ່ມີຄວາມບໍ່ສະເຫມີພາບຫຼາຍຢ່າງທີ່ສ້າງຂຶ້ນໃນການປະຕິບັດການຕັດສິນໃຈຂອງລະບົບ algorithmic (ADM).

ບາງບັນຫາ dour ພາຍໃນ AI ແມ່ນຂອບເຂດຊາຍແດນທາງດ້ານຈັນຍາບັນ, ໃນຂະນະທີ່ບັນຫາອື່ນໆແມ່ນຂ້ອນຂ້າງເກີນຂອບເຂດດ້ານຈັນຍາບັນທີ່ສົມເຫດສົມຜົນ. ນອກຈາກນັ້ນ, ທ່ານສາມາດນັບໄດ້ເຊັ່ນກັນວ່າ AI ອາດຈະປະຕິບັດຢ່າງຜິດກົດໝາຍ ຫຼື ບໍ່ມີການຫ້າມຜູ້ກະທຳຜິດກົດໝາຍ. ສອງ​ຂັ້ນ​ຕອນ​ຂອງ​ການ​ໄດ້​ຮັບ​ການ​ຕີ​ລາ​ຄາ​ຕາມ​ກົດ​ຫມາຍ​ແລະ​ໂດຍ​ຈັນ​ຍາ​ບັນ​ຫຼາຍ​ແມ່ນ​ຈຸດ​ປະ​ສົງ​ເພື່ອ​ເຮັດ​ໃຫ້​ການ​ຊັກ​ຊ້າ​ລົງ AI ສໍາລັບບໍ່ດີ ແລະຊອກຫາວິທີປ້ອງກັນການໂຈມຕີຢ່າງຕໍ່ເນື່ອງຂອງ AI ທີ່ໂດຍຄ່າເລີ່ມຕົ້ນອາດຈະຖືກກໍາຈັດຢ່າງເຕັມສ່ວນດ້ວຍອົງປະກອບທີ່ຜິດສິນລະທໍາແລະຜິດກົດຫມາຍຢ່າງຮ້າຍແຮງ.

ຂ້າພະເຈົ້າໄດ້ກວມເອົາຫົວຂໍ້ດ້ານຈັນຍາບັນ AI ຢ່າງກວ້າງຂວາງໃນຄໍລໍາຂອງຂ້ອຍ, ເຊັ່ນ: ການຄຸ້ມຄອງຢູ່ໃນລິ້ງນີ້ແລະໃນການເຊື່ອມຕໍ່ນີ້, ພຽງແຕ່ບອກຊື່ຈໍານວນຫນ້ອຍຫນຶ່ງ. ຊຸດຫນຶ່ງທີ່ຂ້ອນຂ້າງທົ່ວໄປຂອງປັດໃຈ AI ດ້ານຈັນຍາບັນປະກອບດ້ວຍການເອົາໃຈໃສ່ກັບຄຸນລັກສະນະເຫຼົ່ານີ້ຂອງ AI:

  • ຄວາມຍຸດຕິ ທຳ
  • ຄວາມ​ໂປ່ງ​ໃສ
  • ການອະທິບາຍ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຄວາມໄວ້ວາງໃຈ
  • ກຽດຕິຍົດ
  • ຜົນປະໂຫຍດ
  • ແລະອື່ນໆ

ເຫຼົ່ານີ້ແມ່ນສິ່ງກໍ່ສ້າງທາງສັງຄົມທີ່ອ້າງເຖິງເລື້ອຍໆທີ່ພວກເຮົາຄວນຈະພິຈາລະນາໃນເວລາທີ່ມັນມາກັບ crafting ແລະພາກສະຫນາມຂອງ AI ໃນມື້ນີ້. ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າຖ້າທ່ານເບິ່ງບົດຄວາມຫຼືບົດຄວາມ blog ທີ່ກວມເອົາຈັນຍາບັນ AI, ທ່ານຈະພົບວ່າຫົວຂໍ້ຂອງສິ້ນແມ່ນສຸມໃສ່ຫນຶ່ງໃນປັດໃຈຫຼືຄຸນລັກສະນະທີ່ໄດ້ກ່າວມາຂ້າງເທິງ.

ຂ້າ​ພະ​ເຈົ້າ​ເຊື່ອ​ວ່າ​ໂດຍ​ແລະ​ຂະ​ຫນາດ​ໃຫຍ່​ຜູ້​ທີ່​ຮຽກ​ຮ້ອງ​ໃຫ້​ມີ​ຈັນ​ຍາ​ບັນ AI ຈະ​ເຫັນ​ດີ​ວ່າ​ປັດ​ໄຈ​ເຫຼົ່າ​ນັ້ນ​ມີ​ຄ່າ​ຄວນ​ທີ່​ຈະ​ເອົາ​ໃຈ​ໃສ່​. ແທ້ຈິງແລ້ວ, ບັນຫາທີ່ແທ້ຈິງເບິ່ງຄືວ່າຜູ້ທີ່ສ້າງ AI ແລະຜູ້ທີ່ປະກາດ AI ບໍ່ໄດ້ປະກົດວ່າໄດ້ຮັບຂໍ້ຄວາມ. ສິ່ງດັ່ງກ່າວໄດ້ສ້າງຄວາມເດືອດຮ້ອນໃຫ້ແກ່ບັນດາການເຄື່ອນໄຫວໃນດ້ານຈັນຍາບັນຂອງ AI ເພື່ອອະທິບາຍຕື່ມອີກວ່າ ເປັນຫຍັງຄຸນລັກສະນະເຫຼົ່ານີ້ຈຶ່ງມີຄວາມສຳຄັນຫຼາຍ. ແຕ່ຫນ້າເສຍດາຍ, ຜູ້ພັດທະນາ AI ແລະບໍລິສັດຈໍານວນຫຼາຍທີ່ນໍາໃຊ້ AI ຄິດວ່ານີ້ແມ່ນດີທີ່ຈະມີ, ທາງເລືອກພຽງແຕ່, ຫຼືພວກເຂົາເຫັນວ່າ AI ດ້ານຈັນຍາບັນເປັນການປະຕິບັດທາງວິຊາການທີ່ບໍ່ມີຕົວຕົນຫຼາຍກ່ວາບາງສິ່ງບາງຢ່າງຂອງການປະຕິບັດປະຈໍາວັນ.

ຕາມການຄາດເດົາຂອງຂ້ອຍ, ຫຼາຍໆຄົນທີ່ມີຫົວຂອງພວກເຂົາຢູ່ໃນດິນຊາຍກ່ຽວກັບຈັນຍາບັນ AI ມື້ຫນຶ່ງຈະຕື່ນຂຶ້ນແລະຄົ້ນພົບຢ່າງໂຫດຮ້າຍວ່າພວກເຂົາຢູ່ພາຍໃຕ້ການລໍ້ລວງຂອງສັງຄົມແລະກົດຫມາຍ. ປະຊາຊົນຈະຮູ້ສຶກເສຍໃຈຫຼາຍເມື່ອຄົ້ນພົບວ່າ AI ທີ່ແຜ່ລາມໄປໃນສິນຄ້າ ແລະການບໍລິການທັງໝົດແມ່ນມີຄວາມລຳອຽງ ແລະຄວາມບໍ່ສະເໝີພາບທີ່ເກີດມາ. ບັນດານັກກົດ ໝາຍ ກຳ ລັງກົດດັນຕໍ່ກົດ ໝາຍ ໃໝ່ ເພື່ອພະຍາຍາມແລະຮັບປະກັນວ່າຜູ້ທີ່ສົ່ງເສີມ AI ດັ່ງກ່າວຈະຢູ່ພາຍໃຕ້ກົດລະບຽບທີ່ບໍ່ແນ່ນອນທາງດ້ານກົດ ໝາຍ, ສະນັ້ນເຮັດໃຫ້ມັນຍາກຫຼາຍ ສຳ ລັບຜູ້ສ້າງ AI ແລະຜູ້ທີ່ AI ໃນຂົງເຂດດັ່ງກ່າວເພື່ອຫຼຸດຜ່ອນຄວາມເປັນໄປໄດ້ທາງອາຍາທາງແພ່ງແລະໄອຍະການ. ຈາກ​ຄວາມ​ພະ​ຍາ​ຍາມ​ຂອງ​ເຂົາ​ເຈົ້າ​.

ໂດຍບໍ່ມີການເບິ່ງຄືວ່າຈະເສີຍໆ, ລໍ້ແຫ່ງຄວາມຍຸຕິທໍາຈະຢຽດທາງຂອງພວກເຂົາໄປສູ່ຜູ້ທີ່ກໍາລັງປ່ອຍອອກມາແລະຊຸກຍູ້ໄປສູ່ AI.

ເພື່ອຊີ້ແຈງ, ໄດ້ AI ສໍາລັບບໍ່ດີ ບໍ່ ຈຳ ເປັນຕ້ອງໄດ້ລະບຸວ່າເປັນນັກສະແດງທີ່ຊົ່ວຮ້າຍເທົ່ານັ້ນ. ປະກົດວ່າຜູ້ພັດທະນາ AI ສ່ວນໃຫຍ່ ແລະຜູ້ທີ່ໃຫ້ບໍລິການ AI ສູ່ໂລກໃນຈໍານວນຫຼວງຫຼາຍມັກຈະບໍ່ຮູ້ເຖິງສິ່ງທີ່ເຂົາເຈົ້າມີຢູ່ໃນມືຂອງເຂົາເຈົ້າ. ປາກົດວ່າສຽງເຕືອນກ່ຽວກັບຈັນຍາບັນ AI ຍັງບໍ່ທັນເຂົ້າຫູຂອງເຂົາເຈົ້າເທື່ອ. ເຈົ້າສາມາດມີຄວາມເຫັນອົກເຫັນໃຈສໍາລັບຜູ້ທີ່ມີຄວາມສຸກທີ່ບໍ່ຮູ້ຕົວ, ເຖິງແມ່ນວ່ານີ້ບໍ່ໄດ້ແກ້ຕົວພວກເຂົາອອກຈາກຄວາມຮັບຜິດຊອບແລະຫນ້າທີ່ສູງສຸດຂອງການດູແລຂອງພວກເຂົາ.

ຂ້າພະເຈົ້າຢາກບອກສັ້ນໆວ່າເຈົ້າບໍ່ຄວນຕົກຢູ່ໃນກັບດັກທາງຈິດໃຈທີ່ຂີ້ຮ້າຍທີ່ການຕໍານິສໍາລັບ AI ທີ່ບໍ່ດີວາງຢູ່ຕີນຂອງ AI ເອງ. ນີ້ແມ່ນເກືອບຫົວເລາະ, ເຖິງແມ່ນວ່າມັນຍັງຄົງຖືກນໍາໃຊ້ເປັນບ່ອນຫລົບຫນີແລະເບິ່ງຄືວ່າຈະເຮັດວຽກເລື້ອຍໆກັບຜູ້ທີ່ບໍ່ຄຸ້ນເຄີຍກັບ AI ໃນທຸກມື້ນີ້. ເຈົ້າເຫັນ, AI ຂອງມື້ນີ້ບໍ່ມີຄວາມຮູ້ສຶກ. ບໍ່ໃກ້ຊິດ. ພວກເຮົາບໍ່ຮູ້ວ່າຄວາມຮູ້ສຶກ AI ເປັນໄປໄດ້ຫຼືບໍ່. ພວກ​ເຮົາ​ບໍ່​ຮູ້​ວ່າ​ເມື່ອ​ໃດ sentient AI ອາດ​ຈະ​ໄດ້​ຮັບ​ການ​ບັນ​ລຸ​ໄດ້.

ເສັ້ນທາງລຸ່ມແມ່ນວ່າເກມ AI ຕໍານິຕິຕຽນການລົບກວນທຸກຄົນໂດຍການຊີ້ນິ້ວມືທີ່ AI ເປັນພາກສ່ວນທີ່ຮັບຜິດຊອບແມ່ນ disingenuous ຖ້າບໍ່ແມ່ນການຫຼອກລວງທີ່ຫນ້າລັງກຽດທັງຫມົດ, ເບິ່ງ elicitation ຂອງຂ້າພະເຈົ້າກ່ຽວກັບເລື່ອງນີ້ຢູ່ໃນການເຊື່ອມຕໍ່ທີ່ນີ້. AI ທີ່ມີຢູ່ແມ່ນດໍາເນີນໂຄງການໂດຍຜູ້ພັດທະນາມະນຸດ. AI ທີ່ມີຢູ່ແລ້ວໄດ້ຖືກປ່ອຍອອກມາແລະເຮັດໃຫ້ມະນຸດມີໃຫ້. ບໍລິສັດທີ່ສ້າງ AI ແລະບໍລິສັດທີ່ອະນຸຍາດຫຼືຊື້ AI ສໍາລັບຈຸດປະສົງຂອງການນໍາໃຊ້ AI ພາຍໃນສິນຄ້າແລະການບໍລິການຂອງພວກເຂົາແມ່ນອີງໃສ່ມະນຸດທັງຫມົດ. ມະນຸດເປັນຜູ້ຮັບຜິດຊອບ, ບໍ່ແມ່ນ AI (ບາງທີ, ໃນອະນາຄົດ, ພວກເຮົາຈະມີ AI ທີ່ມີລັກສະນະທີ່ແຕກຕ່າງກັນແລະກ້າວຫນ້າ, ແລະໃນເວລານັ້ນພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ຕໍ່ສູ້ກັບຄວາມແຕກຕ່າງຂອງບ່ອນທີ່ຕໍານິຢູ່).

ເປັນການສະຫຼຸບສັ້ນໆ, ພວກເຮົາຄວນຈະຂໍຂອບໃຈທີ່ນັກຮ້ອງເພງ AI ທີ່ມີຈັນຍາບັນພະຍາຍາມຢ່າງເຂັ້ມງວດເພື່ອເຮັດໃຫ້ສັງຄົມຮັບຮູ້ກ່ຽວກັບຜົນສະທ້ອນດ້ານຈັນຍາບັນຂອງ AI. ດຽວນີ້, ມັນເກືອບຄ້າຍກັບການກະທໍາຂອງ Sisyphus ຂອງການມ້ວນກ້ອນຫີນຂຶ້ນເທິງພູທີ່ສູງຊັນ. ຫຼາຍຄົນທີ່ຄວນຟັງແມ່ນບໍ່ເຮັດແນວນັ້ນ. ຜູ້ທີ່ຟັງບໍ່ສະເຫມີໄດ້ຮັບການກະຕຸ້ນໃຫ້ດໍາເນີນການແກ້ໄຂ. ເຊັ່ນດຽວກັບ Sisyphus ມີວຽກງານທີ່ບໍ່ຫນ້າເຊື່ອໃນການຍູ້ກ້ອນຫີນນັ້ນຂຶ້ນເທິງເນີນພູຕະຫຼອດໄປ, ທ່ານສາມາດສົມມຸດວ່າ AI Ethics cacophony ໂດຍຄວາມຈໍາເປັນຈະຕ້ອງເປັນ ruckus ນິລັນດອນເຊັ່ນດຽວກັນ.

ມັນເບິ່ງຄືວ່າຈະແກ້ໄຂບັນຫາກ່ຽວກັບຈັນຍາບັນ AI ແລະພວກເຮົາອາດຈະກ້າວໄປສູ່ຫົວຂໍ້ອື່ນ.

ແຕ່, ລໍຖ້າ, ມີຫຼາຍ.

ທ່ານອາດຈະຕົກຕະລຶງ ຫຼືແມ້ກະທັ້ງຕົກໃຈທີ່ໄດ້ຮຽນຮູ້ວ່າບາງຄົນຢືນຢັນວ່າຮ່າງກາຍທີ່ມີຢູ່ແລ້ວຂອງການພິຈາລະນາດ້ານຈັນຍາບັນຂອງ AI ແມ່ນຖືກປະຕິເສດ. ແກນຫຼັກຫຼັກຂອງຈັນຍາບັນ AI ໄດ້ຕິດຢູ່ໃນກຸ່ມຄວາມຄິດຂອງ bailiwick, ເຂົາເຈົ້າໄດ້ຊັກຊວນຢ່າງໂຫດຮ້າຍ.

ນີ້ແມ່ນການຈັດການ.

ບັນຊີລາຍຊື່ທີ່ຊີ້ໃຫ້ເຫັນກ່ອນຫນ້າຂອງຂ້ອຍກ່ຽວກັບປັດໃຈດ້ານຈັນຍາບັນ AI ໄດ້ຖືກກ່າວເຖິງວ່າໄດ້ກາຍເປັນຄວາມອຸກອັ່ງທີ່ຂັດຂວາງໂດຍລູກເຮືອ AI ດ້ານຈັນຍາບັນ. ທຸກ​ຄົນ​ບໍ່​ຍອມ​ຮັບ​ເອົາ​ປັດ​ໄຈ​ເຫຼົ່າ​ນັ້ນ​ໂດຍ​ບໍ່​ມີ​ສະຕິ ແລະ​ຍັງ​ຄົງ​ຢູ່​ໃນ​ປັດ​ໄຈ​ດຽວ​ກັນ​ນັ້ນ, ຊ້ຳ​ແລ້ວ​ຊ້ຳ​ອີກ. ຄ້າຍກັບຫ້ອງສຽງສະທ້ອນ, ຄວາມມຸ່ງຫວັງຂອງນັກຈັນຍາບັນ AI ແມ່ນການຊ້ຳເພງດຽວກັນກັບຕົນເອງ, ສ້າງຄວາມພໍໃຈໃຫ້ກັບສຽງຂອງມັນ. ຈໍານວນຫນ້ອຍເຕັມໃຈທີ່ຈະແຍກອອກຈາກຊອງ. ຈິດໃຈຂອງຝູງສັດໄດ້ເອົາຊະນະ AI ດ້ານຈັນຍາບັນ (ດັ່ງນັ້ນມັນໄດ້ຖືກອ້າງວ່າ).

ຄວາມຂັດແຍ້ງນີ້ເກີດຂຶ້ນແນວໃດ? ປາກົດຂື້ນວ່າທ່ານສາມາດອະທິບາຍການນໍາມາໃຊ້ອັນບໍ່ສົມຄວນນີ້ຂອງ AI ດ້ານຈັນຍາບັນໂດຍອີງໃສ່ເຫດການທີ່ເກີດຂຶ້ນຫຼືໂດຍການອອກແບບ.

ໃນສະຖານະການທີ່ເກີດຂຶ້ນ, ປັດໃຈສໍາຄັນແມ່ນງ່າຍທີ່ຈະສຸມໃສ່ການ. ເຈົ້າບໍ່ ຈຳ ເປັນຕ້ອງອອກໄປນອກກ່ອງ, ຄືກັບມັນ. ຍິ່ງໄປກວ່ານັ້ນ, ຜູ້ທີ່ຢູ່ໃນ camp AI ດ້ານຈັນຍາບັນມີແນວໂນ້ມທີ່ຈະມີຄວາມສົນໃຈໃນການເຮັດວຽກທີ່ຄ້າຍຄືກັນຫຼືແນວຄວາມຄິດ, ແທນທີ່ຈະຊອກຫາແນວຄິດທີ່ນອກເຫນືອມາດຕະຖານ. ນົກຂອງຝູງນົກເປັນຝູງ. ນິ້ວໂດຍນິ້ວ, ເວທີຈັນຍາບັນຂອງ AI ໄດ້ຖືກກ່າວວ່າໄດ້ເຂົ້າໄປໃນກຸ່ມທີ່ແຄບແລະໂດຍທົ່ວໄປແລ້ວແມ່ນດີກັບຄວາມຄຸ້ນເຄີຍແລະຄວາມສະດວກສະບາຍທີ່ມັນ inures.

ຂ້າພະເຈົ້າແນ່ໃຈວ່າຈະເຮັດໃຫ້ເກີດຄວາມໂກດແຄ້ນຂອງຜູ້ເຂົ້າຮ່ວມດ້ານຈັນຍາບັນ AI ຫຼາຍຄົນ (ຈື່ໄວ້ວ່າຂ້າພະເຈົ້າພຽງແຕ່ກ່າວເຖິງສິ່ງທີ່ຄົນອື່ນກໍາລັງໂຕ້ແຍ້ງແລະບໍ່ຢືນຢັນການກ່າວຫາເຫຼົ່ານັ້ນ).

ຖ້າທ່ານຕ້ອງການ rachet ເຖິງຄວາມໂກດແຄ້ນ, ພິຈາລະນາຄໍາແນະນໍາວ່າປະກົດການດັ່ງກ່າວເກີດຂື້ນໂດຍການອອກແບບ. ຢູ່ໃນຂອບເຂດທິດສະດີສົມຮູ້ຮ່ວມຄິດບາງທີ, ມັນໄດ້ຖືກກ່າວວ່ານັກວິຊາການ AI ແລະບໍລິສັດເຕັກໂນໂລຢີແມ່ນປະກອບສ່ວນໂດຍກົງຫຼື subliminally ໃນການຫຼຸດຜ່ອນການພິຈາລະນາດ້ານຈັນຍາບັນ AI.

ເປັນຫຍັງເຂົາເຈົ້າຈຶ່ງເຮັດແນວນັ້ນ?

ພວກເຮົາຈະພິຈາລະນາຄວາມເປັນໄປໄດ້ສອງຢ່າງ.

ຄວາມຄິດອັນຫນຶ່ງແມ່ນວ່ານັກເທກໂນໂລຍີ AI ສະຫນັບສະຫນູນຊຸດການພິຈາລະນາດ້ານຈັນຍາບັນຂອງ AI ທີ່ມີຢູ່ແລ້ວນັບຕັ້ງແຕ່ປັດໃຈສະເພາະເຫຼົ່ານັ້ນແມ່ນມີຄວາມເຫມາະສົມທີ່ຈະແກ້ໄຂຜ່ານເຕັກໂນໂລຢີ. ຕົວຢ່າງ, ຖ້າທ່ານຕ້ອງການການອະທິບາຍ, ນັກເຕັກໂນໂລຢີ AI ແລະນັກຄົ້ນຄວ້າ AI ກໍາລັງເຮັດວຽກທັງກາງເວັນແລະກາງເວັນເພື່ອຜະລິດຄວາມສາມາດຂອງ AI (XAI) ທີ່ສາມາດອະທິບາຍໄດ້. ຄວາມງາມຫຼັງຈາກນັ້ນຂອງບັນຊີລາຍຊື່ທົ່ວໄປຂອງປັດໃຈ AI ດ້ານຈັນຍາບັນແມ່ນວ່າພວກເຂົາເຫມາະກັບຄວາມລະອຽດຂອງເຕັກໂນໂລຢີ AI. ຜູ້ທີ່ອ້າງເຖິງທິດສະດີນັ້ນແມ່ນເຫມາະສົມທີ່ຈະແນະນໍາວ່າປັດໃຈອື່ນໆທີ່ບໍ່ໄດ້ຮັບການແກ້ໄຂດ້ວຍເຕັກໂນໂລຢີຂອງ AI ແມ່ນບໍ່ສາມາດທີ່ຈະດຶງເອົາບັນຊີລາຍຊື່ປັດໃຈໄດ້.

ຫຼັງ​ຈາກ​ນັ້ນ​, ທ່ານ​ມີ​ຕົວ​ແປ​ອື່ນໆ nefarious ຫຼາຍ​. ມັນໄດ້ຖືກແນະນໍາວ່າມີບໍລິສັດເຕັກໂນໂລຢີສູງແລະບໍລິສັດອື່ນໆທີ່ຕ້ອງການໃຫ້ບໍລິການປາກທີ່ສໍາຄັນກັບເລື່ອງຈັນຍາບັນຂອງ AI. ໃນຄວາມ ໝາຍ ນັ້ນ, ພວກເຂົາມັກບັນຊີລາຍຊື່ສັ້ນກວ່າຂອງຄວາມກັງວົນທີ່ສາມາດແກ້ໄຂໄດ້ດ້ວຍເຕັກໂນໂລຢີ. ຄວາມພະຍາຍາມໃດໆທີ່ຈະເພີ່ມຄວາມກັງວົນອື່ນໆຈະເຮັດໃຫ້ຊີວິດທີ່ຫຍຸ້ງຍາກສໍາລັບບໍລິສັດເຕັກໂນໂລຢີເຫຼົ່ານັ້ນ. ພວກເຂົາຕ້ອງການຫຼຸດຜ່ອນການລົງທຶນທີ່ຈໍາເປັນເພື່ອປະກາດການປະກາດດ້ານຈັນຍາບັນ AI.

ຂ້າ​ພະ​ເຈົ້າ​ສົມ​ມຸດ​ວ່າ​ການ​ເວົ້າ​ແບບ​ນັ້ນ​ຖືກ​ຜູກ​ມັດ​ເພື່ອ​ຊຸກ​ຍູ້​ໃຫ້​ເກີດ​ການ​ປະ​ທະ​ກັນ​ແລະ​ໄປ​ໄກ​ເກີນ​ກວ່າ​ຄວາມ​ຄຽດ​ແຄ້ນ​ທີ່​ງ່າຍ​ດາຍ. ຜູ້ທີ່ພະຍາຍາມປະຕິບັດຕາມຢ່າງບໍ່ອິດເມື່ອຍແລະປະກອບສ່ວນເຂົ້າໃນດ້ານຈັນຍາບັນ AI ແມ່ນອາດຈະຖືກ smeared ໂດຍການຮຽກຮ້ອງເຫຼົ່ານັ້ນ, ແລະທ່ານສາມາດຈິນຕະນາການໄດ້ຢ່າງງ່າຍດາຍວ່າເປັນຫຍັງພວກເຂົາເຈົ້າຈະ outraged ໃນຂໍ້ກ່າວຫາທີ່ເບິ່ງຄືວ່າບໍ່ຫນ້າກຽດແລະທັງຫມົດ brazen.

ບໍ່ໃຫ້ເລີ່ມການຜິດຖຽງກັນ ແລະແທນທີ່ຈະໃຊ້ເວລາຢ່າງມີສະຕິ ແລະສະທ້ອນເບິ່ງວ່າມີຫຍັງອີກແດ່ທີ່ຄ້າຍ AI ດ້ານຈັນຍາບັນທີ່ຄາດວ່າຈະຂາດໄປ. ແຄ້ມອື່ນທີ່ຮ້ອງຂໍໃຫ້ຂະຫຍາຍແລະຂະຫຍາຍທັດສະນະຂອງ AI ດ້ານຈັນຍາບັນໃນຍຸກປະຈຸບັນແມ່ນບາງຄັ້ງເອີ້ນວ່າ. AI ດ້ານຈັນຍາບັນຮາກ.

ທ່ານອາດຈະສົງໄສວ່າ moniker ຂອງ Radical Ethical AI ແມ່ນເຫມາະສົມຫຼືບໍ່ຖືກຕ້ອນຮັບ.

ຄວາມຫມາຍຂອງບາງສິ່ງບາງຢ່າງທີ່ເປັນ "ຮາກ" ສາມາດດີຫຼືບໍ່ດີ. ການຕີຄວາມໝາຍອັນໜຶ່ງຂອງ AI ດ້ານຈັນຍາບັນຂອງ AI ແມ່ນວ່າມັນເປັນຄວາມພະຍາຍາມທີ່ຈະສັ່ນສະເທືອນສະຖານະພາບຂອງຈັນຍາບັນ AI. ການ​ນໍາ​ໃຊ້​ການ​ສະ​ແດງ​ໃຫ້​ເຫັນ "ຮາກ​" ທີ່​ພວກ​ເຮົາ​ຈໍາ​ເປັນ​ຕ້ອງ​ໄດ້​ເຮັດ​ໃຫ້​ມີ​ການ​ຫັນ​ເປັນ​ລະ​ຄອນ​ແລະ​ບໍ່​ພຽງ​ແຕ່​ປັບ​ເລັກ​ນ້ອຍ​ຫຼື​ອ່ອນ​ເພຍ​ເຮັດ​ໃຫ້ modicum ຂອງ swivel ໄດ້​. ທ່ານສາມາດໂຕ້ຖຽງວ່າການໃຊ້ "radical" ຈະເຮັດໃຫ້ເກີດອາການຊ໊ອກກັບວິທີການທີ່ມີຢູ່ແລ້ວຄ້າຍຄືກັບການໃຊ້ defibrillator ທີ່ບໍ່ດັ່ງນັ້ນໂດຍຜ່ານສົນທິສັນຍາປົກກະຕິຈະບໍ່ບັນລຸໄດ້.

ຄົນອື່ນຈະເວົ້າວ່າໂດຍການໃສ່ຄໍາວ່າ "ຮາກ" ທ່ານກໍາລັງສ້າງຄວາມສັບສົນຫຼາຍ. ບາງຄົນຈະຕີຄວາມໝາຍຂອງລັດທິຫົວຮຸນແຮງວ່າເປັນການອອກນອກປະເທດ, ເລື່ອນໄປຂ້າງໜ້າ eccentric ຫຼື oddball. Centrists ອາດຈະປະຕິເສດທັນທີທັນໃດແນວຄິດຂອງບໍ່ວ່າຈະມີ groupthink ເປັນອັນເນື່ອງມາຈາກການຕັ້ງຊື່ຢ່າງດຽວເປັນ contrivance ການກະທໍາຜິດ. ຫຼຸດສຽງເວົ້າອອກມາ, ບາງຄົນຈະເວົ້າ, ແລະເຈົ້າອາດຈະໄດ້ຮັບຄວາມສົນໃຈ ແລະຄວາມສົນໃຈຫຼາຍຂຶ້ນ.

ເຖິງວ່າຈະມີບັນຫາການຕັ້ງຊື່, ທ່ານອາດຈະຢາກຮູ້ຢາກເຫັນໂດຍທໍາມະຊາດວ່າມັນແມ່ນຫຍັງທີ່ຄ້າຍອື່ນນີ້ເຊື່ອວ່າສ່ວນທີ່ເຫຼືອຂອງພວກເຮົາຫາຍໄປ. ຫລີກໄປທາງຫນຶ່ງຕິກິຣິຍາ visceral ກັບ whatchamacallit ໄດ້.

ເຈົ້າອາດຈະຖາມພາຍນອກວ່າ, ຊີ້ນງົວຢູ່ໃສ?

ຂ້ອຍຈະພະຍາຍາມເປັນຕົວແທນບາງສ່ວນຂອງສ່ວນປະກອບທີ່ຂາດຫາຍໄປ.

ຫນ້າທໍາອິດ, ຫນຶ່ງອ້າງວ່າການຄວບຄຸມແມ່ນວ່າທັດສະນະທົ່ວໄປຂອງ AI ແບບດັ້ງເດີມ (ແບບເກົ່າ?) ຈັນຍາບັນ AI ແມ່ນຂໍ້ຈໍາກັດທີ່ເຊື່ອງໄວ້ສົມມຸດຕິຖານວ່າ AI ເປັນສິ່ງທີ່ຫຼີກລ່ຽງບໍ່ໄດ້. ດັ່ງນັ້ນ, ແທນທີ່ຈະກວດເບິ່ງວ່າ AI ຄວນຢູ່ໃນບັດສໍາລັບປະເພດຂອງການນໍາໃຊ້ໂດຍສະເພາະແລະສະຖານະການທາງສັງຄົມ, ຕໍາແຫນ່ງທີ່ເດັ່ນຊັດແມ່ນວ່າ AI ກໍາລັງມາແລະພວກເຮົາຈໍາເປັນຕ້ອງເຮັດໃຫ້ມັນເຂົ້າໄປໃນຮູບຮ່າງທີ່ດີທີ່ສຸດທີ່ເປັນໄປໄດ້. ເຈົ້າອາດຈະເວົ້າຢ່າງສະໝ່ຳສະເໝີວ່າ ອັນນີ້ຄ້າຍຄືກັບການທາລິບສະຕິກໃສ່ໝູ (ເຊັ່ນວ່າ ຍັງເປັນໝູຢູ່, ບໍ່ວ່າເຈົ້າຈະເຮັດຫຍັງເພື່ອເຮັດໃຫ້ມັນເບິ່ງຄືວ່າດີຂຶ້ນ).

ຖ້າເຈົ້າເອົາສິ່ງນັ້ນໄປຈົນສຸດຂີດ, ຄວາມບໍ່ຍຸຕິທຳ, ຄວາມເປັນສ່ວນຕົວ, ແລະສິ່ງທີ່ເຫຼືອແມ່ນອາດຈະເວົ້າໄດ້ວ່າເປັນຄືກັບການເລື່ອນຕັ່ງນັ່ງໄປມາຢູ່ເທິງດາດຟ້າຂອງກຳປັ່ນ Titanic. ເຮືອລໍານີ້ຍັງຈະຈົມລົງ, ຊຶ່ງຫມາຍຄວາມວ່າພວກເຮົາສົມມຸດວ່າ AI ກໍາລັງຈະເກີດຂຶ້ນ, ບໍ່ວ່າຈະເປັນແນວໃດ. ແຕ່, ບາງທີພວກເຮົາຄວນຈະພິຈາລະນາຄືນວ່າການຈົມລົງແມ່ນທາງເລືອກດຽວເທົ່ານັ້ນ.

ຂ້ອຍຈະກັບຄືນສູ່ການພິຈາລະນານີ້ໃນອີກບໍ່ດົນ.

ນີ້ແມ່ນເລື່ອງ AI ດ້ານຈັນຍາບັນທີ່ອ້າງວ່າໄວອັນອື່ນທີ່ບໍ່ໄດ້ຮັບການກໍານົດເວລາຂອງພວກເຂົາຫຼືຖືກບີບອອກໂດຍຄວາມອຸດົມສົມບູນຂອງຄວາມສົນໃຈກັບຫົວຂໍ້ອື່ນໆທີ່ມີຢູ່:

  • ນອກຈາກການນໍາໃຊ້ AI ໃນການຄຸ້ມຄອງມະນຸດ, ເຊັ່ນການເພີ່ມການນໍາໃຊ້ AI ໃນການຕັດສິນໃຈຈ້າງແລະ firing ໃນບໍລິສັດ, ຍັງມີ qualm ເຊັ່ນດຽວກັນກ່ຽວກັບການນໍາໃຊ້ AI ໃນການຄຸ້ມຄອງສັດ. ມີຄວາມພະຍາຍາມທີ່ຈະນໍາໃຊ້ AI ໃນຟາມ, ສວນສັດ, ແລະໂດຍທົ່ວໄປແລ້ວບ່ອນທີ່ສັດມັກຈະຖືກເກັບຮັກສາໄວ້. AI ຈະສົ່ງຜົນກະທົບຕໍ່ສະຫວັດດີການຂອງສັດແນວໃດ?
  • ມີບາງຄັ້ງທີ່ AI ເບິ່ງຄືວ່າຈະຖືກທົດສອບເບຕ້າຢູ່ໃນຊຸມຊົນທີ່ມີຄວາມສ່ຽງໂດຍສະເພາະ, ການເຮັດດັ່ງນັ້ນເປັນການທົດລອງຄັ້ງທໍາອິດ, ແລະຫຼັງຈາກນັ້ນ AI ຈະຖືກເຜີຍແຜ່ຢ່າງກວ້າງຂວາງ. ການເອົາໃຈໃສ່ດ້ານຈັນຍາບັນຂອງ AI ຄວນແນໃສ່ການປະຕິບັດເຫຼົ່ານັ້ນ.
  • ການສົນທະນາຫຼາຍຢ່າງປະກົດວ່າໄດ້ເກີດຂຶ້ນກ່ຽວກັບການທົດແທນຄົນງານດ້ວຍ AI, ເຖິງແມ່ນວ່າຈະມີຄວາມສົນໃຈຫນ້ອຍຕໍ່ຜົນກະທົບຂອງ AI ທີ່ເປັນເຄື່ອງມືຕິດຕາມກວດກາທີ່ໃຊ້ໃນການເບິ່ງແຍງພະນັກງານທີ່ມີຄ່າຈ້າງຕໍ່າ.
  • ຄວາມສົນໃຈທີ່ບໍ່ພຽງພໍເບິ່ງຄືວ່າຈະເກີດຂຶ້ນກ່ຽວກັບຜົນກະທົບຕໍ່ລະບົບນິເວດແລະສິ່ງແວດລ້ອມຂອງການກໍ່ສ້າງແລະການຮັກສາລະບົບ AI ເຮັດວຽກ (ນອກຈາກນັ້ນ, ທ່ານອາດຈະສົນໃຈການສົນທະນາຂອງຂ້ອຍກ່ຽວກັບຮອຍຕີນຄາບອນທີ່ກ່ຽວຂ້ອງກັບ AI, ເບິ່ງການເຊື່ອມຕໍ່ທີ່ນີ້).

· ແລະອື່ນໆ.

ມີຜູ້ຊ່ຽວຊານດ້ານຈັນຍາບັນ AI ບາງຢ່າງທີ່ອາດຈະຊີ້ໃຫ້ເຫັນທັນທີວ່າສິ່ງເຫຼົ່ານັ້ນແມ່ນໃນຄວາມເປັນຈິງຫົວຂໍ້ທີ່ສາມາດພົບເຫັນຢູ່ໃນວັນນະຄະດີແລະການສົນທະນາກ່ຽວກັບຈັນຍາບັນ AI. ພວກ​ເຂົາ​ເຈົ້າ​ບໍ່​ເຄີຍ​ໄດ້​ຍິນ​ຂອງ​ແລະ​ບໍ່​ແມ່ນ​ພວກ​ເຂົາ​ເຈົ້າ​ແມ່ນ​ໃຫມ່ breathtaking.

ຂ້າ​ພະ​ເຈົ້າ​ເຊື່ອ​ວ່າ​ທັດ​ສະ​ນະ​ຂອງ​ຫຼັກ​ຈັນ​ຍາ​ບັນ AI purists ຮາກ​ແມ່ນ​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ບໍ່​ໄດ້​ອ້າງ​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ໄດ້​ຄົ້ນ​ພົບ​ພື້ນ​ທີ່​ທີ່​ບໍ່​ມີ​ການ​ທໍາ​ລາຍ​ຫມົດ​. ແທນທີ່ຈະ, ພວກເຂົາກໍາລັງຍືນຍັນວ່າຈຸດສຸມທີ່ມີຢູ່ແລ້ວຂອງ AI ດ້ານຈັນຍາບັນແມ່ນ choking ອອກອາກາດ breathable ຂອງການອະນຸຍາດໃຫ້ຫົວຂໍ້ "outlier" ອື່ນໆຈາກການໄດ້ຮັບຂອງເຂົາເຈົ້າ.

ບາງທີວິທີທີ່ເປັນຄຳເວົ້າທີ່ແປກປະຫຼາດກວ່ານີ້ແມ່ນວ່າ AI Ethics ທີ່ເປັນທີ່ນິຍົມກັນໄດ້ໃຫ້ຄວາມສົນໃຈໜ້ອຍລົງຕໍ່ກັບຫົວຂໍ້ທີ່ສຳຄັນອື່ນໆ. ທ່ານ​ສາ​ມາດ​ແນະ​ນໍາ​ວ່າ​ມີ​ຈຸດ​ຕາ​ບອດ​ແລະ​ມັນ​ຈະ​ເປັນ​ການ​ປະ​ໂຫຍດ​ທີ່​ຈະ​ພິ​ຈາ​ລະ​ນາ​ວ່າ​ສິ່ງ​ທີ່​ສາ​ມາດ​ນໍາ​ເອົາ​ເຂົ້າ​ໄປ​ໃນ​ຂະ​ບວນ​ການ​ຕໍ່​ໄປ (ອັນ​ນີ້​ແມ່ນ​ໄດ້​ປຶກ​ສາ​ຫາ​ລື​ເຊັ່ນ​ດຽວ​ກັນ​ໃນ​. ວາລະສານ AI ແລະຈັນຍາບັນ ໃນເອກະສານທີ່ຜ່ານມາຫົວຂໍ້ "ຈຸດຕາບອດໃນຈັນຍາບັນ AI" ໂດຍ Thilo Hagendorff).

ດຽວນີ້ພວກເຮົາໄດ້ກວມເອົາເລື່ອງຕະຫລົກວ່າ AI ດ້ານຈັນຍາບັນຢູ່ໃນຄວາມເຄັ່ງຕຶງເລັກນ້ອຍ, ເຊິ່ງບາງຄົນເວົ້າວ່າເປັນການຂັດແຍ້ງທີ່ເກີດຂື້ນກ່ອນແລະໃນຂະນະດຽວກັນ, ຄົນອື່ນຈະຢືນຢັນວ່າ rut ແມ່ນຈິງແລະຮ້າຍແຮງກວ່າເກົ່າ, ບາງທີພວກເຮົາສາມາດໃຊ້ເວລາເລັກນ້ອຍເພື່ອຄົ້ນຫາ. ກໍລະນີການນໍາໃຊ້ເພື່ອພິຈາລະນາຢ່າງລະອຽດກ່ຽວກັບເລື່ອງນີ້.

ໃນຄວາມສາມາດຂອງຂ້ອຍໃນຖານະເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງຄວາມເຄັ່ງຕຶງໃນການຈັດຕໍາແຫນ່ງເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງໂດຍອີງໃສ່ AI ມີການພິຈາລະນາດ້ານຈັນຍາບັນຂອງ AI ພາຍນອກທີ່ໂດຍທົ່ວໄປແລ້ວແມ່ນບໍ່ທ້າທາຍ ຫຼື ບໍ່ພຽງພໍ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນການຊີ້ແຈງ, ລົດທີ່ຂັບຂີ່ດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນສິ່ງທີ່ AI ຂັບຂີ່ລົດທັງ ໝົດ ດ້ວຍຕົນເອງແລະບໍ່ມີການຊ່ວຍເຫຼືອໃດໆຂອງມະນຸດໃນເວລາເຮັດວຽກຂັບລົດ.

ພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືວ່າຢູ່ໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງ ຄຳ ອະທິບາຍຂອງຂ້ອຍທີ່ລິ້ງນີ້ຢູ່ບ່ອນນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ຄົນຂັບລົດຂອງມະນຸດຮ່ວມຄວາມພະຍາຍາມໃນການຂັບຂີ່ມັກຈະຖືກພິຈາລະນາໃນລະດັບ 2 ຫລືລະດັບ 3. ລົດທີ່ຮ່ວມ ການແບ່ງປັນວຽກງານຂັບລົດແມ່ນຖືກອະທິບາຍວ່າເປັນແບບເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍປົກກະຕິບັນຈຸເຄື່ອງທີ່ເພີ່ມຂື້ນໂດຍອັດຕະໂນມັດເຊິ່ງມີການອ້າງອີງເຖິງ ADAS (Advanced System-Help Systems).

ຍັງບໍ່ທັນມີລົດທີ່ຂັບດ້ວຍຕົນເອງທີ່ແທ້ຈິງໃນລະດັບ 5, ເຊິ່ງພວກເຮົາຍັງບໍ່ຮູ້ວ່າມັນຈະເປັນໄປໄດ້ບໍ່ທີ່ຈະບັນລຸໄດ້, ແລະມັນຈະໃຊ້ເວລາດົນປານໃດເພື່ອຈະໄປເຖິງ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມໃນລະດັບ 4 ກຳ ລັງພະຍາຍາມຄ່ອຍໆເພື່ອໃຫ້ໄດ້ຮັບຜົນກະທົບບາງຢ່າງໂດຍຜ່ານການທົດລອງເສັ້ນທາງສາທາລະນະທີ່ຄັບແຄບແລະເລືອກຫຼາຍ, ເຖິງແມ່ນວ່າຈະມີການຖົກຖຽງກັນວ່າການທົດລອງນີ້ຄວນໄດ້ຮັບອະນຸຍາດຕໍ່ບ່ອນໃດ (ພວກເຮົາແມ່ນ ໝູ ເນຍທັງ ໝົດ ຊີວິດຫຼືເສຍຊີວິດໃນການທົດລອງ ເກີດຂື້ນຕາມເສັ້ນທາງຫລວງແລະທາງດ່ວນຂອງພວກເຮົາ, ບາງຂໍ້ຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ບ່ອນເຊື່ອມຕໍ່ນີ້ຢູ່ບ່ອນນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະຜູ້ເສຍສະລະ ຫຼືການພິຈາລະນາດ້ານຈັນຍາບັນຂອງ AI

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.

ພວກເຮົາໄດ້ຖືກເລີ່ມຕົ້ນໃນປັດຈຸບັນເພື່ອດໍາເນີນການເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະບໍ່ວ່າຈະເປັນການພິຈາລະນາດ້ານຈັນຍາບັນຂອງ AI ດ້ານນອກທີ່ສົມມຸດຕິຖານທີ່ຄາດວ່າຈະບໍ່ໄດ້ຮັບພຽງພໍ.

ເນື່ອງຈາກຂໍ້ຈຳກັດດ້ານອະວະກາດ, ຂໍໃຫ້ເຮົາສຸມໃສ່ເລື່ອງໜຶ່ງທີ່ພວກເຮົາສາມາດຂຸດຄົ້ນໄດ້. ໂດຍສະເພາະ, ມີການກ່າວຫາໂດຍລວມວ່າຈັນຍາບັນຂອງ AI ທີ່ເດັ່ນຊັດມີສົມມຸດຕິຖານທີ່ເຊື່ອງໄວ້ວ່າ AI ເປັນສິ່ງທີ່ຫຼີກລ່ຽງບໍ່ໄດ້.

ຖ້າພວກເຮົາໃຊ້ການສົມມຸດຕິຖານຫຼັກນັ້ນກັບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI, ມັນຫມາຍຄວາມວ່າຊຸມຊົນ AI ທີ່ມີຈັນຍາບັນແມ່ນຂະຫນາດໃຫຍ່ໂດຍສົມມຸດວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະຖືກວາງແຜນແລະພາກສະຫນາມຢ່າງຫຼີກລ່ຽງບໍ່ໄດ້. ພວກ​ເຂົາ​ເຈົ້າ​ຖື​ວ່າ​ມີ​ຄ່າ​ຄວນ​ທີ່​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຈະ​ເກີດ​ຂຶ້ນ​, ໃນ​ຂະ​ນະ​ທີ່​ຄໍາ​ຮ້ອງ​ຟ້ອງ​ແມ່ນ​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ຄວນ​ຈະ​. ບໍ່ ໃຫ້ສົມມຸດຕິຖານທີ່ເຊື່ອງໄວ້ນັ້ນແລະແທນທີ່ຈະຖືກ chewing ວ່າບາງທີພວກເຮົາບໍ່ຄວນມີ AI ລົດຂັບລົດດ້ວຍຕົນເອງ (ຫຼືບາງຕົວແປເຊັ່ນພຽງແຕ່ມີຢູ່ໃນສະຖານະການພິເສດແທນທີ່ຈະເປັນພື້ນຖານທີ່ກວ້າງຂວາງ).

ມັນເປັນຄໍາຖາມທີ່ຍິ່ງໃຫຍ່.

ເພື່ອຄວາມກະຈ່າງແຈ້ງແລະປັບປຸງຄືນໃຫມ່, ການຍືນຍັນກ່ວາວ່າການພິຈາລະນາດ້ານຈັນຍາບັນ AI ທີ່ເດັ່ນຊັດກ່ຽວກັບ AI ລົດຂັບລົດດ້ວຍຕົນເອງແມ່ນຂາດເຮືອໂດຍສົມມຸດວ່າ AI ລົດຂັບລົດດ້ວຍຕົນເອງແມ່ນຫລີກລ້ຽງບໍ່ໄດ້. ໃນ​ວິ​ທີ​ການ​ຄິດ​ວ່າ​, ຄວາມ​ຄາດ​ຫວັງ​ຈະ​ໄດ້​ຮັບ​ການ​ສະ​ແດງ​ອອກ​ສອງ​:

1. ໜ້ອຍໜຶ່ງ ຖ້າການກວດກາເບິ່ງວ່າ ເຮົາຄວນມີລົດ AI ທີ່ຂັບເອງໄດ້ຫຼືບໍ່, ຫຼືຈະຫຼົບໄປຂ້າງທາງ, ຫຼືບໍ່ມີລົມຫາຍໃຈເພື່ອເອົາຄວາມສະຫວ່າງໃຫ້ຄວາມສົນໃຈ, ແລະ.

2. ແນວໂນ້ມທີ່ຈະເນັ້ນໃສ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ແທນທີ່ຈະຢູ່ໃນລາຍລະອຽດທີ່ອ້ອມຮອບ AI ດ້ານຈັນຍາບັນຂອງບັນດາປັດໃຈແບບດັ້ງເດີມ, ເຊັ່ນ: ການອະທິບາຍ, ຄວາມຍຸຕິທໍາ, ຄວາມເປັນສ່ວນຕົວ, ແລະອື່ນໆ, ແລະເຮັດທັງຫມົດພາຍໃຕ້ການລໍ້ລວງທົ່ວໄປຫຼືງຽບ. ສົມມຸດຕິຖານວ່າພວກເຮົາຈະຕັດສິນໃຈມີຍານພາຫະນະ autonomous vaunted ເຫຼົ່ານັ້ນ (ບໍ່ມີທາງເລືອກອື່ນທີ່ຈະໄດ້ຮັບການບັນເທີງຢ່າງກວ້າງຂວາງ).

ຂໍ້ສະເໜີທີ່ໜ້າສົນໃຈ.

ເຖິງແມ່ນວ່າການກວດກາແບບປົກກະຕິຂອງຄວາມສົນໃຈທົ່ວໄປກ່ຽວກັບບັນຫາດັ່ງກ່າວກ່ຽວກັບ AI ລົດຂັບລົດດ້ວຍຕົນເອງຈະສະແດງໃຫ້ເຫັນວ່າມີການສົມມຸດຕິຖານວ່າ AI ລົດຂັບລົດດ້ວຍຕົນເອງແມ່ນເປັນສິ່ງທີ່ຫຼີກລ່ຽງບໍ່ໄດ້, ເຖິງແມ່ນວ່າພວກເຮົາໃຫ້ແນ່ໃຈວ່າມີຄໍາເຕືອນອັນໃຫຍ່ຫຼວງແລະຕົວຊີ້ວັດເຕືອນໄພ footnoting ດາວສອງເທົ່າ. ​ພ້ອມ​ກັບ​ຖະ​ແຫຼງການ​ສະບັບ​ນີ້.

ນີ້ແມ່ນເຫດຜົນທີ່ວ່າ.

ພວກເຮົາຍັງບໍ່ຮູ້ເທື່ອວ່າລົດທີ່ຂັບເຄື່ອນດ້ວຍຕົວຕົນທີ່ແທ້ຈິງທີ່ໃຊ້ AI ຈະເປັນໄປໄດ້ແທ້ຫຼືບໍ່.

ແນ່ນອນ, ມີການວາງແຜນທົດລອງທາງສາທາລະນະແຄບທີ່ພວມດຳເນີນຢູ່. ເຫຼົ່ານີ້ແມ່ນບໍ່ໄດ້ຢູ່ໃນລະດັບ 5 ຢ່າງແທ້ຈິງ. ບໍ່ມີໃຜສາມາດໂຕ້ຖຽງຢ່າງສົມເຫດສົມຜົນກົງກັນຂ້າມກັບຈຸດທີ່ບໍ່ສາມາດປະຕິເສດໄດ້. ທ່ານສາມາດເວົ້າວ່າບາງການທົດລອງທີ່ເຫມາະສົມແມ່ນປະເພດຂອງການເຂົ້າໄປໃນລະດັບ 4, ແຕ່ wobbly ດັ່ງນັ້ນແລະມີ ODDs ຂ້ອນຂ້າງ brittle (ODDs ຫຼື Operation Design Domains ແມ່ນຂໍ້ກໍານົດຂອງບ່ອນທີ່ຜູ້ຜະລິດລົດຂັບລົດຕົນເອງກ່າວວ່າຍານພາຫະນະອັດຕະໂນມັດຂອງເຂົາເຈົ້າສາມາດດໍາເນີນການໄດ້ຢ່າງປອດໄພ. , ເບິ່ງການສົນທະນາຂອງຂ້ອຍຢູ່ໃນການເຊື່ອມຕໍ່ນີ້ ທີ່ນີ້).

ໂດຍກ່າວວ່າ, ສະໜາມກິລາລົດຍົນທີ່ຂັບລົດດ້ວຍຕົນເອງແມ່ນຢູ່ໄກກວ່າທີ່ມັນເກີດຂຶ້ນເມື່ອສອງສາມປີກ່ອນ. ມີສາເຫດທີ່ສົມເຫດສົມຜົນສໍາລັບການ upbeat ກ່ຽວກັບສິ່ງທີ່ຈະເກີດຂຶ້ນຕໍ່ໄປ. ຈຸດຕິດໃຫຍ່ທີ່ສຸດແມ່ນຕາຕະລາງເວລາທີ່ນີ້ຈະອອກມາ. ການຄາດຄະເນທີ່ຜ່ານມາໂດຍ pundits ໄດ້ມາພ້ອມແລະຫມົດໄປ. ທ່ານສາມາດຄາດຫວັງວ່າການຄາດຄະເນທີ່ມີຢູ່ແລ້ວແນ່ນອນຈະທົນທຸກຊະຕາກໍາດຽວກັນ.

ໃນສັ້ນ, ມັນເບິ່ງຄືວ່າທ່ານສາມາດເວົ້າແບບບໍ່ເປັນທາງການວ່າມີເຫດຜົນພຽງພໍສໍາລັບການສົມມຸດວ່າລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງໂດຍອີງໃສ່ AI ຈະເກີດຂື້ນໃນທີ່ສຸດ. ມັນເບິ່ງຄືວ່າພວກເຮົາກໍາລັງມຸ່ງຫນ້າໄປສູ່ລະດັບ 4 ທ່າມກາງ ODDs ທີ່ມີຂໍ້ຈໍາກັດຫຼາຍ. ການຂະຫຍາຍຢ່າງມີເຫດຜົນຕໍ່ໄປຈະເບິ່ງຄືວ່າມີ ODDs ຫຼາຍຂຶ້ນ, ເຊິ່ງມີຄວາມຫລາກຫລາຍແລະຄວາມເລິກຫຼາຍ. ໃນບາງຈຸດທີ່ພວກເຮົາໄດ້ເອົາຊະນະການທັບຊ້ອນກັນຢ່າງພຽງພໍ ແລະບາງຈຸດ ODD ທີ່ໝົດສິ້ນໄປ, ນີ້ເບິ່ງຄືວ່າຈະກ້າວໄປສູ່ການກ້າວໄປສູ່ລະດັບ 5. ຢ່າງໜ້ອຍແມ່ນປັດຊະຍາຂອງຄວາມກ້າວໜ້າທີ່ຄາດໄວ້ (ເຊິ່ງບໍ່ແມ່ນທຸກຄົນຍອມຮັບ).

ຂ້າພະເຈົ້າກ່າວເຖິງການບິດເບືອນທີ່ເບິ່ງຄືວ່າສັບສົນເພາະວ່າມີຄວາມສັບສົນຫຼາຍກ່ຽວກັບສິ່ງທີ່ມັນຫມາຍເຖິງການປະກາດວ່າລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງໂດຍອີງໃສ່ AI ມີຢູ່ຫຼືວ່າພວກເຮົາໄດ້ມາຮອດປັດຈຸບັນທີ່ຍິ່ງໃຫຍ່ຂອງການມີຢູ່. ແມ່ນຫຍັງຄືຄຳນິຍາມຂອງລົດທີ່ຂັບເຄື່ອນດ້ວຍຕົວຕົນທີ່ແທ້ຈິງທີ່ໃຊ້ AI? ຖ້າທ່ານເວົ້າວ່າມັນເປັນຊ່ວງເວລາທີ່ເຈົ້າໄດ້ກ້າວເຂົ້າສູ່ລະດັບ 4, ດີ, ຂ້ອຍເດົາວ່າເຈົ້າສາມາດເລີ່ມໃສ່ຂວດແຊມເປນເຫຼົ່ານັ້ນໄດ້. ຖ້າທ່ານເວົ້າວ່າມັນແມ່ນຄັ້ງດຽວທີ່ພວກເຮົາໄດ້ຫັນມຸມໄປສູ່ລະດັບ 4, ເຈົ້າຈະຕ້ອງເອົາຂວດແຊມເປນເຫຼົ່ານັ້ນໄປເກັບຮັກສາໄວ້. ຖ້າທ່ານເວົ້າວ່າມັນແມ່ນເວລາທີ່ພວກເຮົາໄດ້ຮຽນຮູ້ລະດັບ 5, ແກ້ວເຫຼົ່ານັ້ນຈະເຂົ້າໄປໃນຊັ້ນວາງເກັບຮັກສາດ້ານຫລັງແລະທ່ານຄວນຄາດຫວັງວ່າພວກມັນຈະຂີ້ຝຸ່ນ.

ທັງຫມົດ, ຖ້າສັງຄົມຢູ່ໃນຄວາມເປັນຈິງເຮັດໃຫ້ສົມມຸດຕິຖານວ່າ AI ລົດຂັບລົດດ້ວຍຕົນເອງແມ່ນຫຼີກລ່ຽງບໍ່ໄດ້, ທ່ານສາມາດໂຕ້ຖຽງຢ່າງສົມເຫດສົມຜົນວ່ານີ້ແມ່ນການສົມມຸດຕິຖານຂ້າງເທິງ. ບໍ່ແມ່ນທຸກຄົນຈະຕົກລົງເຫັນດີກັບການຂັດແຍ້ງນັ້ນ, ດັ່ງນັ້ນສໍາລັບຜູ້ທີ່ບໍ່ພໍໃຈໃນຄວາມເປັນໄປໄດ້ທີ່ຖືກກ່າວຫາ, ຄວາມຂັດແຍ້ງທີ່ຮຸນແຮງຂອງເຈົ້າໄດ້ຖືກສັງເກດເຫັນ.

ພວກເຮົາອາດຈະເຮັດໃຫ້ຕົວເຮົາເອງຕົກຢູ່ໃນບັນຫາ ຫຼືຄວາມຫຍຸ້ງຍາກລຳບາກໂດຍໂດຍທົ່ວໄປແລ້ວໄປພ້ອມກັບການສົມມຸດຕິຖານຂອງສິ່ງທີ່ຫຼີກລ່ຽງບໍ່ໄດ້ສຳລັບລົດທີ່ຂັບລົດຕົນເອງ AI ບໍ?

ມີການບິດເບືອນທີ່ໜ້າສົນໃຈທີ່ enigma ນີ້ເອົາມາສູ່ໜ້າດິນ.

ຕົວຢ່າງ, ຄວາມກັງວົນທີ່ສົນທະນາແລ້ວເລື້ອຍໆແມ່ນວ່າພວກເຮົາອາດຈະມີລົດຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI ທີ່ມີຢູ່ໃນບາງພື້ນທີ່ແຕ່ບໍ່ແມ່ນຢູ່ໃນບ່ອນອື່ນ. ພື້ນທີ່ທີ່ຈະມີລົດຂັບລົດດ້ວຍຕົນເອງແມ່ນ "ມີ" ໃນຂະນະທີ່ພື້ນທີ່ທີ່ບໍ່ມີແມ່ນ "ບໍ່ມີ" ທີ່ຖືກກີດຂວາງຢ່າງສໍາຄັນຈາກການໃຊ້ປະໂຫຍດຂອງລົດຂັບລົດດ້ວຍຕົນເອງ.

ນີ້​ແມ່ນ​ການ​ປະ​ກາດ​ elitist ຫຼືຂ້າພະເຈົ້າຄວາມທ່ຽງທຳ ຄວາມກັງວົນ phenomenological ທີ່ຫຼາຍຄົນໄດ້ສະແດງອອກ. ແທ້ຈິງແລ້ວ, ຂ້າພະເຈົ້າໄດ້ກວມເອົານີ້ຫຼາຍຄັ້ງ, ເຊັ່ນໃນການເຊື່ອມຕໍ່ນີ້ທີ່ນີ້ແລະໃນການວິເຄາະຂະຫນາດໃຫຍ່ນີ້ຢູ່ໃນການເຊື່ອມຕໍ່ທີ່ນີ້.

ແນວ​ຄວາມ​ຄິດ​ແມ່ນ​ວ່າ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ AI ອາດ​ຈະ​ໄດ້​ຮັບ​ການ​ດໍາ​ເນີນ​ການ​ໃນ​ເຮືອ​. ຜູ້ປະຕິບັດງານກອງທັບເຮືອຈະເລືອກບ່ອນທີ່ຈະໃຊ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ສະຖານທີ່ສ້າງລາຍໄດ້ທີ່ສົມມຸດວ່າໃຊ້ລົດຂັບລົດດ້ວຍຕົນເອງແມ່ນຢູ່ໃນເຂດທີ່ຮັ່ງມີຂອງເມືອງຫຼືເມືອງ. ຜູ້ທີ່ອາໃສຢູ່ໃນເຂດທີ່ທຸກຍາກ ຫຼືທຸກຍາກຂອງເມືອງ ຫຼືຕົວເມືອງຈະບໍ່ພ້ອມທີ່ຈະເຂົ້າເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້.

ເຫດຜົນອັນດຽວກັນນີ້ໄດ້ຖືກອະທິບາຍຕື່ມເພື່ອໂຕ້ແຍ້ງວ່າປະເທດຕ່າງໆຈະພົບເຫັນຕົນເອງຢູ່ໃນສະຖານະການດຽວກັນ. ປະເທດທີ່ຮັ່ງມີຈະປະສົບກັບການໃຊ້ລົດຂັບລົດດ້ວຍຕົນເອງ, ໃນຂະນະທີ່ປະເທດທີ່ທຸກຍາກຈະບໍ່ມີ. ມີ ຂອງ ຈະ ມີ ການ ເຂົ້າ ເຖິງ ແລະ ການ ນໍາ ໃຊ້ ຂອງ ຍານ ພາ ຫະ ນະ ເປັນ ອັດ ຕະ ໂນ ມັດ, ບໍ່ ມີ ຈະ ບໍ່ ໄດ້.

ເຈົ້າອາດຈະສົງໄສວ່າສິ່ງທີ່ມີແມ່ນໄດ້ຮັບສິ່ງທີ່ບໍ່ມີແມ່ນບໍ່ໄດ້ຮັບ. ຕົວຊີ້ບອກເລື້ອຍໆແມ່ນວ່າມີຄວາມຄາດຫວັງວ່າລົດທີ່ບໍ່ມີຄົນຂັບ AI ຈະມີອຸປະຕິເຫດລົດຫນ້ອຍລົງແລະລົດຕໍາກັນຫຼາຍ. ຄວາມ​ເຊື່ອ​ຖື​ແມ່ນ​ວ່າ​ຈຳນວນ​ຜູ້​ບາດ​ເຈັບ​ແລະ​ຜູ້​ເສຍ​ຊີວິດ​ທີ່​ເກີດ​ຈາກ​ອຸບັດ​ເຫດ​ລົດຍົນ​ຈະ​ຫຼຸດ​ລົງ​ຢ່າງ​ຫຼວງ​ຫຼາຍ. ດັ່ງນັ້ນ, ພາກສ່ວນທີ່ຮັ່ງມີຂອງເມືອງຫຼືເມືອງ, ຫຼືປະເທດທີ່ຮັ່ງມີ, ຈະສາມາດຫຼຸດຜ່ອນການບາດເຈັບແລະຜູ້ເສຍຊີວິດທີ່ກ່ຽວຂ້ອງກັບລົດຂອງພວກເຂົາ, ໃນຂະນະທີ່ພາກພື້ນທີ່ຂັບເຄື່ອນໂດຍມະນຸດທີ່ບໍ່ມີທາງເລືອກຫຼືການທົດແທນໂດຍຜ່ານ AI ດ້ວຍຕົນເອງ. - ການ​ຂັບ​ລົດ​ຈະ​ບໍ່​ມີ​ການ​ຫຼຸດ​ຜ່ອນ​ຄວາມ​ສົມ​ຄວນ​ດັ່ງ​ກ່າວ​.

ກະລຸນາຮູ້ວ່າມີຜົນປະໂຫຍດອັນໂດດເດັ່ນອື່ນໆຂອງ AI ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອາດຈະເກີດຂື້ນໃນລັກສະນະດຽວກັນແລະບໍ່ມີຢູ່ໃນສິ່ງທີ່ບໍ່ມີ (ເບິ່ງເພີ່ມເຕີມໃນການເຊື່ອມຕໍ່ນີ້ ທີ່ນີ້).

ຈຸດສໍາຄັນຢູ່ທີ່ນີ້ແມ່ນວ່າທ່ານສາມາດຍືດ "ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເປັນສິ່ງທີ່ຫຼີກລ່ຽງບໍ່ໄດ້" ໂດຍຊີ້ໃຫ້ເຫັນວ່າ AI ດ້ານຈັນຍາບັນແມ່ນ handwringing ແລ້ວກ່ຽວກັບລົດທີ່ຂັບລົດຕົນເອງພຽງແຕ່ມີທາງເລືອກ. ຂ້າພະເຈົ້າຮູ້ວ່າມັນອາດຈະເບິ່ງຄືວ່າເປັນ pretzel ຂອງເຫດຜົນ. ສິ່ງທີ່ເວົ້ານີ້ແມ່ນພວກເຮົາມີຄວາມກັງວົນກ່ຽວກັບ AI ທີ່ບໍ່ມີຢູ່ໃນບາງພາກສ່ວນຂອງສັງຄົມ. ໃນ​ການ​ຂະ​ຫຍາຍ​ຕົວ​ຂອງ​ການ​ຄິດ​ວ່າ​, ການ instantiation ຂອງ AI ນີ້​ແມ່ນ​ບໍ່​ແມ່ນ​ຫຼີກ​ເວັ້ນ​ການ​ກ່ຽວ​ກັບ​ສະ​ພາບ​ການ​ເຫຼົ່າ​ນັ້ນ​ຕໍ່​ຄົນ (ຖ້າ​ຫາກ​ວ່າ​ທ່ານ​ໄດ້​ຮັບ​ການ​ພຽງ​ເລັກ​ນ້ອຍ​)​.

ສະຫຼຸບ

ທ່ານແນ່ນອນຄຸ້ນເຄີຍກັບຄໍາແນະນໍາຂອງນັກປັນຍາຊົນທີ່ວາງແຜນໄວ້ຢ່າງສະຫລາດວ່າສິ່ງທີ່ເຈົ້າບໍ່ຮູ້ສາມາດເປັນອັນຕະລາຍຕໍ່ເຈົ້າ, ໃນຂະນະທີ່ສິ່ງທີ່ເຈົ້າບໍ່ຮູ້ວ່າເຈົ້າບໍ່ຮູ້ກໍ່ສາມາດທໍາລາຍເຈົ້າໄດ້.

ທັດສະນະຫນຶ່ງກ່ຽວກັບທ່າທາງ AI ດ້ານຈັນຍາບັນທີ່ຮຸນແຮງແມ່ນວ່າເຖິງວ່າຈະມີຄວາມຫນ້າຢ້ານກົວທີ່ກ່ຽວຂ້ອງກັບການຕັ້ງຊື່, ພວກເຮົາຢ່າງຫນ້ອຍຄວນຈະໄດ້ຍິນສິ່ງທີ່ມັນເຊື່ອວ່າພວກເຮົາຂາດຫາຍໄປ. ບາງທີອາດມີການຄິດເປັນກຸ່ມເກີດຂຶ້ນ ແລະອັນທີ່ເອີ້ນວ່າຈັນຍາບັນ AI ແບບດັ້ງເດີມ ຫຼືຈັນຍາບັນ AI ຍຸກສະໄໝນັ້ນ ອາດຈະຢຸດສະງັກ ແລະຕິດຢູ່ກັບການພິຈາລະນາໂດຍສະເພາະ. ຖ້າເປັນດັ່ງນັ້ນ, ການເຕະຢູ່ດ້ານຫຼັງອາດຈະຊ່ວຍເຮັດໃຫ້ເຄື່ອງຈັກເຮັດວຽກອີກເທື່ອຫນຶ່ງແລະກ້າວໄປສູ່ຂອບເຂດທີ່ກວ້າງຂວາງ.

ຫຼື, ມັນອາດຈະເປັນວ່າຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI ເຮັດວຽກໄດ້ດີ, ຂອບໃຈຫຼາຍໆ, ແລະ offshoot ນີ້ແມ່ນພຽງແຕ່ພະຍາຍາມທີ່ຈະເປັນແມງວັນໃນຢາຂີ້ເຜິ້ງ. ການຫຼຸດລົງບໍ່ໄດ້ເບິ່ງຄືວ່າເປັນການລົບກວນຫຼື disconcerting ໂດຍສະເພາະ. ເມື່ອໃດ ຫຼື ຖ້າສິ່ງນັ້ນອອກມາຈາກມື, ການປະເມີນຄືນທີ່ອຸທິດຕົນ ແລະຮ່ວມກັນຂອງອານານິຄົມອາດເປັນຜົນດີໃນຄວາມເຂົ້າໃຈ.

ການປັບປຸງຢ່າງຕໍ່ເນື່ອງແມ່ນຄວາມມຸ່ງຫວັງທີ່ຫນ້າຊົມເຊີຍ. ແລະ, ທ່ານເກືອບສາມາດເວົ້າໄດ້ວ່າໃນເວລາທີ່ມັນມາເຖິງການມາເຖິງຂອງ AI, ພວກເຮົາບໍ່ຕ້ອງການທີ່ຈະຊັກຊ້າທີ່ຈະຄົ້ນພົບວ່າພວກເຮົາບໍ່ຮູ້ສິ່ງທີ່ພວກເຮົາບໍ່ຮູ້, ແລະວ່າພວກເຮົາຄວນຈະຮູ້ວ່າເປັນອັນດັບຫນຶ່ງຂອງ. ລັກສະນະທີ່ພວກເຮົາບໍ່ຮູ້ (ຫຼືວ່າພວກເຮົາຮູ້ຈັກພວກເຂົາ, ບາງຢ່າງ, ແລະສະກັດກັ້ນພວກເຂົາໂດຍບໍ່ໄດ້ຕັ້ງໃຈ).

ມັນເບິ່ງຄືວ່າບໍ່ຮຸນແຮງເກີນໄປ, ມັນບໍ?

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/02/20/pushing-the-boundaries-of-ai-ethics-into-the-topsy-turvy-world-of-radical-ethical- ai-potentially-exemplified-via-the-use-case-of-vaunted-ai-based-self-driving-cars/