ການແຂ່ງຂັນດ້ານຈັນຍາບັນຂອງ AI ດ້ວຍຄວາມຫຼີກລ່ຽງບໍ່ໄດ້ຂອງອຸບັດເຫດ AI, ເຊິ່ງມີຫຼາຍກວ່າລົດທີ່ຂັບເອງໄດ້ແບບອັດຕະໂນມັດຄືກັນ.

ເຈົ້າຮູ້ບໍ່ວ່າໃຜບາງຄົນທີ່ເບິ່ງຄືວ່າຈະເກີດອຸບັດຕິເຫດໂດຍສະເພາະ?

ເບິ່ງຄືວ່າພວກເຮົາທຸກຄົນເຮັດ.

ບາງ​ທີ​ຄົນ​ນັ້ນ​ເປັນ​ຄົນ​ແບບ​ນັ້ນ​ທີ່​ເໝາະ​ສົມ​ທີ່​ຈະ​ເອົາ​ເປືອກ​ໝາກ​ກ້ວຍ​ມາ​ເຄາະ ຫຼື​ເຄາະ​ໂຖ​ທີ່​ມີ​ຄ່າ​ໃນ​ຫ້ອງ​ຮັບ​ແຂກ​ຂອງ​ເຈົ້າ. ພວກເຂົາເປັນແມ່ເຫຼັກຂອງມະນຸດສໍາລັບອຸປະຕິເຫດຂອງປະເພດຫນຶ່ງຫຼືຄົນອື່ນ. ມັນອາດຈະເປັນສິ່ງທີ່ບໍ່ດີຫຼາຍຈົນເຈົ້າຂີ້ຄ້ານທີ່ຈະຢູ່ໃກ້ເຂົາເຈົ້າໃນບາງຄັ້ງ. ເຈົ້າອາດຈະໄດ້ຮັບຄວາມຫຼົ້ມເຫຼວ ຫຼື ປະສົບກັບຜົນຮ້າຍຢ້ອນຫຼັງຈາກອຸບັດເຫດອັນໜຶ່ງທີ່ບໍ່ໜ້າພໍໃຈຂອງເຂົາເຈົ້າ.

ແຕ່ບາງທີເຮົາອາດຈະຮຸນແຮງເກີນໄປເມື່ອແນະນຳວ່າໃຜໆກໍ່ມັກເກີດອຸບັດຕິເຫດຫຼາຍກວ່າຄົນອື່ນ. ການໂຕ້ຖຽງອາດຈະເຮັດໃຫ້ອຸປະຕິເຫດສາມາດເກີດຂຶ້ນກັບພວກເຮົາທຸກຄົນ. ພວກເຮົາທຸກຄົນແມ່ນຂຶ້ນກັບຄວາມເປັນໄປໄດ້ຂອງຄໍາຫມັ້ນສັນຍາຫຼືໄດ້ຮັບການ embroiled ໃນອຸປະຕິເຫດ. ທີ່ດີທີ່ສຸດຂອງພວກເຮົາປະກອບມີ.

ໃຫ້ເຮົາມາຢູ່ເທິງສຸດຂອງການສົນທະນານີ້ ຄໍາຖາມທີ່ໜ້າເປັນຫ່ວງຕື່ມອີກ.

ອຸບັດຕິເຫດແມ່ນຫຼີກລ່ຽງບໍ່ໄດ້ບໍ?

ໃນຄໍາສັບຕ່າງໆອື່ນໆ, ບໍ່ວ່າພວກເຮົາຈະພະຍາຍາມປ້ອງກັນອຸປະຕິເຫດ, ມັນກໍ່ອາດຈະເປັນໄປໄດ້, ເຖິງແມ່ນວ່າມັນຍັງມີໂອກາດແລະຄວາມແນ່ນອນທີ່ສຸດທີ່ຈະເກີດອຸປະຕິເຫດ. ເຈົ້າສາມາດຊອກຫາວິທີປົກປ້ອງໂລກຈາກອຸປະຕິເຫດ. ມັນເບິ່ງຄືວ່າມີຄວາມຮອບຄອບຢ່າງບໍ່ຢຸດຢັ້ງ. ແຕ່ທາງໜຶ່ງ ຫຼືທາງອື່ນ, ອຸບັດຕິເຫດຍັງຈະຕິດຫົວອັນໜ້າກຽດຂອງເຂົາເຈົ້າ.

ຍ້ອນວ່າພວກເຂົາເວົ້າວ່າ, ອຸປະຕິເຫດແມ່ນລໍຖ້າທີ່ຈະເກີດຂຶ້ນ.

ມັນອາດຈະເປັນປະໂຫຍດທີ່ຈະໃຫ້ຄວາມກະຈ່າງແຈ້ງກ່ຽວກັບສິ່ງທີ່ຫມາຍຄວາມວ່າໂດຍການອ້າງເຖິງເຫດການບາງຢ່າງທີ່ໄດ້ຖືກຕິດສະຫລາກຢ່າງເຫມາະສົມວ່າເປັນອຸປະຕິເຫດ. ຄໍານິຍາມຂອງວັດຈະນານຸກົມປົກກະຕິແມ່ນວ່າອຸປະຕິເຫດແມ່ນປະເພດຂອງເຫດການທີ່ເກີດຂື້ນໂດຍບໍ່ຄາດຝັນແລະບໍ່ຕັ້ງໃຈ, ເຊິ່ງມີຜົນທີ່ໂຊກບໍ່ດີທີ່ປະກອບດ້ວຍຄວາມເສຍຫາຍຫຼືການບາດເຈັບ.

ຖອດຄຳນິຍາມນັ້ນອອກຢ່າງລະມັດລະວັງ.

ເຫດການ​ດັ່ງ​ກ່າວ​ແມ່ນ​ບໍ່​ຄາດ​ຄິດ. ນີ້ ໝາຍ ຄວາມວ່າພວກເຮົາເບິ່ງຄືວ່າບໍ່ໄດ້ຮັບຮູ້ວ່າອຸປະຕິເຫດຕົວມັນເອງຈະເກີດຂື້ນ.

ເຫດການ​ດັ່ງກ່າວ​ແມ່ນ​ບໍ່​ຕັ້ງ​ໃຈ. ນີ້ຊີ້ໃຫ້ເຫັນວ່າພວກເຮົາຄວນປະຕິເສດສະຖານະການທີ່ບາງຄົນຕັ້ງໃຈພະຍາຍາມໃຫ້ເຫດການດັ່ງກ່າວເກີດຂື້ນ. ຖ້າຄົນຂີ້ຄ້ານວາງເປືອກກ້ວຍໃສ່ພື້ນບ່ອນທີ່ພວກເຂົາຮູ້ວ່າຜູ້ບໍລິສຸດທີ່ໂຊກຮ້າຍແລະບໍ່ສົງໄສຈະກ້າວໄປ, ເຈົ້າຄົງຈະຄຽດແຄ້ນທີ່ຈະຢືນຢັນວ່າຄົນທີ່ຍ່າງຂ້າມມັນໄດ້ຮັບອຸປະຕິເຫດ. ແທນ​ທີ່​ຈະ​ເປັນ​ເຂົາ​ເຈົ້າ​ໄດ້​ຖືກ​ຫລອກ​ລວງ​ແລະ insidiously ນໍາ​ໄປ​ສູ່​ການ​ຈັ່ນ​ຈັບ.

ຄໍານິຍາມຍັງປະກອບມີເງື່ອນໄຂທີ່ຜົນໄດ້ຮັບແມ່ນໂຊກບໍ່ດີ. ອຸປະຕິເຫດໃນແສງສະຫວ່າງນີ້ຕ້ອງນໍາໄປສູ່ຜົນໄດ້ຮັບທີ່ສົ້ມ. ຜູ້​ທີ່​ເກີດ​ອຸບັດ​ຕິ​ເຫດ​ເຄາະ​ກະ​ກັນ​ນັ້ນ​ມີ​ຮອຍ​ແຕກ​ແລະ​ອາດ​ເຮັດ​ໃຫ້​ສິ່ງ​ຂອງ​ທີ່​ມີ​ຄວາມ​ເສຍ​ຫາຍ​ເກີນ​ກວ່າ​ການ​ສ້ອມ​ແປງ. ເຈົ້າຂອງ vase ໄດ້ຮັບຄວາມເສຍຫາຍຈາກການສູນເສຍມູນຄ່າ. ຄົນທີ່ແລ່ນເຂົ້າໄປໃນ vase ໃນປັດຈຸບັນອາດຈະເປັນຫນີ້ເຈົ້າຂອງສໍາລັບການສູນເສຍ. ສະຫວັນ​ຫ້າມ​ວ່າ​ຜູ້​ໃດ​ອາດ​ຈະ​ໄດ້​ຮັບ​ການ​ຕັດ​ຫຼື​ຂູດ​ຍ້ອນ​ການ​ແຕກ​ຂອງ​ໂຖ.

ເພື່ອຄວາມສົມດຸນເທົ່າທຽມກັນ, ພວກເຮົາອາດຈະຕ້ອງການທີ່ຈະສັງເກດວ່າຍັງມີອັນທີ່ເອີ້ນວ່າ "ດີ" ອຸປະຕິເຫດ. ບຸກຄົນສາມາດພົບຕົນເອງໃນຄວາມໂຊກດີອັນໃຫຍ່ຫຼວງຫຼືໄດ້ຮັບຜົນປະໂຫຍດອັນສໍາຄັນອື່ນໆອັນເນື່ອງມາຈາກຜົນຂອງອຸປະຕິເຫດ. ຫນຶ່ງໃນຕົວຢ່າງທີ່ອ້າງເຖິງຫຼາຍທີ່ສຸດປະກອບດ້ວຍ Sir Alexander Fleming ແລະການຄົ້ນພົບອັນເປັນກຽດຂອງລາວກ່ຽວກັບ penicillin. ເລື່ອງນີ້ເລົ່າສູ່ຟັງວ່າ ລາວບໍ່ຄ່ອຍສົນໃຈໃນຫ້ອງທົດລອງຂອງລາວ ແລະເມື່ອກັບມາຈາກການພັກຜ່ອນສອງອາທິດ ລາວໄດ້ພົບເຫັນແມ່ພິມຢູ່ໃນແຜ່ນວັດທະນະທໍາຂອງລາວ. ລາຍ​ງານ​ວ່າ, ລາວ​ໄດ້​ກ່າວ​ກ່ຽວ​ກັບ​ເລື່ອງ​ນີ້​ວ່າ: “ບາງ​ຄັ້ງ​ບາງ​ຄົນ​ຊອກ​ຫາ​ສິ່ງ​ທີ່​ບໍ່​ໄດ້​ຊອກ. ເມື່ອຂ້ອຍຕື່ນຂຶ້ນມາຫຼັງຈາກອາລຸນວັນທີ 28 ກັນຍາ 1928, ແນ່ນອນ, ຂ້ອຍບໍ່ໄດ້ວາງແຜນທີ່ຈະປະຕິວັດຢາທັງໝົດໂດຍການຄົ້ນພົບຢາຕ້ານເຊື້ອຊະນິດທຳອິດຂອງໂລກ ຫຼື ຢາຂ້າເຊື້ອແບັກທີເຣັຍ. ແຕ່ຂ້ອຍເດົາວ່ານັ້ນແມ່ນສິ່ງທີ່ຂ້ອຍເຮັດແທ້ໆ.”

ພວກ​ເຮົາ​ຈະ​ຈັດ​ວາງ​ອຸ​ປະ​ຕິ​ເຫດ​ທີ່​ເອື້ອ​ອໍາ​ນວຍ​ແລະ​ສຸມ​ໃສ່​ການ​ໃນ​ທີ່​ນີ້​ອຸ​ປະ​ຕິ​ເຫດ​ທີ່​ຫນ້າ​ເສົ້າ​ໃຈ​. ສະບັບໜ້າຕາຂອງອຸບັດເຫດແມ່ນບ່ອນທີ່ຜົນທາງລົບເຫຼົ່ານັ້ນສາມາດເປັນໄພຂົ່ມຂູ່ຕໍ່ຊີວິດໄດ້ໂດຍສະເພາະ ຫຼືມີຜົນເສຍຫາຍຢ່າງໜັກໜ່ວງ. ເທົ່າທີ່ເປັນໄປໄດ້, ອຸປະຕິເຫດທີ່ຫຼຸດລົງທີ່ພວກເຮົາຕ້ອງການຫຼຸດຜ່ອນ (ແລະ, ແນ່ນອນ, ອຸປະຕິເຫດ upside ທີ່ພວກເຮົາຕ້ອງການໃຫ້ສູງສຸດ, ຖ້າເປັນໄປໄດ້, ເຖິງແມ່ນວ່າຂ້າພະເຈົ້າຈະກວມເອົາຕົວແປຂອງໃບຫນ້າຍິ້ມໃນຄໍລໍາຕໍ່ມາ).

ຂ້າພະເຈົ້າຕ້ອງການ reword ເລັກນ້ອຍຄໍາຖາມກ່ອນຫນ້ານີ້ກ່ຽວກັບ inevitable ຂອງອຸປະຕິເຫດ. ມາຮອດປະຈຸ, ພວກເຮົາໄດ້ຮັກສາຄວາມສົນໃຈຂອງພວກເຮົາກ່ຽວກັບອຸປະຕິເຫດທີ່ເກີດຂຶ້ນໃນຕົວຢ່າງໂດຍສະເພາະຂອງບຸກຄົນ. ບໍ່ຕ້ອງສົງໃສວ່າອຸບັດຕິເຫດຍັງສາມາດສົ່ງຜົນກະທົບຕໍ່ປະຊາຊົນຈໍານວນຫຼາຍໃນເວລາດຽວກັນ. ນີ້ສາມາດພົບໄດ້ໂດຍສະເພາະໃນເວລາທີ່ປະຊາຊົນໄດ້ຖືກ immersed ໃນລະບົບສະລັບສັບຊ້ອນຂອງຫນຶ່ງຫຼືຄົນອື່ນ.

ກຽມພ້ອມສໍາລັບຕົວແປຂອງຄໍາຖາມທີ່ເລື່ອນໄປກ່ອນຫນ້າ.

ອຸບັດເຫດຂອງລະບົບແມ່ນຫຼີກລ່ຽງບໍ່ໄດ້ບໍ?

ພວກເຮົາຄວນພິຈາລະນາເລື່ອງນີ້.

ສົມມຸດວ່າຊັ້ນໂຮງງານຖືກວາງໄວ້ເພື່ອເຮັດຊິ້ນສ່ວນສໍາລັບລົດ. ຜູ້ທີ່ອອກແບບໂຮງງານແມ່ນໃຫ້ເວົ້າວ່າເປັນຫ່ວງທີ່ສຸດກ່ຽວກັບອຸປະຕິເຫດຂອງພະນັກງານທີ່ອາດຈະເກີດຂຶ້ນ. ພະນັກງານໂຮງງານຕ້ອງໃສ່ໝວກກັນກະທົບຕະຫຼອດເວລາ. ປ້າຍໃນໂຮງງານເຕືອນໃຫ້ລະວັງອຸບັດຕິເຫດ ແລະ ມີສະຕິໃນການເຮັດວຽກຂອງເຈົ້າ. ທຸກໆ​ການ​ລະ​ມັດ​ລະ​ວັງ​ແມ່ນ​ໄດ້​ຮັບ​ການ​ປະ​ຕິ​ບັດ​ເພື່ອ​ຫຼີກ​ເວັ້ນ​ການ​ເກີດ​ອຸ​ບັດ​ຕິ​ເຫດ.

ໃນລະບົບນີ້, ພວກເຮົາອາດຈະຫວັງວ່າບໍ່ມີໃຜຈະປະສົບອຸປະຕິເຫດ. ເຈົ້າເຊື່ອບໍວ່າບໍ່ມີໂອກາດທີ່ຈະເກີດອຸບັດຕິເຫດ? ຂ້າພະເຈົ້າຈະກ້າແນະນໍາວ່າບໍ່ມີນັກຄິດທີ່ສົມເຫດສົມຜົນຈະວາງເດີມພັນວ່າໂອກາດຂອງອຸປະຕິເຫດແມ່ນສູນໃນກໍລະນີນີ້. ໂອກາດທີ່ຈະເກີດອຸປະຕິເຫດແມ່ນຕໍ່າຫຼາຍ, ແຕ່ພວກເຮົາຍັງຮູ້ ແລະສົມມຸດວ່າ ເຖິງວ່າຈະມີການລະມັດລະວັງທັງໝົດກໍຕາມ, ແຕ່ກໍ່ຍັງມີຄວາມສ່ຽງທີ່ຈະເກີດອຸບັດຕິເຫດຢູ່.

ທັງໝົດນີ້ຊີ້ໃຫ້ເຫັນເຖິງຄວາມຄິດທີ່ວ່າໃນລະບົບທີ່ສັບສົນພຽງພໍ ພວກເຮົາຕ້ອງເຊື່ອວ່າ ອຸບັດຕິເຫດຍັງຈະເກີດຂຶ້ນຢູ່, ບໍ່ວ່າພວກເຮົາຈະພະຍາຍາມປ້ອງກັນເຂົາເຈົ້າໜັກປານໃດ. ພວກ​ເຮົາ​ບໍ່​ເຕັມ​ໃຈ​ກັບ​ຕົວ​ເຮົາ​ເອງ​ໃນ​ຂໍ້​ກໍາ​ນົດ​ທີ່​ອຸ​ປະ​ຕິ​ເຫດ​ຂອງ​ລະ​ບົບ​ແມ່ນ​ແນ່​ນອນ​ວ່າ​ບໍ່​ໄດ້​. ຄໍາຖະແຫຼງທີ່ໃຫຍ່ຫຼວງຂອງ caliber ນີ້ອາດຈະມີຄວາມລະມັດລະວັງວ່າລະບົບຈະຕ້ອງມີຄວາມຊັບຊ້ອນບາງຢ່າງເຊັ່ນວ່າມັນເປັນໄປບໍ່ໄດ້ທີ່ຈະກວມເອົາພື້ນຖານທັງຫມົດເພື່ອປ້ອງກັນອຸປະຕິເຫດທັງຫມົດ.

ຕອນນີ້ເຈົ້າໄດ້ຖືກນຳສະເໜີເປັນຂັ້ນຕອນຢ່າງເປັນລະບຽບກ່ຽວກັບທິດສະດີທີ່ໄດ້ລະບຸໄວ້ຢ່າງກ້ວາງຂວາງກ່ຽວກັບອຸປະຕິເຫດທີ່ສາມາດຕິດສະຫຼາກໄດ້ວ່າເປັນອຸປະຕິເຫດປົກກະຕິ ຫຼື ທິດສະດີອຸປະຕິເຫດປົກກະຕິ (NAT). ນີ້ແມ່ນຄໍາອະທິບາຍທີ່ເປັນປະໂຫຍດໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດເບິ່ງແນວຄິດນີ້: "ໃນຂະຫນາດໃຫຍ່ພຽງພໍ, ລະບົບໃດກໍ່ຕາມຈະຜະລິດ "ອຸປະຕິເຫດປົກກະຕິ". ເຫຼົ່ານີ້ແມ່ນອຸປະຕິເຫດທີ່ບໍ່ສາມາດຫຼີກເວັ້ນໄດ້ທີ່ເກີດຈາກການປະສົມປະສານຂອງຄວາມສັບສົນ, ການສົມທົບລະຫວ່າງອົງປະກອບ, ແລະອັນຕະລາຍທີ່ອາດຈະເກີດຂຶ້ນ. ອຸປະຕິເຫດປົກກະຕິແມ່ນແຕກຕ່າງຈາກອຸປະຕິເຫດຄວາມລົ້ມເຫຼວຂອງອົງປະກອບທີ່ພົບເລື້ອຍກວ່າທີ່ເຫດການແລະປະຕິສໍາພັນທີ່ນໍາໄປສູ່ອຸປະຕິເຫດປົກກະຕິແມ່ນບໍ່ເຂົ້າໃຈໄດ້ກັບຜູ້ປະຕິບັດງານຂອງລະບົບ" (ດັ່ງທີ່ໄດ້ກ່າວໄວ້ໃນ "ຄວາມເຂົ້າໃຈແລະຫຼີກເວັ້ນຄວາມລົ້ມເຫຼວຂອງ AI: ຄູ່ມືພາກປະຕິບັດ" ໂດຍ Robert Williams ແລະ Roman Yampolskiy, ປັດຊະຍາ ວາລະສານ).

ເຫດຜົນທີ່ຂ້ອຍໄດ້ນໍາເຈົ້າໄປສູ່ແຜ່ນດິນອັນທີ່ເອີ້ນວ່າ ອຸ​ປະ​ຕິ​ເຫດ​ປົກ​ກະ​ຕິ​ ແມ່ນວ່າພວກເຮົາອາດຈະຈໍາເປັນຕ້ອງໄດ້ນໍາໃຊ້ທິດສະດີນີ້ຢ່າງລະມັດລະວັງກັບບາງສິ່ງບາງຢ່າງທີ່ຄ່ອຍໆແລະ inevitably ກາຍເປັນຢູ່ທົ່ວທຸກແຫ່ງໃນສັງຄົມຂອງພວກເຮົາ, ຄືການມາເຖິງຂອງ Artificial Intelligence (AI).

ໃຫ້ເຮົາຂຸດເຂົ້າໄປໃນນີ້.

ບາງຄົນສົມມຸດວ່າ AI ຈະສົມບູນແບບ. ລະບົບ AI ຈະບໍ່ເຮັດຜິດພາດແລະຈະບໍ່ເຮັດໃຫ້ພວກເຮົາມີບັນຫາ, ການຄາດເດົາໄປ. ສິ່ງທີ່ທ່ານຕ້ອງເຮັດແມ່ນໃຫ້ແນ່ໃຈວ່າຜູ້ພັດທະນາ AI ເຫຼົ່ານັ້ນເຮັດວຽກໄດ້ດີພຽງພໍ, ແລະ voila, AI ຈະບໍ່ເຮັດຫຍັງທີ່ອາດຈະຖືກຕີຄວາມວ່າເປັນອຸບັດຕິເຫດຫຼືເກີດອຸປະຕິເຫດ.

ບໍ່ໄວໃນຄວາມເຊື່ອສົມມຸດຕິຖານນັ້ນ. ຖ້າຫາກວ່າທ່ານມີຄວາມມຸ່ງຫມັ້ນທີ່ຈະຊື້ເຂົ້າໄປໃນທິດສະດີຂອງ ອຸ​ປະ​ຕິ​ເຫດ​ປົກ​ກະ​ຕິ​, AI ໃດໆຂອງຄວາມສັບສົນທີ່ສໍາຄັນແມ່ນຈະເຮັດໃຫ້ເກີດອຸປະຕິເຫດຢ່າງຫຼີກລ່ຽງບໍ່ໄດ້. ໂດຍບໍ່ສົນເລື່ອງວ່າຜູ້ພັດທະນາ AI ເຫຼົ່ານັ້ນຈະເຮັດເພື່ອປ້ອງກັນອຸປະຕິເຫດໃນເວລາກາງຄືນຫຼາຍປານໃດ, AI ແນ່ນອນວ່າໃນບາງເວລາຈະເກີດອຸບັດຕິເຫດ. ນັ້ນແມ່ນວິທີທີ່ຄຸກກີຈະແຕກ. ແລະບໍ່ມີການພັກຜ່ອນໂດຍການຮ້ອງໄຫ້ຢູ່ໃນນ້ໍານົມທີ່ຮົ່ວຂອງພວກເຮົາກ່ຽວກັບມັນ.

ໄຕ່ຕອງ mashup ຂອງ AI ແລະ tenets ແນວຄວາມຄິດຂອງ ອຸ​ປະ​ຕິ​ເຫດ​ປົກ​ກະ​ຕິ​.

ຈິນຕະນາການວ່າພວກເຮົາມີລະບົບ AI ທີ່ຄວບຄຸມອາວຸດນິວເຄລຍ. AI ໄດ້ຖືກອອກແບບຢ່າງລະມັດລະວັງ. ທຸກໆການກວດສອບແລະການດຸ່ນດ່ຽງທີ່ຄິດໄດ້ໄດ້ຖືກລະຫັດເຂົ້າໄປໃນລະບົບ AI. ພວກເຮົາປອດໄພຈາກອຸປະຕິເຫດທີ່ອີງໃສ່ AI ທີ່ອາດຈະເກີດຂຶ້ນບໍ? ຜູ້ທີ່ສະຫນັບສະຫນູນທັດສະນະຂອງອຸປະຕິເຫດຕາມປົກກະຕິຈະເວົ້າວ່າພວກເຮົາບໍ່ປອດໄພຫຼາຍເທົ່າທີ່ຄາດໄວ້. ເນື່ອງຈາກ AI ມີແນວໂນ້ມທີ່ຈະສັບສົນໂດຍສະເພາະ, ອຸປະຕິເຫດປົກກະຕິແມ່ນລໍຖ້າຢູ່ໃນບ່ອນນັ້ນຢ່າງງຽບໆເພື່ອເກີດຂື້ນໃນມື້ຫນຶ່ງ, ບາງທີອາດເປັນຊ່ວງເວລາທີ່ຮ້າຍແຮງທີ່ສຸດ.

ຄວາມສໍາຄັນຂອງຄໍາຖາມ thorny ເຫຼົ່ານັ້ນແມ່ນວ່າພວກເຮົາຕ້ອງຢູ່ໃນຕີນຂອງພວກເຮົາວ່າ AI ໄດ້ຖືກຜູກມັດກັບອຸປະຕິເຫດ, ແລະມະນຸດຊາດຈະຕ້ອງເຮັດບາງສິ່ງບາງຢ່າງທີ່ສົມເຫດສົມຜົນແລະ proactive ກ່ຽວກັບອັນຕະລາຍທີ່ອາດຈະເກີດຂຶ້ນ. ດັ່ງທີ່ທ່ານຈະເຫັນໃນເວລາຫຼືສອງນາທີ, ນີ້ແມ່ນການພິຈາລະນາທີ່ເກີດຂື້ນໃນເວລາທີ່ມັນມາກັບການນໍາໃຊ້ AI, ແລະພາກສະຫນາມຂອງ AI ຈັນຍາບັນແລະຈັນຍາບັນ AI ແມ່ນ wrestling ຂ້ອນຂ້າງເລັກນ້ອຍກ່ຽວກັບສິ່ງທີ່ຕ້ອງເຮັດ. ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ກ່ອນທີ່ພວກເຮົາຈະລົງຂຸມກະຕ່າຍ, ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI. ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນມັນສະ ໝອງ ທຽບເທົ່າກັບມະນຸດທີ່ໃຫ້ ຄຳ ແນະ ນຳ ແກ່ເຈົ້າ. ຫຼາຍກວ່ານັ້ນ, ເນື່ອງຈາກບາງການຄາດເດົາວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດລົງໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ ການຄຸ້ມຄອງຢູ່ທີ່ນີ້). ທັງຫມົດທີ່ບອກສະຖານະການເຫຼົ່ານີ້ຈະເຮັດໃຫ້ການປະເມີນແຫຼ່ງທີ່ມາ.

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ແນວ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງໃຊ້ການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ທັງຫມົດທີ່ບອກ, ຄວາມຫວັງທົ່ວໄປແມ່ນວ່າໂດຍການສ້າງຕັ້ງຄວາມເຂົ້າໃຈກ່ຽວກັບຈັນຍາບັນຂອງ AI ພວກເຮົາຢ່າງຫນ້ອຍຈະສາມາດເພີ່ມຄວາມຮັບຮູ້ຂອງສັງຄົມກ່ຽວກັບສິ່ງທີ່ AI ສາມາດເຮັດໄດ້ທັງສອງຜົນປະໂຫຍດແລະສາມາດຜະລິດໃນທາງລົບເຊັ່ນກັນ. ຂ້າພະເຈົ້າໄດ້ປຶກສາຫາລືຢ່າງກວ້າງຂວາງກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ກວດສອບແລະສະຫຼຸບຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ວ່າ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ພວກເຮົາອາດຈະຈໍາເປັນຕ້ອງໄດ້ເພີ່ມບັນຊີລາຍຊື່ຈັນຍາບັນ AI vaunted ທີ່ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ພິຈາລະນາຢ່າງຈະແຈ້ງແລະດໍາເນີນການ overtly ເພື່ອປ້ອງກັນຫຼືຢ່າງຫນ້ອຍ stridently ຫຼຸດຜ່ອນການອີງໃສ່ AI. ອຸ​ປະ​ຕິ​ເຫດ​ປົກ​ກະ​ຕິ​ ທີ່ອາດຈະເກີດຂຶ້ນ. ຜູ້ທີ່ພັດທະນາ AI ຈໍາເປັນຕ້ອງເຮັດດີທີ່ສຸດໃນດ້ານຫນ້າ. ຜູ້ທີ່ນໍາໃຊ້ AI ຈໍາເປັນຕ້ອງເຮັດເຊັ່ນດຽວກັນ. ຜູ້ທີ່ໃຊ້ຫຼືເປັນບາງສ່ວນຂອງ AI ຄວນລະວັງແລະລະມັດລະວັງສໍາລັບຄວາມເປັນໄປໄດ້ຂອງອຸປະຕິເຫດ AI ທີ່ເບິ່ງຄືວ່າຈະເກີດຂຶ້ນ.

ທ່ານອາດຈະຖືກລໍ້ລວງໃຫ້ຄິດວ່າການລະມັດລະວັງພຽງພໍສາມາດຖືກສ້າງຂຶ້ນໃນ AI ທີ່ໂອກາດຂອງອຸປະຕິເຫດຄວນຈະຫຼຸດລົງເປັນສູນ. ສຳ​ລັບ​ຜູ້​ທີ່​ເປັນ​ເຕັກ​ໂນ​ໂລ​ຊີ, ຄວາມ​ຫຍຸ້ງ​ຍາກ​ທີ່​ເປັນ​ປົກ​ກະ​ຕິ​ແມ່ນ​ວ່າ​ຖ້າ​ຫາກ​ວ່າ​ເຕັກ​ໂນ​ໂລ​ຊີ​ໃດ​ຫນຶ່ງ​ສາ​ມາດ​ສ້າງ​ບັນ​ຫາ​ໄດ້, ສິ້ນ​ຂອງ​ເຕັກ​ໂນ​ໂລ​ຊີ​ອີກ​ຢ່າງ​ແນ່​ນອນ​ສາ​ມາດ​ແກ້​ໄຂ​ບັນ​ຫາ. ພຽງແຕ່ສືບຕໍ່ຖິ້ມເຕັກໂນໂລຢີຫຼາຍຂຶ້ນຈົນກວ່າບັນຫາຈະຫມົດໄປ.

ດີ, ຜູ້ທີ່ໄດ້ສຶກສາອຸບັດເຫດທີ່ເປັນລະບົບມີແນວໂນ້ມທີ່ຈະບໍ່ເຫັນດີ ແລະຕອບໂຕ້ຢ່າງສຸພາບຕໍ່ກັບຄວາມເຫັນແກ່ຕົວຂອງເທັກໂນໂລຍີທີ່ສົມມຸດຕິຖານໂດຍການສະເໜີຈຸດຢືນທີ່ເອີ້ນວ່າແບບຈໍາລອງຊີດສະວິດ (SCM): "ໃນ SCM, ຊັ້ນຂອງຄວາມປອດໄພແມ່ນແບບຈໍາລອງເປັນຕ່ອນຂອງ. ເນີຍແຂງທີ່ມີຮູຢູ່ໃນພວກມັນເປັນຕົວແທນຂອງຈຸດອ່ອນໆໃນແຕ່ລະຊັ້ນຂອງຄວາມປອດໄພ. ເມື່ອເວລາຜ່ານໄປ, ຮູຕ່າງໆຈະປ່ຽນຮູບຮ່າງແລະເຄື່ອນຍ້າຍໄປມາ. ໃນ​ທີ່​ສຸດ, ບໍ່​ວ່າ​ຈະ​ມີ​ຊີດ​ຫຼາຍ​ຊັ້ນ (ຊັ້ນ​ຂອງ​ຄວາມ​ປອດ​ໄພ) ມີ, ຮູ​ຕ່າງໆ​ຈະ​ຈັດ​ໃຫ້​ມີ​ການ​ຍິງ​ກົງ​ໄປ​ກົງ​ໄປ​ກົງ​ມາ​ຂອງ​ຊີດ​ທັງ​ຫມົດ (ອຸ​ປະ​ຕິ​ເຫດ​ໄດ້​ເກີດ​ຂຶ້ນ​)” (ຕໍ່​ເອ​ກະ​ສານ​ອ້າງ​ອີງ​ກ່ອນ​ຫນ້າ​ນີ້​ໂດຍ Robert Williams ແລະ Roman Yampolskiy ).

ຂ້າພະເຈົ້າບໍ່ຕ້ອງການທີ່ຈະໄດ້ຮັບການ bogged ລົງເຂົ້າໄປໃນ tangent ດ້ານນີ້ກ່ຽວກັບວ່າມີຫຼືບໍ່ມີວິທີການຮັບປະກັນທີ່ຈະດໍາເນີນໂຄງການ AI ທັງຫມົດແລະສະເຫມີຫລີກລ່ຽງໂອກາດທີ່ຈະເກີດອຸປະຕິເຫດ. ມີວິທີການພິສູດທາງຄະນິດສາດ ແລະ ຄອມພິວເຕີທັງໝົດທີ່ກຳລັງຖືກທົດລອງ. ຂ້າພະເຈົ້າຄິດວ່າມັນສົມເຫດສົມຜົນແລະຍຸຕິທໍາທີ່ຈະປະກາດວ່າພວກເຮົາບໍ່ມີວິທີການເຮັດວຽກທີ່ສາມາດຂະຫຍາຍໄດ້ຫຼືເຕັກໂນໂລຢີທີ່ສາມາດຮັບປະກັນໂອກາດດັ່ງກ່າວເປັນສູນ, ບວກກັບພວກເຮົາແນ່ນອນຖືກ saddled ກັບໂຕນຂອງ AI ຈໍານວນຫຼາຍທີ່ກໍາລັງຜະລິດ pell-mell ທີ່ພວກເຮົາ. ຮູ້ແນ່ນອນບໍ່ໄດ້ຊອກຫາວິທີທີ່ຈະປະຕິບັດຕາມການປະຕິບັດດັ່ງກ່າວ. ຈຸດສຸດທ້າຍນັ້ນແມ່ນສໍາຄັນເພາະວ່າເຖິງແມ່ນວ່າພວກເຮົາສາມາດ concoction ບາງສິ່ງບາງຢ່າງຢູ່ໃນຫ້ອງທົດລອງ AI, ຂະຫນາດນັ້ນເປັນລ້ານຂອງຄວາມພະຍາຍາມ AI ປ່າທໍາມະຊາດແລະບໍ່ເປັນຫ່ວງທີ່ກໍາລັງດໍາເນີນຢູ່ແລະທີ່ຈະສືບຕໍ່ເກີດຂຶ້ນແມ່ນບັນຫາ knotty ແລະບໍ່ມີແນວໂນ້ມທີ່ຈະແກ້ໄຂໄດ້ເຖິງແມ່ນວ່າເປັນເຄື່ອງພິສູດການຄໍານວນ. ມີລູກປືນ.

ອີກຈຸດຫນຶ່ງທີ່ຂ້ອຍເຊື່ອວ່າສົມຄວນທີ່ຈະກ່າວເຖິງສັ້ນໆແມ່ນປະກອບດ້ວຍ AI ທີ່ຖືກຫັນໄປສູ່ການກະທໍາທີ່ບໍ່ຫນ້າເຊື່ອທີ່ເປັນຜົນມາຈາກການກະທໍາຂອງມະນຸດທີ່ເປັນອັນຕະລາຍ. ຂ້າພະເຈົ້າຈະບໍ່ເອົາຕົວຢ່າງເຫຼົ່ານັ້ນເຂົ້າໄປໃນພື້ນທີ່ຂອງອຸປະຕິເຫດ AI. ຈົ່ງຈື່ໄວ້ວ່າການສົນທະນາເປີດແນະນໍາວ່າຄໍານິຍາມຂອງວັດຈະນານຸກົມຂອງອຸປະຕິເຫດແມ່ນເຫດການຂອງເຫດການ ບໍ່ໄດ້ຕັ້ງໃຈ ທໍາມະຊາດ. ຖ້າ cybercrook ຂອງມະນຸດສາມາດໄດ້ຮັບລະບົບ AI ເພື່ອເຮັດສິ່ງທີ່ບໍ່ດີ, ຂ້ອຍບໍ່ຈັດປະເພດ AI ວ່າປະສົບອຸປະຕິເຫດ. ຂ້າ​ພະ​ເຈົ້າ​ເຊື່ອ​ວ່າ​ທ່ານ​ຈະ​ໄປ​ພ້ອມ​ກັບ​ສັນ​ນິ​ຖານ​ນັ້ນ​.

ຄຳຖາມທີ່ໜ້າສົນໃຈເກີດຂຶ້ນວ່າ ການກະທຳທີ່ຜິດຕໍ່ AI ຕ່າງໆສາມາດຖືໄດ້ວ່າເປັນອຸບັດເຫດຂອງ AI ຕໍ່ກັບການກະທຳທີ່ໂຫດຮ້າຍຂອງອາຊະຍາກຳທາງອິນເຕີເນັດຫຼາຍປານໃດ. ອີງຕາມບາງຖານຂໍ້ມູນການລາຍງານເຫດການ AI ທີ່ມີຢູ່ແລ້ວ, ປະກົດວ່າອຸປະຕິເຫດ AI ເກີດຂື້ນຫຼາຍກ່ວາເຫດການທີ່ເຮັດໃຫ້ເກີດອັນຕະລາຍ, ເຖິງແມ່ນວ່າທ່ານຈະຕ້ອງເອົາແນວຄິດນັ້ນດ້ວຍປະລິມານເກືອຫຼາຍ. ຂ້າພະເຈົ້າເວົ້າເລື່ອງນີ້ເພາະວ່າມີການລໍ້ລວງທີ່ຍິ່ງໃຫຍ່ທີ່ຈະບໍ່ລາຍງານເມື່ອລະບົບ AI ຖືກໂຈມຕີ, ແລະບາງທີອາດມີຄວາມເຕັມໃຈທີ່ຈະລາຍງານເມື່ອອຸປະຕິເຫດ AI ເກີດຂື້ນ.

ມີຂໍ້ເຕືອນທີ່ມີຄວາມສໍາຄັນທີ່ສຸດທີ່ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ປຶກສາຫາລືກ່ຽວກັບອຸປະຕິເຫດ AI.

ການນໍາໃຊ້ຄໍາເວົ້າທີ່ວ່າ "ອຸປະຕິເຫດ AI" ໂດຍທົ່ວໄປແມ່ນບໍ່ສົມຄວນແລະຈະສ້າງຄວາມສັບສົນຫຼາຍສໍາລັບພວກເຮົາທັງຫມົດ, ຊຶ່ງຫມາຍຄວາມວ່າສໍາລັບທຸກຄົນຂອງສັງຄົມ. ເມື່ອມະນຸດເກີດອຸບັດເຫດ, ເຮົາມັກຈະບ່າໄຫລ່ ແລະຮູ້ສຶກເຫັນອົກເຫັນໃຈຜູ້ປະສົບອຸບັດຕິເຫດ. ພວກເຮົາເບິ່ງຄືວ່າຈະປະຕິບັດກັບຄໍາວ່າ "ອຸປະຕິເຫດ" ຄືກັບວ່າມັນຫມາຍຄວາມວ່າບໍ່ມີໃຜຮັບຜິດຊອບຕໍ່ສິ່ງທີ່ເກີດຂຶ້ນ.

ໃຫ້ເຮົາເອົາຕົວຢ່າງຂອງການຕົກຢູ່ໃນອຸປະຕິເຫດລົດ. ລົດຄັນນຶ່ງ ແລ່ນໄປທາງຂວາ ແລະ ບັງເອີນໄປຕຳເອົາລົດອີກຄັນນຶ່ງ ທີ່ກຳລັງແລ່ນມາທາງໜ້າ. Shucks, ມັນເປັນພຽງແຕ່ອຸປະຕິເຫດແລະອຸບັດຕິເຫດເກີດຂຶ້ນ. ຜູ້ທີ່ບໍ່ໄດ້ມີສ່ວນຮ່ວມໃນເຫດການອາດຈະເຮັດໃຫ້ເລື່ອງເລື່ອນລົງຖ້າເຫດການຖືກນອນຢູ່ໃນເງື່ອນໄຂພຽງແຕ່ເປັນອຸປະຕິເຫດທີ່ເກີດຂຶ້ນ.

ຂ້າພະເຈົ້າມີຄວາມຮູ້ສຶກວ່າຖ້າທ່ານຢູ່ໃນລົດທີ່ຖືກຕີ, ທ່ານຈະບໍ່ເຫັນອົກເຫັນໃຈກັບຜູ້ຂັບຂີ່ທີ່ເຮັດໃຫ້ທາງກວ້າງເກີນໄປ. ຄວາມຄິດເຫັນຂອງເຈົ້າແນ່ນອນວ່າຄົນຂັບອີກຄົນນັ້ນເປັນຄົນຂັບຂີ້ຕົວະ ແລະເປັນການກະທຳທີ່ຜິດກົດໝາຍ ຫຼື ບໍ່ສະຫຼາດຫຼັກແຫຼມເຮັດໃຫ້ລົດຕຳກັນ. ໂດຍ​ການ​ຕິດ​ປ້າຍ​ເຫດການ​ດັ່ງກ່າວ​ເປັນ “ອຸບັດ​ຕິ​ເຫດ” ຄົນ​ຂັບ​ລົດ​ທີ່​ຕິດ​ຢູ່​ໃນ​ເວລາ​ນີ້​ມີ​ຄວາມ​ເສຍ​ຫາຍ​ຢູ່​ບາງ​ສ່ວນ​ຍ້ອນ​ການ​ປະກົດ​ຕົວ​ວ່າ​ມັນ​ເກີດ​ຂຶ້ນ​ພຽງ​ຜູ້​ດຽວ ແທນ​ທີ່​ຈະ​ຜ່ານ​ມື​ຂອງ​ຄົນ​ຂັບ​ທີ່​ປັ່ນ​ປ່ວນ.

ແທ້ຈິງແລ້ວ, ຄໍາວ່າ "ອຸປະຕິເຫດ" ແມ່ນເຕັມໄປດ້ວຍຄວາມຫມາຍທີ່ແຕກຕ່າງກັນ, ໂດຍແລະຂະຫນາດໃຫຍ່, ສະຖິຕິຂອງລັດຖະບານກ່ຽວກັບອຸປະຕິເຫດລົດແມ່ນຫມາຍເຖິງເລື່ອງດັ່ງກ່າວເປັນການປະທະກັນຫຼືອຸປະຕິເຫດລົດ, ແທນທີ່ຈະໃຊ້ຄໍາວ່າອຸປະຕິເຫດລົດ. ອຸບັດຕິເຫດລົດໃຫຍ່ຕຳກັນ ຫຼື ລົດຕຳກັນ ເບິ່ງຄືວ່າບໍ່ມີຜົນສະທ້ອນຫຍັງເລີຍກ່ຽວກັບເຫດການທີ່ເກີດຂຶ້ນ. ໃນ​ຂະ​ນະ​ດຽວ​ກັນ, ຄໍາ​ສັບ​ຕ່າງໆ​ຂອງ "ອຸ​ປະ​ຕິ​ເຫດ​ລົດ​" ເກືອບ​ເຮັດ​ໃຫ້​ພວກ​ເຮົາ​ຄິດ​ວ່າ​ມັນ​ເປັນ quirk ຂອງ​ໂຊກ​ຊະ​ຕາ​ຫຼື​ບາງ​ຢ່າງ​ຢູ່​ນອກ​ມື​ຂອງ​ມະ​ນຸດ​.

ເຈົ້າສາມາດເຫັນໄດ້ຢ່າງອຸດົມສົມບູນວ່າວິທີການພິຈາລະນາທີ່ມີຄວາມຫມາຍນີ້ມາຫຼິ້ນໃນເວລາທີ່ກ່າວເຖິງອຸປະຕິເຫດ AI. ພວກເຮົາບໍ່ຕ້ອງການໃຫ້ຜູ້ພັດທະນາ AI ເຊື່ອງຢູ່ເບື້ອງຫຼັງຂອງໄສ້ທີ່ມີຄວາມຫມາຍວ່າ AI ພຽງແຕ່ເຮັດໃຫ້ຜູ້ໃດຜູ້ຫນຶ່ງເປັນອັນຕະລາຍໂດຍບັງເອີນ. ດຽວກັນກັບຜູ້ທີ່ໃຊ້ AI. ທ່ານສາມາດໂຕ້ຖຽງໄດ້ວ່າຄໍາວ່າ "ອຸປະຕິເຫດ AI" ແມ່ນເກືອບເປັນ anthropomorphizing ຂອງ AI ທີ່ຈະເຮັດໃຫ້ສັງຄົມເຂົ້າໃຈຜິດໃນການອະນຸຍາດໃຫ້ມະນຸດທີ່ຢູ່ເບື້ອງຫຼັງຂອງ AI ຫນີຈາກຄວາມຮັບຜິດຊອບ. ສໍາລັບການສົນທະນາຂອງຂ້າພະເຈົ້າກ່ຽວກັບຄວາມສໍາຄັນເພີ່ມຂຶ້ນຂອງການຖືມະນຸດຮັບຜິດຊອບສໍາລັບ AI ຂອງເຂົາເຈົ້າ, ເບິ່ງການສົນທະນາຂອງຂ້າພະເຈົ້າຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້ ແລະ ລິ້ງນີ້ຢູ່ນີ້.

ຕໍ່ໄປ, ຂ້າພະເຈົ້າຈະນໍາໃຊ້ປະໂຫຍກທີ່ຫມາຍເຖິງອຸປະຕິເຫດ AI, ແຕ່ຂ້າພະເຈົ້າເຮັດຢ່າງບໍ່ເຕັມໃຈແລະພຽງແຕ່ເນື່ອງຈາກວ່າມັນເປັນວິທີການທໍາມະດາຂອງການອ້າງອີງເຖິງປະກົດການນີ້. ຄວາມພະຍາຍາມທີ່ຈະເວົ້າຄຳນີ້ແຕກຕ່າງກັນໄປຢ່າງໜ້າເສຍໃຈຫຼາຍ ແລະບໍ່ໄດ້ອ່ານງ່າຍປານໃດ. ກະລຸນາກວດສອບການຕີຄວາມໝາຍໃນລັກສະນະທີ່ບໍ່ເຮັດໃຫ້ທ່ານເບິ່ງໄປທາງອື່ນ ແລະບໍ່ຮູ້ວ່າມະນຸດທີ່ຢູ່ເບື້ອງຫຼັງຂອງ AI ແມ່ນມີຄວາມຜິດເມື່ອ AI ຜິດພາດ.

ເພື່ອຊ່ວຍສະແດງໃຫ້ເຫັນເຖິງລັກສະນະທີ່ອາດຈະສັບສົນຫຼືເຮັດໃຫ້ເຂົ້າໃຈຜິດຂອງການອ້າງເຖິງ AI ເປັນອຸປະຕິເຫດທີ່ເກີດຂື້ນ, ພວກເຮົາສາມາດກັບຄືນໄປຫາຂໍ້ສັງເກດຂອງຂ້ອຍກ່ຽວກັບການເຄາະກະດາດ. ພິຈາລະນາຕົວຢ່າງຂອງ AI ທີ່ເຮັດເຊັ່ນນີ້: "ບັນຫານີ້ກ່ຽວຂ້ອງກັບສິ່ງທີ່ເຮັດໂດຍບັງເອີນຫຼືຄວາມບໍ່ສົນໃຈໂດຍ AI. ຫຸ່ນ​ຍົນ​ທໍາ​ຄວາມ​ສະ​ອາດ​ເຄາະ​ໃນ​ກະ​ກັນ​ເປັນ​ຕົວ​ຢ່າງ​ຫນຶ່ງ​ຂອງ​ການ​ນີ້​. ສະພາບແວດລ້ອມທີ່ຊັບຊ້ອນມີຫຼາຍຊະນິດຂອງ ' vases ' ທີ່ພວກເຮົາອາດຈະບໍ່ເປັນໄປໄດ້ໃນໂຄງການລົງໂທດສໍາລັບຜົນຂ້າງຄຽງທັງຫມົດ " (ຕາມເອກະສານໂດຍ Robert Williams ແລະ Roman Yampolskiy).

ລະບົບ AI ທີ່ຖືກນໍາໃຊ້ໃນຄົວເຮືອນແລະຫຼັງຈາກນັ້ນ "ບັງເອີນ" ເຄາະໃສ່ vase ເບິ່ງຄືວ່າຈະແນະນໍາວ່າບໍ່ມີໃຜຄວນຖືກຕໍານິຕິຕຽນສໍາລັບການກະທໍາທີ່ບໍ່ດີຂອງ AI ນີ້. ມັນເປັນພຽງອຸບັດຕິເຫດ, ຄົນເຮົາອາດຈະຮ້ອງໄຫ້ເສຍໃຈ. ໃນທາງກົງກັນຂ້າມ, ພວກເຮົາຄວນຖາມຢ່າງຖືກຕ້ອງວ່າເປັນຫຍັງລະບົບ AI ບໍ່ໄດ້ຖືກຕັ້ງໄວ້ເພື່ອຈັດການກັບສະຖານະການໂດຍທົ່ວໄປ. ເຖິງແມ່ນວ່າຜູ້ພັດທະນາ AI ບໍ່ໄດ້ຄາດຫວັງວ່າມີ vase per se ວ່າຢູ່ໃນຂອບເຂດຂອງວັດຖຸທີ່ສາມາດພົບໄດ້, ພວກເຮົາສາມາດຕັ້ງຄໍາຖາມວ່າເປັນຫຍັງບໍ່ມີການຫລີກລ່ຽງວັດຖຸທີ່ເດັ່ນຊັດທີ່ຈະຮັກສາລະບົບ AI ຈາກການທໍາລາຍ. vase (ດັ່ງນັ້ນ, AI ອາດຈະບໍ່ຍອມຮັບການຈັດປະເພດ vase ເປັນ vase, ແຕ່ຍັງສາມາດຫຼີກເວັ້ນມັນເປັນວັດຖຸທີ່ສາມາດກວດພົບໄດ້ທີ່ຈະຫຼີກເວັ້ນ).

ຂ້າພະເຈົ້າໄດ້ຄາດຄະເນແລະສືບຕໍ່ຄາດຄະເນວ່າພວກເຮົາຄ່ອຍໆມຸ່ງຫນ້າໄປສູ່ການສູ້ຮົບທາງດ້ານກົດຫມາຍທີ່ອຸດົມສົມບູນກ່ຽວກັບການປະກົດຕົວຂອງລະບົບ AI ທີ່ເຮັດໃຫ້ຕົວເອງເຂົ້າໄປໃນ "ອຸປະຕິເຫດ AI" ແລະເຮັດໃຫ້ເກີດອັນຕະລາຍບາງຮູບແບບ. ມາຮອດປັດຈຸບັນ, ສັງຄົມຍັງບໍ່ທັນມີປະຕິກິລິຍາອັນໃດອັນໃຫຍ່ຫຼວງຕໍ່ການຊຸກຍູ້ທາງດ້ານກົດໝາຍຂອງ AI ທີ່ຖືກເລື່ອນອອກໄປໃນຕະຫຼາດ ແລະສ້າງຜົນສະທ້ອນທາງລົບ, ບໍ່ວ່າຈະໂດຍເຈດຕະນາຫຼືບໍ່ຕັ້ງໃຈ. AI bandwagon ໃນທຸກມື້ນີ້ທີ່ໄດ້ກາຍເປັນ goldrush ຂອງຜູ້ຜະລິດ AI ເຄິ່ງອົບແລະຜູ້ທີ່ເລັ່ງການບັງຄັບໃຊ້ AI ກໍາລັງໄດ້ຮັບໂຊກດີໃນປັດຈຸບັນແລະຍັງບໍ່ໄດ້ຮັບການສໍາຜັດກັບການດໍາເນີນຄະດີແພ່ງແລະການດໍາເນີນຄະດີອາຍາ.

ຜົນຕອບແທນທາງກົດໝາຍທີ່ຕິດຢູ່ກັບ AI ກໍາລັງຈະມາເຖິງ, ບໍ່ໄວຫຼືໄວກວ່ານັ້ນ.

ກ້າວຕໍ່ໄປ, ພວກເຮົາຈະພະຍາຍາມແລະຮັບມືກັບຄວາມບໍ່ສາມາດຫຼີກລ່ຽງໄດ້ຂອງອຸປະຕິເຫດທີ່ເອີ້ນວ່າ AI?

ສິ່ງຫນຶ່ງທີ່ພວກເຮົາສາມາດເຮັດໄດ້ທັນທີແມ່ນພະຍາຍາມຄາດຄະເນວ່າອຸປະຕິເຫດ AI ອາດຈະເກີດຂື້ນໄດ້ແນວໃດ. ໂດຍການຄາດການອຸບັດເຫດຂອງ AI, ຢ່າງໜ້ອຍພວກເຮົາກໍສາມາດຊອກຫາວິທີທີ່ຈະສະກັດກັ້ນພວກມັນ ຫຼື ຫຼຸດຜ່ອນຄວາມເປັນໄປໄດ້ຂອງເຫດການທີ່ເກີດຂຶ້ນ. ນອກຈາກນັ້ນ, ພວກເຮົາສາມາດພະຍາຍາມຈັດວາງ guardrails ເພື່ອວ່າເມື່ອອຸປະຕິເຫດ AI ເກີດຂຶ້ນ, ໂອກາດທີ່ຈະເປັນອັນຕະລາຍສະແດງໃຫ້ເຫັນແມ່ນຫນ້ອຍລົງ.

ຊຸດປັດໃຈທີ່ເປັນປະໂຫຍດທີ່ໄດ້ອະທິບາຍໄວ້ໃນບົດຄວາມການຄົ້ນຄວ້າທີ່ອ້າງເຖິງກ່ອນຫນ້ານີ້ ຄວາມເຂົ້າໃຈແລະຫຼີກເວັ້ນຄວາມລົ້ມເຫຼວຂອງ AI: ຄູ່ມືພາກປະຕິບັດ ປະກອບມີຄຸນສົມບັດເຫຼົ່ານີ້ (ຕາມທີ່ອ້າງອີງຈາກເອກະສານການຄົ້ນຄວ້າ):

  • ລະບົບທີ່ໄດ້ຮັບຜົນກະທົບຈາກຜົນຜະລິດຂອງ AI.
  • ການຊັກຊ້າຂອງເວລາລະຫວ່າງຜົນໄດ້ຮັບຂອງ AI ແລະລະບົບທີ່ໃຫຍ່ກວ່າ, ການສັງເກດລະບົບ, ລະດັບຄວາມສົນໃຈຂອງມະນຸດ, ແລະຄວາມສາມາດຂອງຜູ້ປະຕິບັດການເພື່ອແກ້ໄຂຄວາມຜິດພາດຂອງ AI.
  • ຄວາມເສຍຫາຍສູງສຸດທີ່ເປັນໄປໄດ້ໂດຍການນໍາໃຊ້ທີ່ເປັນອັນຕະລາຍຂອງລະບົບທີ່ AI ຄວບຄຸມ.
  • ການສົມທົບຂອງອົງປະກອບທີ່ໃກ້ຊິດກັບ AI ແລະຄວາມຊັບຊ້ອນຂອງການໂຕ້ຕອບ.
  • ຊ່ອງຫວ່າງຄວາມຮູ້ຂອງ AI ແລະເຕັກໂນໂລຢີອື່ນໆທີ່ໃຊ້ແລະລະດັບພະລັງງານຂອງລະບົບ.

ໃນຈຸດເຊື່ອມຕໍ່ຂອງການສົນທະນາອັນໜັກໜ່ວງນີ້, ຂ້າພະເຈົ້າຂໍພະນັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະເຮັດໃຫ້ຫົວຂໍ້ອຸປະຕິເຫດ AI ອະທິບາຍຕື່ມອີກ. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງຫຍັງກ່ຽວກັບການມາເຖິງຂອງອັນທີ່ເອີ້ນວ່າອຸປະຕິເຫດ AI ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະເຫດການ AI

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.

ຕອນນີ້ພວກເຮົາກຳລັງເລີ່ມຕົ້ນທີ່ຈະລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ ແລະຄວາມເປັນໄປໄດ້ທາງດ້ານຈັນຍາບັນຂອງ AI ທີ່ຈະມາເຖິງອັນທີ່ເອີ້ນວ່າອຸບັດຕິເຫດ AI.

ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ກໍາລັງດໍາເນີນຢູ່ໃນຖະຫນົນໃກ້ຄຽງຂອງທ່ານແລະເບິ່ງຄືວ່າຈະຂັບລົດຢ່າງປອດໄພ. ໃນຕອນທໍາອິດ, ທ່ານໄດ້ເອົາໃຈໃສ່ເປັນພິເສດໃນແຕ່ລະຄັ້ງທີ່ເຈົ້າສາມາດຈັບຕາເບິ່ງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍານພາຫະນະທີ່ປົກຄອງຕົນເອງໄດ້ຢືນຢູ່ຂ້າງນອກດ້ວຍເຊັນເຊີເອເລັກໂຕຣນິກທີ່ປະກອບມີກ້ອງຖ່າຍຮູບວິດີໂອ, ຫນ່ວຍ radar, ອຸປະກອນ LIDAR, ແລະອື່ນໆ. ຫຼັງ​ຈາກ​ຫຼາຍ​ອາ​ທິດ​ຂອງ​ລົດ​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ລ່ອງ​ເຮືອ​ໃນ​ທົ່ວ​ຊຸມ​ຊົນ​ຂອງ​ທ່ານ​, ໃນ​ປັດ​ຈຸ​ບັນ​ທ່ານ​ເປົ່າ​ສັງ​ເກດ​ເຫັນ​ມັນ​. ຕາມທີ່ເຈົ້າເປັນຫ່ວງ, ມັນເປັນພຽງແຕ່ລົດອີກຄັນໜຶ່ງທີ່ຢູ່ເທິງຖະໜົນຫົນທາງສາທາລະນະທີ່ຫຍຸ້ງຢູ່ແລ້ວ.

ຢ້ານວ່າເຈົ້າຄິດວ່າມັນເປັນໄປບໍ່ໄດ້ ຫຼື ໄຮ້ເຫດຜົນທີ່ຈະຄຸ້ນເຄີຍກັບການເຫັນລົດທີ່ຂັບລົດຕົນເອງໄດ້, ຂ້ອຍໄດ້ຂຽນເລື້ອຍໆກ່ຽວກັບວິທີທີ່ທ້ອງຖິ່ນທີ່ຢູ່ໃນຂອບເຂດຂອງການທົດລອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ຄ່ອຍໆຄຸ້ນເຄີຍກັບການເຫັນລົດທີ່ໂດດເດັ່ນ. ໃນທີ່ສຸດຄົນທ້ອງຖິ່ນຫຼາຍຄົນໄດ້ປ່ຽນຈາກການປາກເປົ່າແກວ່ງປາກເປັນສຽງດັງ ກາຍເປັນຄວາມເບື່ອໜ່າຍອັນກວ້າງໃຫຍ່ໄພສານ ເພື່ອເປັນພະຍານເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ລ້ຽວນັ້ນ.

ອາດ​ຈະ​ເປັນ​ເຫດ​ຜົນ​ຕົ້ນ​ຕໍ​ໃນ​ປັດ​ຈຸ​ບັນ​ທີ່​ເຂົາ​ເຈົ້າ​ອາດ​ຈະ​ສັງ​ເກດ​ເຫັນ​ຍານ​ພາ​ຫະ​ນະ​ອັດ​ຕະ​ໂນ​ມັດ​ແມ່ນ​ຍ້ອນ​ວ່າ​ປັດ​ໄຈ​ລະ​ຄາຍ​ເຄືອງ​ແລະ exasperation ໄດ້​. ລະບົບການຂັບຂີ່ AI ທີ່ເຮັດມາຈາກປື້ມບັນທຶກໃຫ້ແນ່ໃຈວ່າລົດໄດ້ປະຕິບັດຕາມການຈໍາກັດຄວາມໄວທັງຫມົດແລະກົດລະບຽບຂອງຖະຫນົນ. ສໍາລັບຄົນຂັບລົດທີ່ວຸ້ນວາຍຢູ່ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດແບບດັ້ງເດີມ, ເຈົ້າຮູ້ສຶກຕົກໃຈໃນບາງຄັ້ງເມື່ອຕິດຢູ່ຫຼັງລົດທີ່ຂັບເອງຕາມກົດໝາຍ AI ຢ່າງເຂັ້ມງວດ.

ນັ້ນ​ແມ່ນ​ບາງ​ສິ່ງ​ບາງ​ຢ່າງ​ທີ່​ພວກ​ເຮົາ​ທຸກ​ຄົນ​ອາດ​ຈະ​ຕ້ອງ​ເຮັດ​ໃຫ້​ເຄຍ​ຊີນ, ຖືກ​ຕ້ອງ​ຫຼື​ຜິດ.

ກັບຄືນໄປບ່ອນ tale ຂອງພວກເຮົາ.

ມື້ຫນຶ່ງ, ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ຮັບອຸປະຕິເຫດ.

ໃນຂະນະທີ່ລ້ຽວຂວາ, ລະບົບການຂັບຂີ່ AI ໄດ້ກອດລົດອັດຕະໂນມັດຢ່າງກ້ວາງຂວາງ ແລະ ລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດຖືກຕີ. ລົດທີ່ຂັບດ້ວຍມະນຸດ ໄດ້ແລ່ນກົງໄປໜ້າຢູ່ໃນເສັ້ນທາງສັນຈອນທີ່ເໝາະສົມ. ບໍ່ມີໂອກາດໂດຍສະເພາະສໍາລັບຄົນຂັບລົດມະນຸດທີ່ຈະ swed ຫຼືຫຼີກເວັ້ນການຖືກຕີ. ນອກນີ້, ຍັງບໍ່ມີການເຕືອນ ຫຼື ຊີ້ບອກຈາກລົດທີ່ຂັບລົດເອງວ່າ ກໍາລັງຈະລ້ຽວຂວາຢ່າງກວ້າງຂວາງ.

ນີ້ແມ່ນອຸປະຕິເຫດບໍ?

ພວກ​ເຮົາ​ແນ່​ນອນ​ສາ​ມາດ​ເວົ້າ​ໄດ້​ວ່າ​ມັນ​ໄດ້​ຖືກ​ລວມ​ຢູ່​ໃນ rubric ຂອງ​ການ​ເປັນ​ອຸ​ປະ​ຕິ​ເຫດ AI. ພື້ນຖານສໍາລັບການຢືນຢັນດັ່ງກ່າວແມ່ນວ່າມີລະບົບການຂັບລົດ AI ຢູ່ໃນລໍ້ຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ຢ່າງໃດກໍຕາມ, ສໍາລັບເຫດຜົນໃດກໍ່ຕາມ, AI ໄດ້ເລືອກທີ່ຈະເຮັດ swing ກວ້າງໃນເວລາທີ່ຫັນຂວາ. ຜົນ​ໄດ້​ເຮັດ​ໃຫ້​ລົດ​ທີ່​ຂັບ​ຂີ່​ເອງ​ໄປ​ຕຳ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ມະນຸດ.

ຫວນຄືນການສົນທະນາກ່ອນໜ້ານີ້ກ່ຽວກັບຄວາມໝາຍທີ່ກ່ຽວຂ້ອງກັບຄຳວ່າ “ອຸບັດເຫດ” ແລະເບິ່ງວ່າສຽງດັງນັ້ນເຂົ້າມາມີບົດບາດແນວໃດໃນສະຖານະການນີ້. ນອກຈາກນັ້ນ, ຈົ່ງຈື່ໄວ້ວ່າພວກເຮົາໄດ້ສົນທະນາກໍລະນີຄົນຂັບລົດມະນຸດໄດ້ລ້ຽວຂວາກວ້າງແລະແລ່ນເຂົ້າໄປໃນລົດທີ່ຂັບລົດເພື່ອນມະນຸດ. ພວກ​ເຮົາ​ໄດ້​ຮັບ​ຮູ້​ວ່າ​ແນວ​ຄິດ​ຂອງ​ການ​ກະ​ທຳ​ນີ້​ເປັນ “ອຸ​ປະ​ຕິ​ເຫດ” ແມ່ນ​ເຮັດ​ໃຫ້​ເຂົ້າ​ໃຈ​ຜິດ​ແລະ​ສັບສົນ. ຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ເຮັດໃຫ້ມີການສັ່ນສະເທືອນຢ່າງກວ້າງຂວາງສາມາດເຊື່ອງຢູ່ເບື້ອງຫຼັງຄວາມຄິດທີ່ວ່າອຸປະຕິເຫດພຽງແຕ່ເກີດຂຶ້ນທີ່ເບິ່ງຄືວ່າເກີດຂື້ນໂດຍເຫດການຫຼືຄວາມແຕກແຍກຂອງໂຊກຊະຕາ.

ແທນທີ່ຈະຕິດສະຫຼາກສະຖານະການເປັນ "ອຸປະຕິເຫດ AI" ໃນກໍລະນີຂອງລົດຂັບລົດຕົນເອງທີ່ອີງໃສ່ AI ໄດ້ເຂົ້າໄປໃນກວ້າງແລະໄປຕີລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດ, ບາງທີພວກເຮົາຄວນຈະເວົ້າວ່າມັນເປັນອຸປະຕິເຫດລົດຫຼືລົດທີ່ເກີດຈາກຕົນເອງ. ລົດຂັບລົດ ແລະລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດ. ຫຼັງຈາກນັ້ນ, ພວກເຮົາສາມາດ dispense ກັບຄວາມສັບສົນ vacuous ຂອງມັນແມ່ນອຸປະຕິເຫດຂອງວິທີການທີ່ບໍ່ຮູ້.

ທ່ານຄິດວ່າປະຕິກິລິຍາຂອງປະຊາຊົນຕໍ່ເຫດການດັ່ງກ່າວຈະເປັນແນວໃດ?

ດີ, ຖ້າຜູ້ຜະລິດລົດໃຫຍ່ຫຼືບໍລິສັດເຕັກໂນໂລຢີຂັບລົດດ້ວຍຕົນເອງສາມາດຕິດກັບການຕິດສະຫລາກຂອງເລື່ອງທີ່ເປັນອຸປະຕິເຫດ, ພວກເຂົາອາດຈະສາມາດຫລີກລ້ຽງຜົນກະທົບທີ່ອາດເກີດຂື້ນຈາກຊຸມຊົນຢ່າງຫຼວງຫຼາຍ. ຄວາມຮູ້ສຶກເຫັນອົກເຫັນໃຈກ່ຽວກັບອຸປະຕິເຫດທີ່ບອກທັງຫມົດອາດຈະໄຫຼໄປສູ່ສະຖານະການສະເພາະ. ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບວ່າບັນດາເມືອງ, ເຂດປົກຄອງ, ແລະຜູ້ນໍາຂອງລັດຈະມີປະຕິກິລິຍາແນວໃດຕໍ່ກັບເຫດການຍານພາຫະນະທີ່ປົກຄອງຕົນເອງຂອງ AI, ເບິ່ງການສົນທະນາຂອງການສຶກສາຂອງ Harvard ທີ່ຂ້າພະເຈົ້ານໍາພາຮ່ວມກັນແລະໄດ້ອະທິບາຍໄວ້ໃນ. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຖ້າສະຖານະການຖືກອະທິບາຍຢ່າງແຈ່ມແຈ້ງວ່າເປັນອຸປະຕິເຫດລົດຍົນຫຼືການປະທະກັນຂອງລົດ, ບາງທີມັນອາດຈະເຮັດໃຫ້ຮູ້ວ່າຜູ້ໃດຜູ້ຫນຶ່ງຫຼືບາງສິ່ງບາງຢ່າງອາດຈະຕໍານິສໍາລັບເຫດການດັ່ງກ່າວ. ປະຕິກິລິຍາທີ່ຫົວເຂົ່າອາດຈະເຮັດໃຫ້ AI ຮັບຜິດຊອບ. ສິ່ງທີ່ເປັນ, ຈົນກ່ວາຫຼືຖ້າຫາກວ່າພວກເຮົາເຄີຍຕັດສິນໃຈທີ່ຈະ anoint AI ເປັນລັກສະນະຂອງບຸກຄົນທາງດ້ານກົດຫມາຍ, ທ່ານຈະບໍ່ສາມາດທີ່ຈະກໍານົດຄວາມຮັບຜິດຊອບກ່ຽວກັບ AI ຕໍ່ se (ເບິ່ງການສົນທະນາຂອງຂ້າພະເຈົ້າກ່ຽວກັບ AI ແລະບຸກຄົນທາງດ້ານກົດຫມາຍທີ່. ການເຊື່ອມຕໍ່ທີ່ນີ້).

ພວກເຮົາສາມາດກວດກາລະບົບການຂັບລົດ AI ເພື່ອພະຍາຍາມແລະຊອກຫາສິ່ງທີ່ນໍາໄປສູ່ການຂັບລົດທີ່ເບິ່ງຄືວ່າບໍ່ເຫມາະສົມແລະອຸປະຕິເຫດລົດທີ່ຕໍ່ມາ. ນັ້ນບໍ່ໄດ້ຫມາຍຄວາມວ່າ AI ຈະຖືກຮັບຜິດຊອບ. ພາກສ່ວນທີ່ຮັບຜິດຊອບປະກອບມີຜູ້ພັດທະນາ AI, ຜູ້ໃຫ້ບໍລິການເຮືອຂອງລົດຂັບລົດດ້ວຍຕົນເອງ, ແລະອື່ນໆ. ຂ້າ ພະ ເຈົ້າ ລວມ ທັງ ຄົນ ອື່ນ ເກີນ ໄປ ນັບ ຕັ້ງ ແຕ່ ມີ ຄວາມ ເປັນ ໄປ ໄດ້ ທີ່ ເມືອງ ອາດ ຈະ ໄດ້ ຮັບ ການ ຮັບ ຜິດ ຊອບ ບາງ ສ່ວນ ສໍາ ລັບ ການ ອອກ ແບບ ຂອງ ແຈ ບ່ອນ ທີ່ ຫັນ ໄດ້ ສະ ຖານ ທີ່. ນອກຈາກນັ້ນ, ສົມມຸດວ່າຄົນຍ່າງທາງຍ່າງອອກໄປຈາກມຸມແລະລະບົບການຂັບຂີ່ AI ເລືອກທີ່ຈະຫຼີກເວັ້ນຄົນແລະຫຼັງຈາກນັ້ນກໍ່ຖືກເຂົ້າໄປໃນອຸປະຕິເຫດລົດ.

ແລະອື່ນໆ.

ສະຫຼຸບ

ພວກເຮົາຢາກຮູ້ວ່າ AI ກໍາລັງຄິດໄລ່ແນວໃດແລະມັນໄດ້ຖືກດໍາເນີນໂຄງການເພື່ອເຮັດແນວໃດ. AI ເຮັດຕາມທີ່ໄດ້ຂຽນລະຫັດບໍ? ບາງທີ AI ໄດ້ພົບກັບຂໍ້ບົກພ່ອງຫຼືຄວາມຜິດພາດໃນການຂຽນໂປລແກລມ, ເຊິ່ງບໍ່ໄດ້ແກ້ຕົວຕໍ່ການກະທໍາດັ່ງກ່າວ, ແຕ່ໃຫ້ຂໍ້ຄຶດເພີ່ມເຕີມຕໍ່ກັບວິທີການທີ່ອຸປະຕິເຫດເກີດຂື້ນ.

ປະເພດໃດແດ່ຂອງ AI guardrails ຖືກດໍາເນີນໂຄງການເຂົ້າໄປໃນລະບົບການຂັບລົດ AI? ຖ້າ​ຫາກ​ວ່າ​ມີ guardrails​, ພວກ​ເຮົາ​ຕ້ອງ​ການ​ທີ່​ຈະ​ຄິດ​ອອກ​ວ່າ​ເປັນ​ຫຍັງ​ພວກ​ເຂົາ​ເຈົ້າ​ເບິ່ງ​ຄື​ວ່າ​ບໍ່​ໄດ້​ປ້ອງ​ກັນ​ການ​ເກີດ​ລົດ​. ບາງທີລະບົບການຂັບຂີ່ AI ອາດຈະຢຸດເຊົາແທນທີ່ຈະເຮັດໃຫ້ລ້ຽວ. ພວກເຮົາຢາກຮູ້ວ່າມີທາງເລືອກໃດແດ່ທີ່ AI ຄອມພິວເຕີ້ປະເມີນໃນລະຫວ່າງເຫດການດັ່ງກ່າວ.

ນອກ ເໜືອ ໄປຈາກການເຂົ້າຫາເຫດການສະເພາະ, ເຫດຜົນທີ່ຖືກຕ້ອງອີກຢ່າງ ໜຶ່ງ ແມ່ນວ່າລະບົບການຂັບຂີ່ AI ມີຂໍ້ບົກຜ່ອງຫຼືລັກສະນະອື່ນໆທີ່ຝັງຢູ່ໃນທີ່ຈະເຮັດການກະ ທຳ ທີ່ບໍ່ດີທີ່ຄ້າຍຄືກັນ. ໂດຍເນື້ອແທ້ແລ້ວ, ເຫດການນີ້ອາດຈະເປັນຕົວຊີ້ບອກທີ່ຈະແຈ້ງກ່ຽວກັບສິ່ງທີ່ຈະມາເຖິງ. ການຈຳລອງສະຖານະການຂັບລົດທີ່ໃຊ້ຄອມພິວເຕີໃຊ້ຄອມພິວເຕີເພື່ອທົດລອງ ແລະ ຄາດການລະບົບການຂັບຂີ່ AI ປະເພດນີ້ແນວໃດ? ມີການທົດສອບການຂັບຂີ່ທີ່ພຽງພໍເພື່ອແກ້ໄຂບັນຫາ AI ທີ່ອາດຈະເຮັດໃຫ້ເກີດອຸປະຕິເຫດໄດ້ບໍ?

ສະຖານະການນີ້ຊີ້ໃຫ້ເຫັນເຖິງບັນຫາຂັດແຍ້ງທີ່ກໍາລັງປະເຊີນກັບການເກີດໃຫມ່ຂອງລົດຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI.

ມັນໄປແບບນີ້.

ໃນອີກດ້ານຫນຶ່ງ, ມີຄວາມປາດຖະຫນາຂອງສັງຄົມທີ່ຈະຮັບຮອງເອົາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຢ່າງເລັ່ງລັດເນື່ອງຈາກຫວັງວ່າລະບົບການຂັບຂີ່ AI ຈະມີຄວາມປອດໄພຫຼືອາດຈະປອດໄພກວ່າຄົນຂັບຂອງມະນຸດ. ໃນສະຫະລັດດຽວ, ປະຈຸບັນພວກເຮົາມີຜູ້ເສຍຊີວິດເກືອບ 40,000 ຄົນຕໍ່ປີເນື່ອງຈາກອຸປະຕິເຫດລົດຍົນແລະປະມານ 2.5 ລ້ານຄົນໄດ້ຮັບບາດເຈັບ. ການວິເຄາະຊີ້ໃຫ້ເຫັນວ່າສ່ວນທີ່ໃຫຍ່ຫຼວງຂອງອຸປະຕິເຫດລົດເຫຼົ່ານັ້ນແມ່ນມາຈາກຄວາມຜິດພາດຂອງມະນຸດເຊັ່ນ: ຂັບລົດໃນຂະນະມຶນເມົາ, ຂັບລົດໃນຂະນະທີ່ມີສິ່ງລົບກວນ, ແລະອື່ນໆ (ເບິ່ງການປະເມີນຂອງຂ້ອຍກ່ຽວກັບສະຖິຕິດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ລະບົບຂັບລົດ AI ຈະບໍ່ດື່ມແລະຂັບລົດ. ເຂົາເຈົ້າຈະບໍ່ຕ້ອງການພັກຜ່ອນ ແລະເຂົາເຈົ້າຈະບໍ່ເມື່ອຍລ້າໃນເວລາຂັບລົດ. ສົມມຸດຕິຖານແມ່ນວ່າໂດຍການສ້າງຕັ້ງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເປັນຮູບແບບການຂົນສົ່ງທີ່ເປັນໄປໄດ້, ພວກເຮົາສາມາດຫຼຸດຜ່ອນຈໍານວນຄົນຂັບລົດຂອງມະນຸດ. ອັນນີ້ຄວນໝາຍຄວາມວ່າພວກເຮົາຈະຫຼຸດຈຳນວນການເສຍຊີວິດ ແລະ ການບາດເຈັບຂອງມະນຸດຕໍ່ປີໂດຍຫຍໍ້ຈາກອຸປະຕິເຫດລົດຍົນ.

ນັກສຶກສາບາງຄົນໄດ້ກ່າວວ່າພວກເຮົາຈະສິ້ນສຸດລົງດ້ວຍການເສຍຊີວິດແລະການບາດເຈັບສູນ, ແລະລົດທີ່ຂັບລົດດ້ວຍຕົນເອງອາດຈະບໍ່ສາມາດຂັດກັນໄດ້, ແຕ່ນີ້ແມ່ນຄວາມຄາດຫວັງທີ່ໂງ່ແລະຜິດທັງຫມົດ. ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ອະ​ທິ​ບາຍ​ວ່າ​ເປັນ​ຫຍັງ​ນີ້​ແມ່ນ disingenuous ນັ້ນ​ຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃນກໍລະນີໃດກໍ່ຕາມ, ໃຫ້ສົມມຸດວ່າພວກເຮົາກໍາລັງຈະເກີດອຸປະຕິເຫດລົດໃຫຍ່ທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ມີສ່ວນຮ່ວມ. ສົມມຸດວ່າອຸປະຕິເຫດລົດໃຫຍ່ເຫຼົ່ານັ້ນຈະມີຈໍານວນຜູ້ເສຍຊີວິດແລະການບາດເຈັບ. ຄຳ​ຖາມ​ທີ່​ກຳລັງ​ເຮັດ​ໃຫ້​ເກີດ​ຄວາມ​ໂສກ​ເສົ້າ​ແມ່ນ​ວ່າ​ເຮົາ​ໃນ​ສັງຄົມ​ເຕັມ​ໃຈ​ທີ່​ຈະ​ທົນ​ກັບ​ເຫດການ​ດັ່ງກ່າວ​ໄດ້​ບໍ? ບາງ​ຄົນ​ເວົ້າ​ວ່າ​ຖ້າ​ເຖິງ​ແມ່ນ​ການ​ເສຍ​ຊີວິດ​ຫຼື​ບາດ​ເຈັບ​ຄົນ​ໜຶ່ງ​ເກີດ​ຂຶ້ນ​ຍ້ອນ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ແທ້ໆ, ຊຸດ​ທັງ​ໝົດ​ແລະ​ກະບະ​ຄວນ​ຖືກ​ປິດ​ລົງ.

ທັດສະນະທີ່ກົງກັນຂ້າມແມ່ນວ່າຖ້າຫາກວ່າຊີວິດທີ່ຖືກຊ່ວຍປະຢັດແມ່ນຫຼຸດຜ່ອນການນັບປະຈໍາປີ, ພວກເຮົາຄວນຈະສືບຕໍ່ຊຸກຍູ້ການມາເຖິງຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະບໍ່ຕອບສະຫນອງໃນລັກສະນະທີ່ບໍ່ມີເຫດຜົນ. ພວກເຮົາຈະຕ້ອງຍອມຮັບຫຼັກຖານວ່າຈໍານວນຜູ້ເສຍຊີວິດແລະການບາດເຈັບບາງຢ່າງຈະຍັງຄົງຢູ່, ເຖິງແມ່ນວ່າມີລົດທີ່ຂັບລົດຕົນເອງ, ແລະຍັງຮັບຮູ້ວ່າການນັບປະຈໍາປີຖ້າຖືກຫຼຸດລົງຊີ້ໃຫ້ເຫັນວ່າພວກເຮົາຢູ່ໃນເສັ້ນທາງທີ່ຖືກຕ້ອງ.

ແນ່ນອນ, ບາງຄົນໄດ້ໂຕ້ຖຽງວ່າພວກເຮົາບໍ່ຄວນມີລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຢູ່ໃນເສັ້ນທາງສາທາລະນະຂອງພວກເຮົາຈົນກ່ວາພວກມັນຈະຖືກເກັບກູ້ສໍາລັບການນໍາໃຊ້ດັ່ງກ່າວເປັນຜົນມາຈາກການຈໍາລອງທີ່ໃຊ້ຄອມພິວເຕີຢ່າງກວ້າງຂວາງແລະຄົບຖ້ວນຫຼືຜ່ານການທົດສອບທາງປິດສ່ວນຕົວ. ການໂຕ້ຖຽງກັນແມ່ນວ່າວິທີດຽວທີ່ເປັນໄປໄດ້ແລະໄວທີ່ສຸດທີ່ຈະເອົາລົດຂັບລົດດ້ວຍຕົນເອງໄປໄດ້ແມ່ນການນໍາໃຊ້ທາງສາທາລະນະແລະຄວາມຊັກຊ້າໃດໆໃນການນໍາໃຊ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແມ່ນຈະອະນຸຍາດໃຫ້ຈໍານວນທີ່ຫນ້າຢ້ານຂອງລົດທີ່ຂັບລົດໂດຍມະນຸດສືບຕໍ່ໄປ. ຂ້າພະເຈົ້າໄດ້ກວມເອົາການໂຕ້ວາທີນີ້ໃນຄໍລໍາຂອງຂ້ອຍໃນຄວາມຍາວຫຼາຍກວ່າເກົ່າແລະຮຽກຮ້ອງໃຫ້ຜູ້ອ່ານເບິ່ງການສົນທະນາເຫຼົ່ານັ້ນເພື່ອໃຫ້ມີທັດສະນະຢ່າງເຕັມທີ່ກ່ຽວກັບບັນຫາທີ່ມີການຂັດແຍ້ງນີ້.

ໃຫ້ພວກເຮົາຫໍ່ສິ່ງຕ່າງໆສໍາລັບໃນປັດຈຸບັນ.

ອຸປະຕິເຫດ AI ກໍາລັງຈະເກີດຂຶ້ນ. ພວກ​ເຮົາ​ຕ້ອງ​ຕ້ານ​ທານ​ຄວາມ​ກະ​ຕຸ້ນ​ທີ່​ຈະ​ຄິດ​ໄລ່​ອຸ​ປະ​ຕິ​ເຫດ AI ເປັນ​ເບິ່ງ​ຄື​ວ່າ accidental ແລະ ergo ຕົວະໃຫ້ຜູ້ຜະລິດແລະຜູ້ທີ່ໃຊ້ AI ໃນທາງທີ່ບໍ່ຖືກຕ້ອງ.

ມີການບິດເບືອນເພີ່ມທີ່ຂ້ອຍປ່ອຍໃຫ້ເຈົ້າເປັນຄວາມຄິດທີ່ໜ້າສົນໃຈສຸດທ້າຍສຳລັບມື້ຂອງເຈົ້າ.

ນັກສະແດງຕະຫລົກ Dane Cook ໄດ້ເລົ່າເລື່ອງຕະຫລົກນີ້ກ່ຽວກັບອຸປະຕິເຫດລົດຍົນວ່າ: "ສອງສາມມື້ກັບຄືນ, ຂ້ອຍໄດ້ເກີດອຸປະຕິເຫດລົດຍົນ. ບໍ່ແມ່ນຄວາມຜິດຂອງຂ້ອຍ. ເຖິງແມ່ນວ່າມັນບໍ່ແມ່ນຄວາມຜິດຂອງເຈົ້າ, ຄົນອື່ນໄດ້ອອກຈາກລົດຂອງພວກເຂົາແລະເບິ່ງເຈົ້າຄືກັບວ່າມັນເປັນຄວາມຜິດຂອງເຈົ້າ: ເປັນຫຍັງເຈົ້າມາຢຸດໄຟແດງແລະປ່ອຍໃຫ້ຂ້ອຍຕີເຈົ້າ 80!"

ບ່ອນທີ່ຄວາມບິດເບືອນມາເຖິງເບື້ອງຕົ້ນແມ່ນຄວາມເປັນໄປໄດ້ທີ່ລະບົບ AI ອາດຈະເລືອກທີ່ຈະຍືນຍັນວ່າເມື່ອອຸປະຕິເຫດ AI ເກີດຂື້ນທີ່ກ່ຽວຂ້ອງກັບ AI ໂດຍສະເພາະ, AI ບອກວ່າເຫດການດັ່ງກ່າວເປັນຄວາມຜິດຂອງມະນຸດແລະແນ່ນອນວ່າບໍ່ແມ່ນຄວາມຜິດຂອງ AI. ໂດຍວິທີທາງການ, ນີ້ອາດຈະເປັນຄວາມຈິງທີ່ອຸດົມສົມບູນແລະມະນຸດອາດຈະພະຍາຍາມທີ່ຈະຫລອກລວງ AI ໂດຍອ້າງວ່າມັນເປັນຄວາມຜິດຂອງ AI.

ຫຼືບາງທີ AI ກໍາລັງພະຍາຍາມ scapegoat ມະນຸດ.

ເຈົ້າເຫັນ, AI ທີ່ພວກເຮົາສ້າງອາດຈະຫຼອກລວງແບບນັ້ນ, ບໍ່ວ່າຈະໂດຍບັງເອີນຫຼືບໍ່.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- ຂັບ​ລົດ​ເຊັ່ນ​ດຽວ​ກັນ /