ບົດຮຽນດ້ານຈັນຍາບັນຂອງ AI ແລະລະບົບການປົກຄອງຕົນເອງໄດ້ເກັບກ່ຽວມາຈາກຖ້ຽວບິນຂອງສາຍການບິນ Alaska ທີ່ຜ່ານມາ ບ່ອນທີ່ນັກບິນ ແລະນັກບິນຮ່ວມບໍ່ເຫັນດີກ່ອນຈະອອກເດີນທາງ ແລະເລືອກໃຫ້ແທັກຊີກັບຄືນໄປສະຖານີ ແລະໄປແບບແຍກກັນຕ່າງຫາກ.

ສາຍການບິນໄດ້ມີຂ່າວຂ້ອນຂ້າງບໍ່ດົນ.

ພວກເຮົາຢູ່ໃນຊ່ວງລະດູຮ້ອນຂອງຖ້ຽວບິນ. ຜູ້​ໂດຍ​ສານ​ທີ່​ອິດ​ເມື່ອຍ​ແລະ​ອຸກ​ອັ່ງ​ເຫັນ​ວ່າ​ຕົນ​ເອງ​ປະ​ເຊີນ​ກັບ​ການ​ຂັດ​ຂວາງ​ການ​ບິນ​ທັງ​ຫມົດ​ແລະ​ການ​ຂັດ​ຂວາງ​ການ​ກໍາ​ນົດ​ເວ​ລາ​ຂອງ​ສາຍ​ການ​ບິນ. ຖ້ຽວບິນຖືກຍົກເລີກໂດຍບໍ່ຄາດຄິດ. ຖ້ຽວບິນຊັກຊ້າ. fume ຜູ້ໂດຍສານ. ແຕ່ຫນ້າເສຍດາຍ, ມີຫຼາຍກໍລະນີຂອງຜູ້ໂດຍສານທີ່ອະນຸຍາດໃຫ້ຄວາມວຸ້ນວາຍເຫຼົ່ານີ້ລະເບີດ, ແລະພວກເຮົາໄດ້ເຫັນວິດີໂອໄວຣັສຈໍານວນຫຼາຍເກີນໄປຂອງການປະເຊີນຫນ້າກັບຫົວແລະບາງຄັ້ງກໍ່ເກີດການປະທະກັນ.

ພວກເຮົາຮຽນຮູ້ກ່ຽວກັບຂໍ້ຂັດແຍ່ງລະຫວ່າງນັກບິນ ແລະນັກບິນທີ່ອາດຈະເກີດຂຶ້ນໃນຂະນະທີ່ຢູ່ໃນຫ້ອງນັກບິນ.

ນັ້ນແມ່ນຂ້ອນຂ້າງແປກໃຈ.

ແທ້ຈິງແລ້ວ, ໂດຍທົ່ວໄປແລ້ວພວກເຮົາຮູ້ສຶກແປກໃຈທີ່ຄິດວ່ານັກບິນແລະນັກບິນຈະມີລັກສະນະຂັດແຍ້ງທີ່ຮ້າຍແຮງໃນລະຫວ່າງຂັ້ນຕອນຂອງການບິນ. ຖ້າຄວາມບໍ່ເຫັນດີກ່ຽວກັບຍີ່ຫໍ້ກາເຟທີ່ດີທີ່ສຸດ, ການສົມມຸດຕິຖານຂອງພວກເຮົາແມ່ນວ່ານີ້ຈະບໍ່ເຂົ້າໄປໃນຄວາມພະຍາຍາມເຮັດວຽກທີ່ກ່ຽວຂ້ອງກັບການບິນ. ທັງ​ສອງ​ຄົນ​ພຽງ​ແຕ່​ຂັດ​ແຍ້ງ​ກັນ​ກັບ​ການ​ບໍ່​ໄດ້​ເບິ່ງ​ກັນ​ໃນ​ເລື່ອງ​ທີ່​ເບິ່ງ​ຄື​ວ່າ​ບໍ່​ກ່ຽວ​ຂ້ອງ​ກັບ​ການ​ບິນ. ພຶດຕິກຳທີ່ເປັນມືອາຊີບ ແລະ ການຝຶກອົບຮົມນັກບິນມາແຕ່ດົນນານຂອງເຂົາເຈົ້າຈະເລີ່ມຂຶ້ນ ແລະເຂົາເຈົ້າຈະເນັ້ນໃສ່ຈຸດມຸ່ງໝາຍຂອງພວກເຂົາກັບຄືນສູ່ສະເພາະການບິນ.

ພິຈາລະນາເຖິງວ່າໃນເວລາທີ່ ກ ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ ແຊກແຊງ.

ຂ້າພະ​ເຈົ້າຂໍ​ເລົ່າ​ເລື່ອງ​ໜຶ່ງ​ໃຫ້​ທ່ານ​ຟັງ​ໂດຍ​ຫຍໍ້ ກ່ຽວ​ກັບ​ເລື່ອງ​ທີ່​ເກີດ​ຂຶ້ນ​ໃນ​ເວລາ​ທີ່​ບິນ​ຢູ່​ໃນ​ສະຫະລັດ ກ່ຽວ​ກັບ​ຄວາມ​ຂັດ​ແຍ່ງ​ດ້ານ​ວິຊາ​ຊີບ​ໃນ​ຫ້ອງ​ນັກ​ບິນ.

ນີ້ສ່ວນໃຫຍ່ແມ່ນຖືກອ້າງເຖິງຢູ່ທີ່ນີ້ເພື່ອໃຫ້ພວກເຮົາສາມາດຄົ້ນຫາຫົວຂໍ້ທີ່ກ່ຽວຂ້ອງທີ່ມີຄວາມສໍາຄັນຢ່າງຫຼວງຫຼາຍຕໍ່ການມາເຖິງຂອງປັນຍາປະດິດ (AI). ເຈົ້າເຫັນ, ພວກເຮົາສາມາດມີຮູບແບບຂອງຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບລະຫວ່າງບໍ່ພຽງແຕ່ມະນຸດໃນຄວາມຂັດແຍ້ງລະຫວ່າງມະນຸດກັບມະນຸດ, ແຕ່ພວກເຮົາຍັງສາມາດມີບາງສິ່ງບາງຢ່າງທີ່ຄ້າຍຄືກັນເກີດຂື້ນທ່າມກາງການຮັບຮອງເອົາ AI ແລະ ergo ເຮັດໃຫ້ເກີດຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບຂອງມະນຸດກັບ AI. . ທຸກປະເພດຂອງການພິຈາລະນາດ້ານຈັນຍາບັນ AI ເກີດຂື້ນ. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະບັນຫາດ້ານຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ໃຫ້ຕົວທ່ານເອງກຽມພ້ອມສໍາລັບການ tale fascinating.

ຕາມ​ຂ່າວ​ແຈ້ງວ່າ, ​ເມື່ອ​ບໍ່​ດົນ​ມາ​ນີ້, ກໍ​ລະ​ນີ​ຂອງ “ຄວາມ​ບໍ່​ລົງ​ລອຍ​ກັນ​ດ້ານ​ວິ​ຊາ​ຊີບ” ໄດ້​ເກີດ​ຂຶ້ນ​ໃນ​ລະ​ຫວ່າງ​ຖ້ຽວ​ບິນ Alaska Airline ທີ່​ເດີນ​ທາງ​ຈາກ​ວໍ​ຊິງ​ຕັນ​ໄປ San Francisco. ຕາມ​ຂ່າວ​ແຈ້ງວ່າ, ຍົນ​ໂດຍສານ​ລຳ​ນີ້​ໄດ້​ຍ້າຍ​ອອກ​ຈາກ​ປະຕູ​ລົດ​ຍົນ, ​ແລະ​ພວມ​ລໍຖ້າ​ຢູ່​ເທິງ​ລົດ​ແທັກ​ຊີ​ເພື່ອ​ອະນຸຍາດ​ໃຫ້​ແທັກ​ຊີ​ແລະ​ບິນ. ລົມພາຍຸກຳລັງດຳເນີນຢູ່ ແລະເຮັດໃຫ້ຖ້ຽວບິນລ່າຊ້າກວ່າໜຶ່ງຊົ່ວໂມງເຄິ່ງ. ປະກົດວ່າ ໃນທີ່ສຸດ ຍົນລຳດັ່ງກ່າວໄດ້ຫັນຫຼັງ ແລະ ມຸ່ງໜ້າກັບຄືນສູ່ປະຕູ, ເຊິ່ງບາງເທື່ອຜູ້ໂດຍສານອາດຈະຄິດວ່າເປັນການລະມັດລະວັງດ້ານຄວາມປອດໄພທີ່ກ່ຽວຂ້ອງກັບພະຍຸ.

ຕາມ tweets ຕ່າງໆ, ມັນເບິ່ງຄືວ່ານັກບິນແລະນັກບິນໄດ້ມີຄວາມຂັດແຍ້ງກັນລະຫວ່າງເວລາຂອງພວກເຂົາຢູ່ໃນຫ້ອງນັກບິນແລະບາງທີໄດ້ສະຫຼຸບວ່າວິທີການທີ່ລະມັດລະວັງທີ່ສຸດແມ່ນການຂັດການບິນແລະກັບຄືນສູ່ສະຖານີ. . Tweets ແນະນໍາວ່າຕັນແລະເຈົ້າຫນ້າທີ່ທໍາອິດເບິ່ງຄືວ່າບໍ່ສາມາດເຂົ້າກັນໄດ້. ຕໍ່ມາສາຍການບິນໄດ້ອອກຖະແຫຼງການວ່າສະຖານະການໂຊກຮ້າຍ (ສະຖານະການບໍ່ໄດ້ລະບຸຢ່າງຊັດເຈນຫຼືອະທິບາຍຕໍ່), ເຈົ້າຫນ້າທີ່ການບິນທັງສອງໄດ້ຖືກປະເມີນໂດຍການຄຸ້ມຄອງແລະຖືວ່າເຫມາະສົມກັບການບິນ, ລູກເຮືອໄດ້ຖືກແລກປ່ຽນ, ແລະການບິນໄດ້ສິ້ນສຸດລົງ. ແລະ​ຕໍ່​ມາ​ໄດ້​ໄປ​ເຖິງ San Francisco​.

ໃນແງ່ຫນຶ່ງ, ຖ້າໃນຄວາມເປັນຈິງນັກບິນແລະນັກບິນມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບເຊັ່ນວ່າຍົນມີຄວາມພ້ອມສໍາລັບການບິນຫຼືວ່າຄວາມສ່ຽງທີ່ຈະບິນຜ່ານພາຍຸແມ່ນຢູ່ໃນຂອບເຂດຄວາມປອດໄພທີ່ເຫມາະສົມ, ຜູ້ໂດຍສານເຫຼົ່ານັ້ນຄວນຈະຜ່ອນຄາຍແລະ. ຂອບໃຈທີ່ຍົນຖືກສົ່ງກັບຄືນສູ່ປະຕູ. ດີກວ່າທີ່ຈະປອດໄພກ່ວາຂໍອະໄພ. ການມີຄວາມລ່າຊ້າເພີ່ມເຕີມແມ່ນຄຸ້ມຄ່າກັບການຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ສົມມຸດຕິຖານທີ່ກ່ຽວຂ້ອງກັບການເດີນທາງການບິນທີ່ຖືວ່າຫຍຸ້ງຍາກ ຫຼື ບໍ່ດີ.

ບາງ​ຄົນ​ອາດ​ຈະ​ແປກ​ໃຈ​ທີ່​ຄວາມ​ຂັດ​ແຍ້ງ​ດ້ານ​ວິຊາ​ສະ​ເພາະ​ອາດ​ເກີດ​ຂຶ້ນ.

ບາງທີພວກເຮົາມີຄວາມປະທັບໃຈທີ່ບໍ່ຖືກຕ້ອງວ່າທຸກສິ່ງທຸກຢ່າງທີ່ເກີດຂຶ້ນໃນຫ້ອງນັກບິນແມ່ນມີຄວາມຊັດເຈນທັງຫມົດແລະຂຽນໄດ້ດີ. ທຸກໆຮູບແບບຂອງການຕັດສິນໃຈຂອງມະນຸດເບິ່ງຄືວ່າໄດ້ຖືກຕັດອອກຈາກຂະບວນການ. ອີງຕາມຕາຕະລາງການຄິດໄລ່ທີ່ແນ່ນອນ ແລະລະອຽດ, ຖ້ຽວບິນໃດນຶ່ງຈະດຳເນີນການຕໍ່ໄປ ຫຼືບໍ່ໄດ້. ບໍ່ສາມາດມີຄວາມຂັດແຍ້ງໃດໆໃນເວລາທີ່ຊຸດແລະ caboodle ທັງຫມົດຖືກຄິດວ່າອີງໃສ່ການຄິດໄລ່ຄວາມຈິງແລະຕົວເລກທີ່ບໍ່ສາມາດປະຕິເສດໄດ້.

ນັ້ນບໍ່ແມ່ນຄວາມຈິງອັນເຕັມທີ່ຂອງເລື່ອງ. ແນ່ນອນ, ມີພິທີການແລະການດຸ່ນດ່ຽງທຸກປະເພດ, ແຕ່ນີ້ບໍ່ໄດ້ບີບບັງຄັບການຕັດສິນຂອງມະນຸດທັງຫມົດ. ນັກບິນແລະນັກບິນຍັງໃຊ້ການຕັດສິນຂອງມະນຸດ. ໂຊກດີ, ການພິພາກສາຂອງມະນຸດນີ້ຖືກປະຕິບັດຕາມປີຂອງການບິນ. ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່ານັກບິນແລະນັກບິນໃນຍົນໂດຍສານທາງການຄ້າມີປະສົບການໃນການບິນກ່ອນຫນ້າແລະໃຊ້ການສົມເຫດສົມຜົນໃນຄວາມເລິກຫຼາຍປີຂອງເຂົາເຈົ້າແລະການຕັດສິນໃຈທີ່ກ່ຽວຂ້ອງກັບການຄວບຄຸມການບິນ.

ເນື່ອງຈາກບົດບາດທີ່ໂດດເດັ່ນຂອງການຕັດສິນຂອງມະນຸດ, ພວກເຮົາອາດຄາດກັນຢ່າງມີເຫດຜົນວ່ານັກບິນ ແລະນັກບິນຈະມີຄວາມຂັດແຍ້ງທາງອາຊີບ. ສ່ວນຫຼາຍແລ້ວ, ຖືວ່າມີຄວາມຂັດແຍ້ງກັນໜ້ອຍທີ່ສຸດ. ນັກບິນແລະນັກບິນສໍາຫລັບການບິນທຸກໆມື້ມີແນວໂນ້ມທີ່ຈະສອດຄ່ອງກັບ preponderance ຂອງເວລາທີ່ດີ. ພຽງແຕ່ເວລາທີ່ສະຖານະການການບິນອາດຈະອອກໄປນອກຂອບເຂດປົກກະຕິທີ່ພວກເຮົາຄາດຫວັງວ່າຄວາມເຄັ່ງຕຶງຈະເກີດຂື້ນ.

ຖ້າ​ຫາກ​ວ່າ​ມີ​ຄວາມ​ແຕກ​ຕ່າງ​ກັນ​ຢ່າງ​ແຂງ​ແຮງ​ຂອງ​ຄວາມ​ຄິດ​ເຫັນ​ລະ​ຫວ່າງ​ສອງ​, ຂ້າ​ພະ​ເຈົ້າ​ອາດ​ຈະ​ເວົ້າ​ວ່າ​ພວກ​ເຮົາ​ຕ້ອງ​ການ​ໃຫ້​ເຂົາ​ເຈົ້າ​ລົບ​ລ້າງ​ມັນ​ອອກ​.

ຈິນຕະນາການສະຖານະການທີ່ນັກບິນຕ້ອງການ ດຳ ເນີນຕໍ່ໄປແຕ່ນັກບິນຮັບຮູ້ວ່າຄວາມສ່ຽງສູງເກີນໄປ. ພຽງແຕ່ມີ copilot kowtow ກັບນັກບິນຈະເບິ່ງຄືວ່າບໍ່ສົມຄວນ. copilot ແມ່ນການກວດສອບແລະການດຸ່ນດ່ຽງກັບສິ່ງທີ່ນັກບິນອາດຈະຄິດທີ່ຈະເຮັດ. ສໍາລັບຜູ້ທີ່ຕ້ອງການນັກບິນປິດປາກແລະປະຕິບັດພຽງແຕ່ mindlessly ໃດກໍ່ຕາມລັດຖະດໍາລັດຂອງນັກບິນ, ດີ, ນັ້ນບໍ່ແມ່ນຄວາມແນ່ນອນຫຼາຍ. ນັກບິນບໍ່ພຽງແຕ່ເປັນ “ນັກບິນ” ຫວ່າງທີ່ເຂົ້າມາໃນຮູບເທົ່ານັ້ນ ເມື່ອນັກບິນຂາດຄວາມສາມາດຢ່າງສິ້ນເຊີງ. ນັ້ນແມ່ນຄວາມເຂົ້າໃຈຜິດກ່ຽວກັບຄຸນຄ່າຂອງການມີນັກບິນ ແລະນັກບິນໃນຫ້ອງນັກບິນ.

ມີມຸມອື່ນຕໍ່ກັບເລື່ອງນີ້.

ພິ​ຈາ​ລະ​ນາ​ກໍ​ລະ​ນີ​ຂອງ​ນັກ​ບິນ​ທີ່​ບໍ່​ເຊື່ອ​ວ່າ​ການ​ບິນ​ຈະ​ດໍາ​ເນີນ​ການ​ແລະ​ໃນ​ຂະ​ນະ​ທີ່​ນັກ​ບິນ​ແມ່ນ gung-ho ກ່ຽວ​ກັບ​ການ​ຂຶ້ນ​ໃນ​ອາ​ກາດ​. ແລ້ວແມ່ນຫຍັງ? ຕາມລຳດັບທີ່ຄາດໄວ້, ນັກບິນຄວນມີໄຊຊະນະເໜືອນັກບິນຕາມທຳມະດາ. ບົດບາດທີ່ກຳນົດໄວ້ວ່າເປັນຜູ້ຮັບຜິດຊອບຫຼັກເຮັດໃຫ້ນັກບິນມີຄວາມສົມດູນກັນຫຼາຍຂຶ້ນ. ໂດຍປົກກະຕິ, ນັກບິນມີເວລາບິນໂດຍລວມຫຼາຍກວ່ານັກບິນ ແລະ ergo copilot ແມ່ນຕາມລໍາດັບທີ່ຈະເລື່ອນຕາມຄວາມປາດຖະຫນາຂອງນັກບິນ (ເມື່ອຢູ່ໃນເຫດຜົນ).

ໃນກໍລະນີໃດກໍ່ຕາມ, ຂ້າພະເຈົ້າຄິດວ່າພວກເຮົາທຸກຄົນສາມາດຕົກລົງເຫັນດີວ່າການເລືອກທີ່ຈະບໍ່ບິນເປັນທາງເລືອກທີ່ມີຄວາມສ່ຽງຫນ້ອຍກວ່າການຕັດສິນໃຈທີ່ຈະບິນ. ເມື່ອຍົນຂຶ້ນຢູ່ໃນອາກາດ, ລະດັບຄວາມສ່ຽງຈະເພີ່ມຂຶ້ນຢ່າງຫຼວງຫຼາຍເມື່ອປຽບທຽບກັບການຢູ່ເທິງພື້ນທີ່ທີ່ຫມັ້ນຄົງທໍາມະດາ. ຖ້ຽວບິນການຄ້າຕາມປະເພນີທີ່ພຽງແຕ່ຂີ່ລົດແທັກຊີກັບຄືນສູ່ສະຖານີໂດຍບໍ່ໄດ້ຂຶ້ນເຮືອບິນຈະເປັນການແກ້ໄຂທີ່ມີຄວາມເປັນມິດທີ່ດີຕໍ່ການໂຕ້ວາທີທີ່ໂຫດຮ້າຍທີ່ຮ້ອນຮົນກ່ຽວກັບການເຂົ້າໄປໃນການບິນ.

ຂໍໃຫ້ປ່ຽນເຄື່ອງມືແລະນໍາໃຊ້ລາຍການຂ່າວທີ່ແປກປະຫຼາດນີ້ສໍາລັບຈຸດປະສົງທີ່ແຕກຕ່າງກັນທັງຫມົດແຕ່ມີຄວາມກ່ຽວຂ້ອງກັນ.

ພວກ​ເຮົາ​ຄ່ອຍໆ​ມີ​ລະ​ຫວ່າງ​ພວກ​ເຮົາ​ອັດ​ຕາ​ສ່ວນ​ຂອງ​ລະ​ບົບ​ເອ​ກະ​ລັກ​ທີ່​ອີງ​ໃສ່ AI. ບາງຄັ້ງ AI ດໍາເນີນການສະແດງ, ດັ່ງທີ່ມັນແມ່ນ. AI ເຮັດທຸກຢ່າງຈາກ A ຫາ Z, ແລະພວກເຮົາອາດຈະ cons ວ່າເປັນ AI ທີ່ເປັນເອກະລາດຢ່າງເຕັມສ່ວນຫຼືເກືອບດັ່ງນັ້ນ. ໃນກໍລະນີອື່ນໆ, ພວກເຮົາສາມາດມີ AI ທີ່ພົວພັນກັບແລະໃນລະດັບໃດຫນຶ່ງແມ່ນໂຄງການທີ່ຈະອີງໃສ່ການມີມະນຸດໃນວົງ.

ຂ້ອຍຢາກສຸມໃສ່ເລື່ອງຂອງລະບົບອັດຕະໂນມັດ ຫຼື ເຄິ່ງອັດຕະໂນມັດທີ່ອີງໃສ່ AI ທີ່ມາຈາກການໄປມາມີມະນຸດຢູ່ໃນວົງການ. AI ແລະມະນຸດມີຄວາມຕັ້ງໃຈ thrust ຮ່ວມກັນແລະຄາດວ່າຈະເຮັດວຽກຮ່ວມກັນ. ເຂົາເຈົ້າເປັນກຸ່ມໃນການປະຕິບັດວຽກງານໃດໜຶ່ງຢູ່ໃນມື. AI ຢ່າງດຽວແມ່ນບໍ່ຄວນຈະປະຕິບັດຫນ້າວຽກ. AI ຈະຕ້ອງພົວພັນກັບມະນຸດໃນວົງການທີ່ກໍານົດ.

ຂ້ອຍເອົາລັກສະນະນີ້ຂຶ້ນມາເພື່ອແຍກຄວາມແຕກຕ່າງຈາກສະຖານະການທີ່ມະນຸດຢູ່ໃນວົງການຖືກພິຈາລະນາເປັນລັກສະນະທາງເລືອກ. ໂດຍເນື້ອແທ້ແລ້ວ, AI ແມ່ນໃຫ້ rein ຟຣີ. ຖ້າ AI ເລືອກທີ່ຈະໃຊ້ມະນຸດ, ມັນກໍ່ເຮັດແນວນັ້ນ. ບໍ່​ມີ​ຂໍ້​ກໍາ​ນົດ​ທີ່ AI ຕ້ອງ​ສໍາ​ພັດ​ກັບ​ຖານ​ຫຼື​ເຮັດ​ວຽກ​ໃນ​ມື​ກັບ​ມະ​ນຸດ​ທີ່​ກໍາ​ນົດ​ໄວ້​. ການວິເຄາະທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງແມ່ນແນ່ນອນວ່າກ່ຽວຂ້ອງກັບປະເພດນັ້ນ ທາງເລືອກ ການຈັດການການໂຕ້ຕອບ, ແຕ່ມັນບໍ່ແມ່ນສິ່ງທີ່ຂ້ອຍກໍາລັງຂັບລົດໂດຍສະເພາະໃນການສົນທະນາໂດຍສະເພາະນີ້.

ຕົກລົງ, ດັ່ງນັ້ນພວກເຮົາມີບາງວຽກທີ່ມະນຸດ ແລະ AI ຈະເຮັດວຽກຮ່ວມກັນ, ແຍກອອກຈາກກັນບໍ່ໄດ້. ໃນຄວາມຮູ້ສຶກທີ່ບໍ່ມີຕົວຕົນ, ພວກເຮົາມີມະນຸດນັ່ງຢູ່ໃນບ່ອນນັ່ງຫນຶ່ງແລະລະບົບ AI ນັ່ງຢູ່ໃນບ່ອນນັ່ງອື່ນໆ. ຂ້າພະເຈົ້າເວົ້ານີ້ຢ່າງໂຫດຮ້າຍຍ້ອນວ່າພວກເຮົາບໍ່ໄດ້ຈໍາກັດການສົນທະນານີ້ກັບຫຸ່ນຍົນຕົວຢ່າງທີ່ຕົວຈິງແລ້ວອາດຈະນັ່ງຢູ່ໃນບ່ອນນັ່ງ. ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ປຽບ​ທຽບ​ກັບ​ແນວ​ຄິດ​ທີ່ AI ແມ່ນ​ບາງ​ບ່ອນ​ທີ່​ມີ​ສ່ວນ​ຮ່ວມ​ໃນ​ວຽກ​ງານ​ແລະ​ມະ​ນຸດ​. ທາງດ້ານຮ່າງກາຍ, ທີ່ຢູ່ຂອງເຂົາເຈົ້າແມ່ນບໍ່ສໍາຄັນໂດຍສະເພາະການສົນທະນາ.

ທ່ານອາດຈະບໍ່ແນ່ໃຈວ່າສະຖານະການດັ່ງກ່າວອາດຈະເກີດຂຶ້ນເມື່ອໃດ.

ງ່າຍທີ່ສຸດ.

ຕໍ່ມາ, ຂ້າພະເຈົ້າຈະສົນທະນາກ່ຽວກັບການມາເຖິງຂອງຍານພາຫະນະອັດຕະໂນມັດແລະລົດຂັບລົດດ້ວຍຕົນເອງ. ໃນບາງລະດັບຂອງຄວາມເປັນເອກະລາດ, AI ແລະມະນຸດຄວນເຮັດວຽກຮ່ວມກັນ. AI ອາດ​ຈະ​ຂັບ​ລົດ​ແລະ​ຮ້ອງ​ຂໍ​ໃຫ້​ມະ​ນຸດ​ຮັບ​ຮອງ​ເອົາ​ການ​ຄວບ​ຄຸມ​ການ​ຂັບ​ລົດ​ໄດ້​. ມະນຸດອາດຈະຂັບລົດແລະເປີດໃຊ້ AI ເພື່ອຄວບຄຸມການຄວບຄຸມ. ພວກ​ເຂົາ​ເຈົ້າ​ໄດ້​ຮັບ​ການ​ປ່ຽນ​ແປງ​ຢູ່​ໃນ​ການ​ຄວບ​ຄຸມ​ການ​ຂັບ​ລົດ​.

ນອກຈາກນັ້ນ, ການອອກແບບບາງຢ່າງແມ່ນມີ AI ທີ່ຈໍາເປັນຕະຫຼອດເວລາ (ຫຼື, ເວັ້ນເສຍແຕ່ປິດ), ເຊັ່ນວ່າ AI ແມ່ນກຽມພ້ອມສະເຫມີ. ຍິ່ງໄປກວ່ານັ້ນ, AI ອາດຈະແຊກແຊງໂດຍກົງ, ເຖິງແມ່ນວ່າບໍ່ມີການຮ້ອງຂໍຈາກມະນຸດ, ຂຶ້ນກັບສະຖານະການທີ່ເກີດຂື້ນ. ຍົກ​ຕົວ​ຢ່າງ​ວ່າ​ມະ​ນຸດ​ເບິ່ງ​ຄື​ວ່າ​ໄດ້​ນອນ​ຫລັບ​ຢູ່​ທີ່​ລໍ້​. ເນື່ອງຈາກມະນຸດເບິ່ງຄືວ່າບໍ່ສາມາດເປີດໃຊ້ AI ໄດ້ (ເພາະວ່າຄົນນັ້ນນອນຢູ່), AI ອາດຈະຖືກຕັ້ງໂຄງການເພື່ອຄວບຄຸມການຄວບຄຸມຈາກມະນຸດ.

ການອອກແບບບາງຢ່າງນໍາເອົາ AI ແລະມະນຸດໄປສູ່ວິທີການຂັບຂີ່ຄູ່. AI ກໍາລັງຂັບລົດແລະມະນຸດກໍາລັງຂັບລົດ. ຫຼື, ຖ້າທ່ານຕ້ອງການ, ມະນຸດກໍາລັງຂັບລົດແລະ AI ຍັງຂັບລົດ. ພວກເຂົາແຕ່ລະຄົນຂັບລົດຍານພາຫະນະ. ຂ້າພະເຈົ້າສົມທຽບນີ້ກັບລົດທີ່ຕິດຂັດພິເສດທີ່ບາງທີເຈົ້າອາດຈະໃຊ້ໃນເວລາຝຶກຂັບຂີ່ ແລະ ມີສອງຊຸດຂອງການຄວບຄຸມການຂັບຂີ່ຢູ່ໃນຍານພາຫະນະ, ອັນໜຶ່ງສຳລັບຄົນຂັບລົດນັກຮຽນ ແລະ ອີກອັນໜຶ່ງສຳລັບຄູສອນຂັບລົດ.

ນັ້ນແມ່ນແຕ່ຕົວຢ່າງຫນຶ່ງຂອງການຕັ້ງຄ່າທີ່ AI ແລະມະນຸດອາດຈະເຮັດວຽກຮ່ວມກັນໃນວຽກງານຫນຶ່ງ. ຄວາມເປັນໄປໄດ້ທັງໝົດມີຢູ່. ພາຫະນະທີ່ປົກຄອງຕົນເອງປະເພດອື່ນໆອາດຈະຖືກອອກແບບຄ້າຍຄືກັນ, ເຊັ່ນ: ຍົນ, ເຮືອບິນບໍ່ມີຄົນຂັບ, ເຮືອດຳນ້ຳ, ເຮືອພື້ນຜິວ, ລົດໄຟ ແລະ ອື່ນໆ. ພວກ​ເຮົາ​ບໍ່​ຈໍາ​ເປັນ​ຕ້ອງ​ພິ​ຈາ​ລະ​ນາ​ພຽງ​ແຕ່​ການ​ຕັ້ງ​ຄ່າ​ຍານ​ພາ​ຫະ​ນະ​ແລະ​ການ​ຂົນ​ສົ່ງ​. ຈິນຕະນາການໂດເມນທາງການແພດແລະການຜ່າຕັດທີ່ດໍາເນີນການຮ່ວມກັນໂດຍທ່ານຫມໍທາງການແພດແລະລະບົບ AI. ບັນຊີລາຍຊື່ແມ່ນບໍ່ມີທີ່ສິ້ນສຸດ.

ຂ້ອຍເກືອບຮູ້ສຶກຄືກັບການອ້າງເຖິງເລື່ອງຕະຫລົກທີ່ໂຫດຮ້າຍແບບຄລາສສິກກ່ຽວກັບມະນຸດ ແລະ AI ທີ່ຍ່າງເຂົ້າໄປໃນບາຮ່ວມກັນ. ມັນຂ້ອນຂ້າງຫົວເລາະສໍາລັບຜູ້ທີ່ເຂົ້າໄປໃນ AI.

ຢ່າງຈິງຈັງ, ໃຫ້ກັບຄືນສູ່ຈຸດສຸມຂອງມະນຸດແລະລະບົບ AI ທີ່ເຮັດວຽກຮ່ວມກັນໃນວຽກງານທີ່ມອບໃຫ້. ຫນ້າທໍາອິດ, ຂ້າພະເຈົ້າຕ້ອງການທີ່ຈະຫຼີກເວັ້ນການ anthropomorphizing AI, ເຊິ່ງເປັນສິ່ງທີ່ຂ້າພະເຈົ້າຈະເນັ້ນຫນັກໃສ່ຕະຫຼອດ. AI ບໍ່ມີຄວາມຮູ້ສຶກ. ກະລຸນາຮັກສາມັນຢູ່ໃນໃຈ.

ນີ້ແມ່ນບາງສິ່ງບາງຢ່າງທີ່ຕ້ອງພິຈາລະນາ: ມະນຸດໃນວົງການທີ່ຖືກກຳນົດຈະຢູ່ໃນຂໍ້ຕົກລົງກັບ AI ທີ່ເປັນທີມຮ່ວມສະເໝີບໍ?

ສໍາລັບວຽກງານທີ່ສັບສົນໃດກໍ່ຕາມ, ມັນເບິ່ງຄືວ່າບໍ່ຫນ້າຈະເປັນໄປໄດ້ວ່າມະນຸດແລະ AI ຈະເຂົ້າກັນຢ່າງສົມບູນແລະສະເຫມີຢູ່ໃນການລັອກແລະຂັ້ນຕອນ. ມະນຸດຢູ່ໃນບາງໂອກາດທີ່ອາດຈະຂັດແຍ້ງກັບ AI. ພວກເຮົາສາມາດເອົາສົມມຸດຕິຖານນັ້ນໄປຫາທະນາຄານ.

ຂ້າພະເຈົ້າຢາກໃຫ້ທ່ານພິຈາລະນາຄວາມເປັນໄປໄດ້ທີ່ຫນ້າປະຫລາດໃຈນີ້ເຊັ່ນກັນ: AI ສະເຫມີຢູ່ໃນຂໍ້ຕົກລົງກັບມະນຸດທີ່ກໍານົດໄວ້ບໍ?

ອີກເທື່ອ ໜຶ່ງ, ສຳ ລັບວຽກງານທີ່ສັບສົນ, ມັນເບິ່ງຄືວ່າຂ້ອນຂ້າງຄິດວ່າ AI ຈະບໍ່ຕົກລົງກັບມະນຸດໃນບາງໂອກາດ. ຖ້າທ່ານຕັ້ງໃຈຢູ່ແລ້ວກັບຄວາມຄິດທີ່ວ່າ AI ຕ້ອງຜິດສະ ເໝີ ໃນຂະນະທີ່ມະນຸດຕ້ອງຖືກຕ້ອງສະ ເໝີ, ເຈົ້າຄົງຈະສະຫຼາດທີ່ຈະຄິດຄືນ ຄຳ ສະຫລຸບທີ່ຮີບດ່ວນນັ້ນ. ຈິນຕະນາການລົດທີ່ມີມະນຸດແລະ AI ຮ່ວມກັນຂັບລົດຍານພາຫະນະເຄິ່ງອັດຕະໂນມັດ. ມະນຸດ​ມຸ້ງ​ໜ້າ​ໄປ​ຫາ​ກຳ​ແພງ​ດິນ​ຈີ່. ເປັນຫຍັງ? ພວກເຮົາບໍ່ຮູ້, ບາງທີມະນຸດເມົາເຫຼົ້າຫຼືນອນຫລັບ, ແຕ່ພວກເຮົາຮູ້ວ່າການລົ້ມລົງໃນກໍາແພງອິດບໍ່ແມ່ນຄວາມຄິດທີ່ດີ, ທັງຫມົດແມ່ນເທົ່າທຽມກັນ. AI ອາດ​ຈະ​ກວດ​ພົບ​ໄພ​ພິ​ບັດ​ທີ່​ຈະ​ມາ​ເຖິງ ແລະ​ສະ​ແຫວງ​ຫາ​ທີ່​ຈະ​ຂັບ​ໄລ່​ອອກ​ຈາກ​ສິ່ງ​ກີດ​ຂວາງ​ທີ່​ຈະ​ມາ​ເຖິງ.

ທັງຫມົດທີ່ບອກ, ພວກເຮົາຈະມີຄວາມເປັນໄປໄດ້ທີ່ແຕກຕ່າງກັນຂອງ AI ແລະມະນຸດບໍ່ເຫັນດີນໍາກັນ. ອີກວິທີໜຶ່ງທີ່ເວົ້າຄືກັນກໍຄືມະນຸດ ແລະ AI ບໍ່​ເຫັນ​ດີ​ກັບ​ກັນ. ໃຫ້ສັງເກດວ່າຂ້ອຍບໍ່ຢາກໃຫ້ການຈັດລໍາດັບຂອງ AI-and-human ທຽບກັບ human-and-AI ແນະນໍາຫຍັງກ່ຽວກັບທິດທາງຫຼືຄວາມຫນ້າເຊື່ອຖືຂອງການຂັດແຍ້ງ.

ຄົນງານສອງຄົນ, ມະນຸດຄົນໜຶ່ງ ແລະອີກຄົນໜຶ່ງທີ່ເປັນ AI, ບໍ່ເຫັນດີນໍາກັນ.

ພວກເຮົາສາມາດປະກາດລ່ວງໜ້າໄດ້ວ່າທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງເກີດຂຶ້ນລະຫວ່າງ AI ແລະມະນຸດທີ່ໃຫ້, ພວກເຮົາປະກາດລ່ວງໜ້າວ່າມະນຸດມີໄຊຊະນະເໜືອ AI. ເມື່ອເວົ້າແບບນັ້ນ, ຕົວຢ່າງຕົວຢ່າງຂອງຂ້ອຍກ່ຽວກັບລົດທີ່ກໍາລັງມຸ່ງຫນ້າເຂົ້າໄປໃນກໍາແພງດິນຈີ່ເບິ່ງຄືວ່າຈະຂັດຂວາງພວກເຮົາວ່າມະນຸດຈະຖືກຕ້ອງສະເຫມີ.

ໃນທາງກົງກັນຂ້າມ, ພວກເຮົາສາມາດເລືອກທີ່ຈະປະກາດລ່ວງຫນ້າວ່າທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງເກີດຂື້ນວ່າພວກເຮົາຈະກໍານົດລ່ວງຫນ້າວ່າ AI ແມ່ນຖືກຕ້ອງແລະມະນຸດແມ່ນຜິດພາດ. ນີ້ບໍ່ແມ່ນການສະຫນອງໂດຍທົ່ວໄປ sensibly sensibly. ຈິນຕະນາການລົດທີ່ AI ມີຂໍ້ຜິດພາດ ຫຼື bug ຂອງຊອບແວຝັງຢູ່, ແລະ AI ກໍາລັງພະຍາຍາມຊີ້ນໍາຍານພາຫະນະອອກຈາກຖະຫນົນແລະເຂົ້າໄປໃນຂຸມ. ສົມມຸດວ່າສິ່ງອື່ນແມ່ນເທົ່າທຽມກັນ, ມະນຸດຄວນຈະສາມາດເອົາຊະນະການດໍາເນີນການຂັບລົດ AI ນີ້ແລະປ້ອງກັນບໍ່ໃຫ້ຍານພາຫະນະລົງຈອດໃນ gully.

ຂໍໃຫ້ສະຫຼຸບໂດຍຫຍໍ້ກ່ຽວກັບເລື່ອງນີ້:

  • ມະນຸດຢູ່ໃນວົງຮອບຈະຢູ່ໃນຂໍ້ຕົກລົງກັບ AI ສະເໝີບໍ? ຕອບ: ສະບັບເລກທີ
  • AI ສະເຫມີຢູ່ໃນຂໍ້ຕົກລົງກັບມະນຸດໃນວົງການບໍ? ຕອບ: No.
  • ມະນຸດຢູ່ໃນວົງຮອບຈະຖືກຕ້ອງບໍເມື່ອປຽບທຽບກັບ AI? ຕອບ: ບໍ່​ຈ​ໍ​າ​ເປັນ.
  • AI ຈະຖືກຕ້ອງສະ ເໝີ ໄປເມື່ອປຽບທຽບກັບມະນຸດໃນວົງການບໍ? ຄໍາຕອບ: ບໍ່ຈໍາເປັນ.

ທ່ານແນ່ນອນສາມາດຕັ້ງຄ່າ AI ເພື່ອພິຈາລະນາໂດຍຄ່າເລີ່ມຕົ້ນເປັນ "ຜິດ" ຫຼືຝ່າຍທີ່ອ່ອນແອກວ່າແລະດັ່ງນັ້ນຈິ່ງປະຕິເສດມະນຸດທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງປາກົດຂຶ້ນ. ເຊັ່ນດຽວກັນ, ທ່ານສາມາດຕັ້ງຄ່າ AI ເພື່ອສົມມຸດວ່າ AI ຖືກພິຈາລະນາວ່າ "ຖືກຕ້ອງ" ເມື່ອໃດກໍ່ຕາມທີ່ມະນຸດບໍ່ເຫັນດີກັບ AI. ຂ້າ​ພະ​ເຈົ້າ​ຕ້ອງ​ການ​ໃຫ້​ຄວາມ​ກະ​ຈ່າງ​ແຈ້ງ​ວ່າ​ພວກ​ເຮົາ​ສາ​ມາດ​ເຮັດ​ໄດ້​ໂຄງ​ການ​ຖ້າ​ຫາກ​ວ່າ​ພວກ​ເຮົາ​ຕ້ອງ​ການ​ທີ່​ຈະ​ເຮັດ​ແນວ​ນັ້ນ​. ຂ້າພະເຈົ້າອ້າງວ່າໂດຍທົ່ວໄປ, ນີ້ບໍ່ແມ່ນສະເຫມີໄປກໍລະນີ. ມີການຕັ້ງຄ່າທີ່ແນ່ນອນທີ່ພວກເຮົາບໍ່ຮູ້ລ່ວງຫນ້າວ່າ AI ແມ່ນ "ຖືກຕ້ອງ" ຫຼືມະນຸດແມ່ນ "ຖືກຕ້ອງ" ໃນແງ່ຂອງການເລືອກຫນຶ່ງຫຼືອີກອັນຫນຶ່ງກ່ຽວກັບຄວາມຂັດແຍ້ງທີ່ກ່ຽວຂ້ອງກັບວຽກງານໃດຫນຶ່ງ.

ຂ້າພະເຈົ້າໄດ້ນໍາພາເຈົ້າໄປຫາຄໍາຖາມທີ່ສໍາຄັນແລະສັບສົນຫຼາຍ.

ພວກເຮົາຄວນເຮັດແນວໃດເມື່ອຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບເກີດຂຶ້ນລະຫວ່າງມະນຸດໃນວົງແລະ AI (ຫຼື, ທຽບເທົ່າ, ພວກເຮົາສາມາດປະໂຫຍກນີ້ເປັນລະຫວ່າງ AI ແລະມະນຸດໃນວົງ)?

ຢ່າພະຍາຍາມ dodge ຄໍາຖາມ.

ບາງຄົນອາດຈະໂຕ້ຖຽງວ່ານີ້ຈະບໍ່ເກີດຂຶ້ນ, ແຕ່ດັ່ງທີ່ຂ້ອຍໄດ້ວາງໄວ້ໃນຕົວຢ່າງຂອງຂ້ອຍກ່ຽວກັບລົດ, ມັນແນ່ນອນອາດຈະເກີດຂື້ນ. ບາງ​ຄົນ​ອາດ​ຈະ​ໂຕ້​ຖຽງ​ວ່າ​ມະນຸດ​ເປັນ​ຄົນ​ດີ​ກວ່າ​ຢ່າງ​ແນ່ນອນ ແລະ​ຕ້ອງ​ເປັນ​ຜູ້​ຊະນະ​ການ​ຂັດ​ແຍ້ງ​ໃດໆ. ຕົວຢ່າງຂອງຂ້ອຍກ່ຽວກັບລົດແລະກໍາແພງອິດເຮັດໃຫ້ຫນຶ່ງລົ້ມລົງ. ມີຜູ້ສະໜັບສະໜູນ AI ​​ທີ່ອາດຈະຍືນຍັນວ່າ AI ຈະຕ້ອງເປັນຜູ້ຊະນະ, ເນື່ອງຈາກການເອົາຊະນະອາລົມຂອງມະນຸດຢ່າງເຫັນໄດ້ຊັດ ແລະ ການຄິດທີ່ຢາກຮູ້ຢາກເຫັນໂດຍມະນຸດທີ່ຄິດບໍ່ເຕັມທີ່. ອີກເທື່ອ ໜຶ່ງ, ຕົວຢ່າງອີກອັນ ໜຶ່ງ ຂອງຂ້ອຍທີ່ກ່າວເຖິງລົດທີ່ ກຳ ລັງມຸ່ງ ໜ້າ ເຂົ້າໄປໃນຂຸມເຮັດໃຫ້ການຢືນຢັນນັ້ນ.

ໃນໂລກຄວາມເປັນຈິງ, AI ແລະມະນຸດຈະບໍ່ເຫັນດີນໍາ, ເຖິງແມ່ນວ່າທັງສອງຄົນຈະຖືກນໍາເຂົ້າໄປໃນສະຖານະການເປັນທີມເພື່ອປະຕິບັດວຽກງານຮ່ວມກັນ. ມັນຈະເກີດຂຶ້ນ. ພວກເຮົາບໍ່ສາມາດເອົາຫົວຂອງພວກເຮົາເຂົ້າໄປໃນດິນຊາຍແລະທໍາທ່າວ່າມັນຈະບໍ່ເກີດຂຶ້ນ.

ພວກ​ເຮົາ​ໄດ້​ເຫັນ​ວ່າ​ພວກ​ຄົນ​ທີ່​ຂັບ​ຍົນ​ໄດ້​ຕົກ​ຢູ່​ໃນ​ຄວາມ​ບໍ່​ເຫັນ​ດີ​ເຫັນ​ພ້ອມ. ໂຊກດີ, ພວກເຂົາເຈົ້າຕົກລົງເຫັນດີບໍ່ເຫັນດີ, ສະນັ້ນມັນເບິ່ງຄືວ່າ. ພວກ​ເຂົາ​ເຈົ້າ​ໄດ້​ນໍາ​ເອົາ​ຍົນ​ກັບ​ຄືນ​ໄປ​ບ່ອນ​ທີ່​ຢູ່​ປາຍ​ຍອດ. ພວກ​ເຂົາ​ເຈົ້າ​ໄດ້​ພົບ​ເຫັນ​ວິ​ທີ​ການ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຂັດ​ແຍ່ງ​ກັນ​ໄດ້​. ການ​ແກ້​ໄຂ​ຄວາມ​ບໍ່​ລົງ​ລອຍ​ກັນ​ຂອງ​ເຂົາ​ເຈົ້າ​ໄດ້​ຮັບ​ຜົນ​ດີ, ເມື່ອ​ສົມ​ທຽບ​ກັບ​ວ່າ​ບາງ​ທີ​ເຂົາ​ເຈົ້າ​ໄດ້​ໄປ​ຍິງ​ກັນ​ຢູ່​ໃນ​ຫ້ອງ​ນັກ​ບິນ ຫຼື​ບາງ​ທີ​ໄດ້​ບິນ​ຂຶ້ນ​ໄປ​ໃນ​ອາ​ກາດ ແລະ​ສືບ​ຕໍ່​ຕໍ່​ສູ້​ກັນ. ນັ້ນ​ແມ່ນ​ສະ​ຖາ​ນະ​ການ​ທີ່​ໂສກ​ເສົ້າ​ທີ່​ບໍ່​ສາ​ມາດ​ແກ້​ໄຂ, ແລະ​ພວກ​ເຮົາ​ສາ​ມາດ​ມີ​ຄວາມ​ຂອບ​ໃຈ​ທີ່​ບໍ່​ໄດ້​ເກີດ​ຂຶ້ນ.

ອະນຸຍາດໃຫ້ຂ້ອຍໃຫ້ລາຍຊື່ຂອງຂ້ອຍກ່ຽວກັບວິທີຕ່າງໆທີ່ AI ແລະ human-in-the-loop (ຫຼື, human-in-the-loop ແລະ AI) ອາດຈະຖືກແກ້ໄຂ:

  • AI ແລະມະນຸດທີ່ຮ່ວມມືກັນເຮັດວຽກຮ່ວມກັນ (ມິດຕະພາບຫຼືບໍ່)
  • ມະນຸດມີໄຊຊະນະເໜືອ AI, ໂດຍຄ່າເລີ່ມຕົ້ນ
  • AI ຊະນະມະນຸດ, ໂດຍຄ່າເລີ່ມຕົ້ນ
  • ບາງຄວາມລະອຽດຄົງທີ່ທີ່ກຳນົດໄວ້ລ່ວງໜ້າແມ່ນຊະນະ, ໂດຍຄ່າເລີ່ມຕົ້ນ
  • ບຸກຄົນພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງເຂົາເຈົ້າມີໄຊຊະນະໃນໄລຍະພາກສ່ວນ
  • AI ພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງມັນຊະນະຝ່າຍຕ່າງໆ
  • ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆດຳເນີນຕໍ່ໄປ
  • AI ພາກສ່ວນທີສາມປ່ຽນແທນ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ
  • ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດຳເນີນໄປອີກ (ດຽວນີ້ຈາກມະນຸດຫາມະນຸດ)
  • AI ພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ (ໃນປັດຈຸບັນ AI-to-AI)
  • ອື່ນ ໆ

ເຫຼົ່ານີ້ແມ່ນອຸດົມສົມບູນສົມຄວນທີ່ຈະໄດ້ຮັບການ unpacked.

ກ່ອນທີ່ຈະເຂົ້າໄປໃນບາງຊີ້ນແລະມັນຕົ້ນເພີ່ມເຕີມກ່ຽວກັບການພິຈາລະນາທໍາມະຊາດແລະຂົນສັດທີ່ຕິດພັນກັບວິທີການຈັດການກັບ AI ແລະຄວາມຂັດແຍ້ງຂອງມະນຸດ, ໃຫ້ພວກເຮົາຈັດວາງບາງພື້ນຖານເພີ່ມເຕີມກ່ຽວກັບຫົວຂໍ້ທີ່ສໍາຄັນຢ່າງເລິກເຊິ່ງ. ພວກເຮົາຈໍາເປັນຕ້ອງໃຊ້ເວລາສັ້ນໆເຂົ້າໄປໃນຈັນຍາບັນ AI ແລະໂດຍສະເພາະແມ່ນການມາຮອດຂອງ Machine Learning (ML) ແລະ Deep Learning (DL).

ທ່ານອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່າສຽງດັງທີ່ສຸດໃນປະຈຸບັນນີ້ຢູ່ໃນພາກສະຫນາມ AI ແລະເຖິງແມ່ນວ່າຢູ່ນອກພາກສະຫນາມຂອງ AI ປະກອບດ້ວຍການຮ້ອງອອກມາສໍາລັບລັກສະນະທີ່ໃຫຍ່ກວ່າຂອງ AI ດ້ານຈັນຍາບັນ. ລອງພິຈາລະນາເບິ່ງວ່າມັນຫມາຍຄວາມວ່າແນວໃດກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI. ນອກຈາກນັ້ນ, ພວກເຮົາຈະຄົ້ນຫາສິ່ງທີ່ຂ້ອຍຫມາຍເຖິງເມື່ອຂ້ອຍເວົ້າກ່ຽວກັບ Machine Learning ແລະ Deep Learning.

ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.

ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະສາມາດກວດສອບໄດ້, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ໃຫ້ກັບຄືນໄປຫາຈຸດສຸມຂອງພວກເຮົາກ່ຽວກັບຄວາມຂັດແຍ້ງລະຫວ່າງ AI ແລະມະນຸດ.

ຂ້າພະເຈົ້າໄດ້ຊີ້ບອກກ່ອນຫນ້ານີ້ວ່ານີ້ແມ່ນບາງຍຸດທະສາດການແກ້ໄຂຄວາມຂັດແຍ້ງ:

  • AI ແລະມະນຸດທີ່ຮ່ວມມືກັນເຮັດວຽກຮ່ວມກັນ (ມິດຕະພາບຫຼືບໍ່)
  • ມະນຸດມີໄຊຊະນະເໜືອ AI, ໂດຍຄ່າເລີ່ມຕົ້ນ
  • AI ຊະນະມະນຸດ, ໂດຍຄ່າເລີ່ມຕົ້ນ
  • ບາງຄວາມລະອຽດຄົງທີ່ທີ່ກຳນົດໄວ້ລ່ວງໜ້າແມ່ນຊະນະ, ໂດຍຄ່າເລີ່ມຕົ້ນ
  • ບຸກຄົນພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງເຂົາເຈົ້າມີໄຊຊະນະໃນໄລຍະພາກສ່ວນ
  • AI ພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງມັນຊະນະຝ່າຍຕ່າງໆ
  • ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆດຳເນີນຕໍ່ໄປ
  • AI ພາກສ່ວນທີສາມປ່ຽນແທນ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ
  • ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດຳເນີນໄປອີກ (ດຽວນີ້ຈາກມະນຸດຫາມະນຸດ)
  • AI ພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ (ໃນປັດຈຸບັນ AI-to-AI)
  • ອື່ນ ໆ

ເຖິງເວລາແລ້ວທີ່ຈະເອົາສິ່ງເຫຼົ່ານີ້ອອກ.

ຫນ້າທໍາອິດ, ພິຈາລະນາວ່ານີ້ແມ່ນທັງຫມົດກ່ຽວກັບ ມືອາຊີບ ຄວາມບໍ່ເຫັນດີ.

ຄວາມບໍ່ເຫັນດີທາງດ້ານວິຊາຊີບແມ່ນຖືກກໍານົດໄວ້ວ່າງໆວ່າເປັນຄວາມບໍ່ເຫັນດີທີ່ກ່ຽວຂ້ອງກັບວຽກງານທີ່ກ່ຽວຂ້ອງກັບວຽກງານ.

ຕົວຢ່າງ, ຄວາມບໍ່ເຫັນດີທີ່ເກີດຂື້ນລະຫວ່າງນັກບິນແລະນັກບິນຈະດໍາເນີນການກັບການບິນທີ່ກໍາລັງປະເຊີນກັບພະຍຸສາມາດຖືກຕິດສະຫລາກຢ່າງສົມເຫດສົມຜົນວ່າເປັນການຂັດແຍ້ງດ້ານວິຊາຊີບ. ໃນທາງກົງກັນຂ້າມ, ຄວາມບໍ່ລົງລອຍກັນຢ່າງຮ້າຍແຮງກ່ຽວກັບຍີ່ຫໍ້ກາເຟທີ່ນັກບິນສະ ໜັບ ສະ ໜູນ ທຽບກັບຍີ່ຫໍ້ທີ່ນັກບິນມັກຖືກຈັດປະເພດເປັນຄວາມຂັດແຍ້ງທີ່ບໍ່ເປັນມືອາຊີບໃນສະພາບການສະເພາະນີ້.

ແນ່ນອນ, ຖ້າຄວາມຂັດແຍ້ງທີ່ບໍ່ເປັນມືອາຊີບເຮັດໃຫ້ເກີດຄວາມບໍ່ລົງລອຍກັນທາງດ້ານວິຊາຊີບ, ໃນທີ່ສຸດພວກເຮົາອາດຈະສົນໃຈຄວາມຂັດແຍ້ງທີ່ບໍ່ແມ່ນຜູ້ຊ່ຽວຊານທີ່ເປັນແຫຼ່ງທີ່ສົມມຸດຕິຖານຫຼືຈຸດປະກາຍສໍາລັບຜູ້ຊ່ຽວຊານ. ລອງນຶກພາບວ່ານັກບິນ ແລະນັກບິນໂຕ້ຖຽງກັນຢ່າງຂົມຂື່ນວ່າກາເຟຍີ່ຫໍ້ໃດດີທີ່ສຸດ, ຈາກນັ້ນໜ້າເສຍໃຈທີ່ຮົ່ວໄຫຼໄປສູ່ຄວາມເປັນຫ່ວງສະເພາະໃນການບິນ (ປົງ!) ເຊັ່ນວ່າ ຈະອອກ ຫຼື ບໍ່.

ອັນທີສອງ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ຮັກສາຢູ່ໃນໃຈຂອງຂະຫນາດຂອງການຂັດແຍ້ງດ້ານວິຊາຊີບ.

ບາງ​ທີ​ນັກ​ບິນ​ແລະ​ນັກ​ບິນ​ຫຼື​ໃນ​ການ​ບໍ່​ເຫັນ​ດີ​ທີ່​ອ່ອນ​ໂຍນ​ກ່ຽວ​ກັບ​ການ​ດໍາ​ເນີນ​ການ​ບິນ​. ພວກ​ເຂົາ​ເຈົ້າ​ບໍ່​ໄດ້​ຢູ່​ໃນ​ຫົວ loggerhead ແລະ​ພຽງ​ແຕ່​ການ​ໄຕ່​ຕອງ pros ແລະ cons ຂອງ​ວ່າ​ຈະ​ຂຶ້ນ​. ນີ້ບໍ່ແມ່ນຄວາມສອດຄ່ອງ ຫຼືຂະໜາດຂອງການຂັດແຍ້ງດ້ານວິຊາຊີບທີ່ເຮົາພິຈາລະນາຕາມປະເພນີໃນນີ້. ສິ່ງ​ທີ່​ເປັນ​ໄປ​ໄດ້, ອາດ​ຈະ​ເປັນ​ການ​ຂັດ​ແຍ້ງ​ດ້ານ​ວິຊາ​ຊີບ​ເປັນ​ໄລຍະ​ຂ້າມ​ຜ່ານ ​ແລະ ທັງ​ສອງ​ຝ່າຍ​ໄດ້​ດຳ​ເນີນ​ການ​ແກ້​ໄຂ​ຢ່າງ​ສະໜິດ​ແໜ້ນ ຫຼື ຢ່າງ​ໜ້ອຍ​ບົນ​ພື້ນຖານ​ທັນ​ການ. ໂດຍ​ທົ່ວ​ໄປ, ຈຸດ​ສຸມ​ຂອງ​ຄວາມ​ຂັດ​ແຍ້ງ​ດ້ານ​ວິ​ຊາ​ຊີບ​ຢູ່​ໃນ​ຂອບ​ເຂດ​ແມ່ນ​ບັນ​ຫາ​ທີ່​ເບິ່ງ​ຄື​ວ່າ​ບໍ່​ມີ​ຄວາມ​ຫຍຸ້ງ​ຍາກ, ແລະ ສອງ​ຝ່າຍ​ຍັງ​ຄົງ​ບໍ່​ລົງ​ຮອຍ​ກັນ.

ອັນທີສາມ, ປົກກະຕິແລ້ວຕ້ອງມີບາງສິ່ງບາງຢ່າງຢ່າງຈິງຈັງຢູ່ໃນເສັ້ນເພື່ອໃຫ້ຄໍາແນະນໍາເຫຼົ່ານີ້ເຂົ້າມາ.

ການເລືອກບິນ ຫຼື ບໍ່ບິນແມ່ນການຕັດສິນໃຈແບບມີຊີວິດ ຫຼື ຄວາມຕາຍ ຖ້າການບິນມີຄວາມສ່ຽງຍ້ອນລົມພາຍຸ ຫຼື ຍົນກໍ່ຖືວ່າບໍ່ໄດ້ກຽມຕົວເຕັມທີ່ສຳລັບການເດີນທາງດັ່ງກ່າວ. ນີ້ແມ່ນທຸລະກິດທີ່ຮ້າຍແຮງ. ພວກເຮົາຍັງສາມາດນຳໃຊ້ຄໍາແນະນໍາຕໍ່ກັບຄວາມບໍ່ລົງລອຍກັນທາງດ້ານວິຊາຊີບທີ່ມີຜົນກະທົບໜ້ອຍກວ່າ ເຖິງແມ່ນວ່າມັນອາດຈະເປັນການລົບກວນຫຼາຍກ່ວາມັນຄຸ້ມຄ່າ.

ຕົກລົງ, ການພິຈາລະນາຂອງພວກເຮົາແມ່ນວ່າ:

  • ການບໍ່ເຫັນດີເຫັນພ້ອມແມ່ນເນັ້ນໃສ່ເປັນມືອາຊີບຕົ້ນຕໍ ຫຼາຍກວ່າສິ່ງທີ່ບໍ່ແມ່ນອາຊີບ
  • ຄວາມບໍ່ລົງລອຍກັນແມ່ນມີລັກສະນະຍືນຍົງ ແລະບໍ່ແມ່ນພຽງໄລຍະຂ້າມຜ່ານ ຫຼືແກ້ໄຂໄດ້ຢ່າງອື່ນ.
  • ຄວາມບໍ່ເຫັນດີໄດ້ບອກລ່ວງໜ້າເຖິງຜົນສະທ້ອນທີ່ຮ້າຍແຮງ ແລະປົກກະຕິແລ້ວແມ່ນຜົນທີ່ມີຜົນກະທົບ
  • ພາກສ່ວນຕ່າງໆແມ່ນຢູ່ໃນຫົວ loggerhead ແລະພວກເຂົາເບິ່ງຄືວ່າ intractable

ຕອນນີ້ຂໍໃຫ້ພິຈາລະນາຢ່າງລະອຽດກ່ຽວກັບຄໍາແນະນໍາຫຼືວິທີການແນະນໍາຂອງຂ້ອຍກ່ຽວກັບວິທີຮັບມືກັບຄວາມບໍ່ລົງລອຍກັນແບບມືອາຊີບ.

AI ແລະມະນຸດທີ່ຮ່ວມມືກັນເຮັດວຽກຮ່ວມກັນ (ມິດຕະພາບຫຼືບໍ່)

ຂ້ອຍເລີ່ມຕົ້ນບັນຊີລາຍຊື່ດ້ວຍຄວາມເປັນໄປໄດ້ທີ່ກົງໄປກົງມາທີ່ AI ແລະມະນຸດໃນວົງການສາມາດແກ້ໄຂຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບລະຫວ່າງເຂົາເຈົ້າ. ມັນເບິ່ງຄືວ່າບາງທີຕົວຢ່າງຂອງມະນຸດສອງຄົນ, ນັກບິນແລະນັກບິນໄດ້ສະແດງໃຫ້ເຫັນສະຖານະການແບບນີ້. ພວກເຂົາເຈົ້າ somehow ຕົກລົງທີ່ຈະກັບຄືນໄປ terminal ແລະໄປວິທີການແຍກຕ່າງຫາກຂອງເຂົາເຈົ້າ. ມັນອາດຈະເປັນວ່າລະບົບ AI ແລະມະນຸດສາມາດຊອກຫາວິທີການແກ້ໄຂທີ່ໂດຍທົ່ວໄປແລ້ວເປັນທີ່ພໍໃຈຂອງທັງສອງຝ່າຍແລະເລື່ອງນີ້ຈຶ່ງສະຫຼຸບໄດ້ຢ່າງພໍໃຈ.

ມະນຸດມີໄຊຊະນະເໜືອ AI, ໂດຍຄ່າເລີ່ມຕົ້ນ

ເມື່ອຕັ້ງ AI, ພວກເຮົາອາດຈະວາງແຜນກົດລະບຽບທີ່ກ່າວວ່າມະນຸດໃນວົງການຈະຊະນະສະເຫມີທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບເກີດຂື້ນ. ອັນນີ້ຈະເປັນຄ່າເລີ່ມຕົ້ນທີ່ຖືກລະຫັດຢ່າງຈະແຈ້ງ. ພວກເຮົາອາດຈະອະນຸຍາດໃຫ້ມີການລົບລ້າງບາງຮູບແບບ, ໃນກໍລະນີທີ່, ເຖິງແມ່ນວ່າກົດລະບຽບທີ່ຢືນຢູ່ຈະເປັນທີ່ມະນຸດຊະນະ.

AI ຊະນະມະນຸດ, ໂດຍຄ່າເລີ່ມຕົ້ນ

ເມື່ອຕັ້ງ AI, ພວກເຮົາອາດຈະວາງແຜນກົດລະບຽບທີ່ກ່າວວ່າ AI ຈະຊະນະມະນຸດຕະຫຼອດທຸກຄັ້ງທີ່ຄວາມບໍ່ລົງລອຍກັນດ້ານວິຊາຊີບເກີດຂື້ນ. ນີ້ແມ່ນລະຫັດເລີ່ມຕົ້ນທີ່ຊັດເຈນ. ພວກເຮົາອາດຈະອະນຸຍາດໃຫ້ມີການລົບລ້າງບາງຮູບແບບ, ໃນກໍລະນີ, ເຖິງແມ່ນວ່າກົດລະບຽບທີ່ຢືນຢູ່ຈະເປັນທີ່ AI ຊະນະ.

ບາງຄວາມລະອຽດຄົງທີ່ທີ່ກຳນົດໄວ້ລ່ວງໜ້າແມ່ນຊະນະ, ໂດຍຄ່າເລີ່ມຕົ້ນ

ເມື່ອຕັ້ງ AI, ພວກເຮົາອາດຈະວາງແຜນກົດລະບຽບທີ່ກ່າວວ່າການແກ້ໄຂຄົງທີ່ທີ່ກໍານົດໄວ້ລ່ວງຫນ້າອື່ນໆຈະຊະນະທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບເກີດຂື້ນກັບມະນຸດໃນວົງ. human-in-the-loop ບໍ່ໄດ້ຊະນະໂດຍຄ່າເລີ່ມຕົ້ນ. AI ບໍ່ໄດ້ຊະນະໂດຍຄ່າເລີ່ມຕົ້ນ. ມີບາງການແກ້ໄຂທີ່ໄດ້ກໍານົດໄວ້ກ່ອນ. ຕົວຢ່າງ, ບາງທີອາດມີການຖິ້ມຫຼຽນທີ່ຈະໃຊ້ເພື່ອຕັດສິນໃຈວ່າຝ່າຍໃດຂອງທັງສອງຝ່າຍຖືວ່າເປັນເສັ້ນທາງທີ່ຖືກຕ້ອງ. ນັ້ນແນ່ນອນຈະເບິ່ງຄືວ່າບໍ່ມັກ; ດັ່ງນັ້ນວິທີການຕົວຢ່າງອີກອັນຫນຶ່ງແມ່ນວ່າກົດລະບຽບພິເສດເລີ່ມຕົ້ນໃນການຄິດໄລ່ມູນຄ່າໂດຍອີງໃສ່ປັດໄຈນໍາເຂົ້າຈາກທັງສອງຝ່າຍແລະມາຮອດຜົນໄດ້ຮັບເປັນຕົວແຍກ.

ບຸກຄົນພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງເຂົາເຈົ້າມີໄຊຊະນະໃນໄລຍະພາກສ່ວນ

ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, ກົດລະບຽບອາດຈະເປັນວ່າບຸກຄົນທີສາມທີ່ເປັນມະນຸດຈະຖືກເອີ້ນແລະເຂົ້າໄປໃນການກໍານົດເພື່ອຕັດສິນໃຈແກ້ໄຂຄວາມຂັດແຍ້ງ. AI ໄດ້ຖືກວາງແຜນໄວ້ເພື່ອປະຕິບັດຕາມສິ່ງທີ່ມະນຸດພາກສ່ວນທີສາມຕັດສິນໃຈ. ມະນຸດ​ທີ່​ຢູ່​ໃນ​ວົງ​ການ​ຂອງ​ມະນຸດ​ໄດ້​ຮັບ​ການ​ແນະນຳ​ລ່ວງ​ໜ້າ​ວ່າ ຖ້າ​ສະພາບ​ການ​ດັ່ງກ່າວ​ເກີດ​ຂຶ້ນ, ​ເຂົາ​ເຈົ້າ​ກໍ​ຄື​ກັນ​ກັບ​ມະນຸດ​ຝ່າຍ​ທີ​ສາມ. ໃນທາງກົງກັນຂ້າມ, ເຈົ້າສາມາດຄາດການໄດ້ວ່າມະນຸດໃນວົງການອາດຈະມີຄວາມຄຽດແຄ້ນຕໍ່ການຍອມຮັບສິ່ງທີ່ມະນຸດພາກສ່ວນທີສາມຕັດສິນໃຈຖ້າການຕັດສິນໃຈບໍ່ເຫັນດີກັບທ່າທາງຂອງມະນຸດ.

AI ພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງມັນຊະນະຝ່າຍຕ່າງໆ

ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, ກົດລະບຽບອາດຈະເປັນວ່າພາກສ່ວນທີສາມທີ່ເປັນລະບົບ AI ທີ່ແຕກຕ່າງກັນໄດ້ຖືກເອີ້ນແລະເຂົ້າໄປໃນການກໍານົດເພື່ອຕັດສິນໃຈແກ້ໄຂຄວາມຂັດແຍ້ງ. AI ຕົ້ນສະບັບຖືກຕັ້ງໂຄງການໃຫ້ເລື່ອນໄປຕາມສິ່ງທີ່ AI ພາກສ່ວນທີສາມຕັດສິນໃຈ. ມະນຸດຢູ່ໃນວົງການຂອງມະນຸດແລ້ວໄດ້ຖືກແນະນໍາລ່ວງຫນ້າວ່າຖ້າສະຖານະການດັ່ງກ່າວເກີດຂື້ນ, ພວກເຂົາກໍ່ຕ້ອງປະຕິເສດກັບ AI ພາກສ່ວນທີສາມ. ໃນທາງກົງກັນຂ້າມ, ເຈົ້າສາມາດຄາດການໄດ້ວ່າມະນຸດໃນວົງການອາດຈະມີຄວາມໂກດແຄ້ນຕໍ່ການຍອມຮັບສິ່ງທີ່ AI ພາກສ່ວນທີສາມຕັດສິນໃຈຖ້າການຕັດສິນໃຈບໍ່ເຫັນດີກັບທ່າທາງຂອງມະນຸດ.

ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆດຳເນີນຕໍ່ໄປ

ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, ມະນຸດໃນວົງການຖືກແທນທີ່ດ້ວຍພາກສ່ວນທີສາມທີ່ເປັນມະນຸດແລະນັ້ນຈະກາຍເປັນມະນຸດໃນວົງການຕໍ່ໄປ. ມະນຸດທີ່ເປັນມະນຸດຕົ້ນສະບັບໃນວົງການສໍາລັບວຽກງານນັ້ນບໍ່ໄດ້ຖືກພິຈາລະນາເປັນສ່ວນຫນຶ່ງຂອງວຽກງານທີ່ມີຢູ່ໃນມື. ມັນເປັນລັກສະນະທີ່ເປີດເຜີຍກ່ຽວກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນຈະເກີດຂຶ້ນກັບມະນຸດໃນວົງການທີ່ຖືກແທນທີ່ໃນປັດຈຸບັນ, ແຕ່ພວກເຮົາເວົ້າວ່າແນ່ນອນວ່າພວກເຂົາບໍ່ມີບົດບາດຢ່າງຕໍ່ເນື່ອງໃນວຽກງານການເຮັດວຽກ.

AI ພາກສ່ວນທີສາມປ່ຽນແທນ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ

ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, AI ຖືກແທນທີ່ດ້ວຍ AI ພາກສ່ວນທີສາມແລະນັ້ນກາຍເປັນ AI ທີ່ໃຊ້ໃນການເຮັດວຽກໃນມື. AI ທີ່​ຖືກ​ນຳ​ໃຊ້​ໃນ​ເບື້ອງ​ຕົ້ນ​ສຳ​ລັບ​ວຽກ​ງານ​ນັ້ນ​ບໍ່​ຖືກ​ຖື​ວ່າ​ເປັນ​ສ່ວນ​ໜຶ່ງ​ຂອງ​ວຽກ​ງານ​ທີ່​ມີ​ຢູ່​ແລ້ວ. ມັນເປັນລັກສະນະທີ່ເປີດເຜີຍກ່ຽວກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນຈະເກີດຂຶ້ນກັບ AI ທີ່ຖືກແທນທີ່ໃນປັດຈຸບັນ, ແຕ່ພວກເຮົາເວົ້າວ່າແນ່ນອນ AI ບໍ່ມີບົດບາດຢ່າງຕໍ່ເນື່ອງໃນວຽກງານ.

ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດຳເນີນໄປອີກ (ດຽວນີ້ຈາກມະນຸດຫາມະນຸດ)

ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, AI ໄດ້ຖືກແທນທີ່ດ້ວຍມະນຸດພາກສ່ວນທີສາມທີ່ບຸກຄົນນັ້ນກາຍເປັນທີມງານຮ່ວມກັນທີ່ຖືກພິຈາລະນາທີ່ຈະໃຊ້ສໍາລັບວຽກງານໃນມື. AI ທີ່​ຖືກ​ນຳ​ໃຊ້​ໃນ​ເບື້ອງ​ຕົ້ນ​ສຳ​ລັບ​ວຽກ​ງານ​ນັ້ນ​ບໍ່​ຖືກ​ຖື​ວ່າ​ເປັນ​ສ່ວນ​ໜຶ່ງ​ຂອງ​ວຽກ​ງານ​ທີ່​ມີ​ຢູ່​ແລ້ວ. ມັນເປັນລັກສະນະທີ່ເປີດເຜີຍກ່ຽວກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນຈະເກີດຂຶ້ນກັບ AI ທີ່ຖືກແທນທີ່ໃນປັດຈຸບັນ, ແຕ່ພວກເຮົາເວົ້າວ່າແນ່ນອນ AI ບໍ່ມີບົດບາດຢ່າງຕໍ່ເນື່ອງໃນວຽກງານ. ໃນສັ້ນ, ນີ້ກາຍເປັນວຽກງານທີ່ສອງຝ່າຍຂອງມະນຸດຕໍ່ມະນຸດ.

AI ພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ (ໃນປັດຈຸບັນ AI-to-AI)

ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, ມະນຸດໃນວົງການຖືກແທນທີ່ດ້ວຍ AI ພາກສ່ວນທີສາມແລະ AI ນີ້ຈະກາຍເປັນການຕື່ມຂໍ້ມູນໃສ່ໃນວົງກ່ອນຂອງມະນຸດ. ມະນຸດທີ່ເປັນມະນຸດຕົ້ນສະບັບໃນວົງການສໍາລັບວຽກງານນັ້ນບໍ່ໄດ້ຖືກພິຈາລະນາເປັນສ່ວນຫນຶ່ງຂອງວຽກງານທີ່ມີຢູ່ໃນມື. ມັນເປັນລັກສະນະທີ່ເປີດເຜີຍກ່ຽວກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນຈະເກີດຂຶ້ນກັບມະນຸດໃນວົງການທີ່ຖືກແທນທີ່ໃນປັດຈຸບັນ, ແຕ່ພວກເຮົາເວົ້າວ່າແນ່ນອນວ່າພວກເຂົາບໍ່ມີບົດບາດຢ່າງຕໍ່ເນື່ອງໃນວຽກງານການເຮັດວຽກ. ໃນສັ້ນ, ໃນປັດຈຸບັນນີ້ກາຍເປັນສອງຝ່າຍ AI-to-AI ເພື່ອປະຕິບັດວຽກງານ.

ອື່ນ ໆ

ການປ່ຽນແປງອື່ນໆສາມາດຖືກວາງແຜນເພື່ອຮັບມືກັບຄວາມບໍ່ລົງລອຍກັນແບບມືອາຊີບ, ແຕ່ພວກເຮົາໄດ້ກວມເອົາບາງຈຸດສໍາຄັນທີ່ນີ້.

ເຮົາຈະຕັດສິນໃຈແນວໃດວ່າວິທີການເຫຼົ່ານັ້ນຈະເໝາະສົມກັບສະຖານະການໃດ?

ຫຼາຍໆບັນຫາເຂົ້າໄປໃນການເລືອກດັ່ງກ່າວ. ມີການພິຈາລະນາທາງດ້ານເຕັກໂນໂລຢີ. ມີການພິຈາລະນາທຸລະກິດ. ມີການພິຈາລະນາທາງດ້ານກົດໝາຍ ແລະ ຈັນຍາບັນ.

ໃນບາງລະດັບ, ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າຈັນຍາບັນຂອງ AI ແລະຈັນຍາບັນ AI ແມ່ນຫົວຂໍ້ສໍາຄັນດັ່ງກ່າວ. ຫຼັກຈັນຍາບັນຂອງ AI ເຮັດໃຫ້ພວກເຮົາມີຄວາມລະມັດລະວັງ. ບາງຄັ້ງນັກເທກໂນໂລຍີ AI ສາມາດກາຍເປັນຄົນທີ່ສົນໃຈກັບເຕັກໂນໂລຢີ, ໂດຍສະເພາະການເພີ່ມປະສິດທິພາບຂອງເຕັກໂນໂລຢີສູງ. ເຂົາເຈົ້າບໍ່ຈໍາເປັນພິຈາລະນາເຖິງຜົນກະທົບຂອງສັງຄົມທີ່ໃຫຍ່ກວ່າ. ການມີແນວຄິດດ້ານຈັນຍາບັນຂອງ AI ແລະເຮັດແນວນັ້ນຢ່າງປະສົມປະສານກັບການພັດທະນາ AI ແລະພາກສະຫນາມແມ່ນສໍາຄັນສໍາລັບການຜະລິດ AI ທີ່ເຫມາະສົມ, ລວມທັງ (ບາງທີອາດເປັນເລື່ອງແປກທີ່ຫຼືທາດເຫຼັກ) ການປະເມີນວ່າຈັນຍາບັນ AI ໄດ້ຮັບການຮັບຮອງເອົາໂດຍບໍລິສັດ.

ນອກເຫນືອຈາກການໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ໂດຍທົ່ວໄປແລ້ວ, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອຄວບຄຸມການນໍາໃຊ້ຕ່າງໆຂອງ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມ​ພະ​ຍາ​ຍາມ​ເພື່ອ​ຮ່າງ​ກົດ​ໝາຍ​ດັ່ງ​ກ່າວ​ແມ່ນ​ເປັນ​ໄປ​ເທື່ອ​ລະ​ກ້າວ. ຈັນຍາບັນ AI ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.

ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ໃນຄວາມເປັນຈິງ, ພວກເຂົາເຕືອນວ່າຖ້າພວກເຮົາປະກາດກົດຫມາຍ AI ເຫຼົ່ານີ້, ພວກເຮົາຈະຂ້າ goose ທອງໂດຍການຍຶດຫມັ້ນໃນຄວາມກ້າວຫນ້າໃນ AI ທີ່ສະເຫນີຂໍ້ໄດ້ປຽບຂອງສັງຄົມອັນໃຫຍ່ຫຼວງ.

ໃນຊ່ວງເວລາຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້ອຍຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງຫົວຂໍ້ນີ້. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດແດ່ກ່ຽວກັບການແກ້ໄຂຄວາມຂັດແຍ້ງລະຫວ່າງ AI ແລະມະນຸດ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI-Versus-Human ຄວາມບໍ່ເຫັນດີນໍາ

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້າ​ພະ​ເຈົ້າ​ຫວັງ​ວ່າ​ມັນ​ຈະ​ສະ​ຫນອງ​ໃຫ້​ເປັນ​ພຽງ​ພໍ​ຂອງ​ຄໍາ​ແນະ​ນໍາ​ທີ່​ຈະ underlie ສິ່ງ​ທີ່​ຂ້າ​ພະ​ເຈົ້າ​ກໍາ​ລັງ​ຈະ​ກ່ຽວ​ຂ້ອງ​.

ສໍາລັບຍານພາຫະນະທີ່ປົກຄອງຕົນເອງຢ່າງເຕັມທີ່ອາດຈະບໍ່ມີໂອກາດທີ່ຈະຂັດແຍ້ງດ້ານວິຊາຊີບລະຫວ່າງມະນຸດແລະ AI ເນື່ອງຈາກຄວາມເປັນໄປໄດ້ທີ່ບໍ່ມີມະນຸດຢູ່ໃນວົງການທີ່ຈະເລີ່ມຕົ້ນ. ຄວາມປາຖະໜາຂອງຜູ້ຜະລິດລົດທີ່ຂັບລົດຕົນເອງຫຼາຍຄົນໃນທຸກມື້ນີ້ ແມ່ນເພື່ອເອົາຄົນຂັບມະນຸດອອກຈາກວຽກຂັບລົດໝົດທຸກຄົນ. ຍານພາຫະນະດັ່ງກ່າວຈະບໍ່ມີການຄວບຄຸມການຂັບຂີ່ທີ່ມະນຸດເຂົ້າເຖິງໄດ້. ໃນກໍລະນີນັ້ນ, ຜູ້ຂັບຂີ່ມະນຸດ, ຖ້າຢູ່, ຈະບໍ່ສາມາດເຂົ້າຮ່ວມໃນວຽກງານຂັບລົດໄດ້ເນື່ອງຈາກພວກເຂົາຂາດການເຂົ້າເຖິງການຄວບຄຸມການຂັບຂີ່ໃດໆ.

ສໍາລັບຍານພາຫະນະອັດຕະໂນມັດບາງອັນ, ການອອກແບບບາງຢ່າງຍັງອະນຸຍາດໃຫ້ມະນຸດຢູ່ໃນວົງ, ເຖິງແມ່ນວ່າມະນຸດບໍ່ຈໍາເປັນຕ້ອງມີຫຼືມີສ່ວນຮ່ວມໃນຂະບວນການຂັບຂີ່ທັງຫມົດ. ດັ່ງນັ້ນ, ມະນຸດສາມາດມີສ່ວນຮ່ວມໃນການຂັບລົດ, ຖ້າບຸກຄົນນັ້ນຕ້ອງການ. ເຖິງແມ່ນວ່າບໍ່ມີຈຸດໃດທີ່ AI ອີງໃສ່ມະນຸດເພື່ອປະຕິບັດວຽກງານການຂັບລົດໃດໆ.

ໃນກໍລະນີຂອງຍານພາຫະນະເຄິ່ງອັດຕະໂນມັດ, ມີຄວາມສໍາພັນໃນມືລະຫວ່າງຜູ້ຂັບຂີ່ຂອງມະນຸດແລະ AI. ຜູ້ຂັບຂີ່ຂອງມະນຸດສາມາດຄວບຄຸມການຄວບຄຸມການຂັບຂີ່ໄດ້ຢ່າງສົມບູນແລະສໍາຄັນທີ່ຈະຢຸດ AI ຈາກການມີສ່ວນຮ່ວມໃນການຂັບຂີ່. ຖ້າຜູ້ຂັບຂີ່ຂອງມະນຸດຕ້ອງການທີ່ຈະຟື້ນຟູ AI ເຂົ້າໃນບົດບາດການຂັບຂີ່, ເຂົາເຈົ້າສາມາດເຮັດໄດ້, ເຖິງແມ່ນວ່ານີ້ບາງຄັ້ງກໍ່ບັງຄັບມະນຸດໃຫ້ຍົກເລີກການຄວບຄຸມການຂັບຂີ່.

ຮູບແບບການດຳເນີນງານແບບເຄິ່ງອັດຕະໂນມັດອີກອັນໜຶ່ງຈະໃຫ້ຜູ້ຂັບຂີ່ມະນຸດ ແລະ AI ເຮັດວຽກຮ່ວມກັນເປັນທີມ. AI ກໍາລັງຂັບລົດແລະມະນຸດກໍາລັງຂັບລົດ. ພວກເຂົາເຈົ້າກໍາລັງຂັບລົດຮ່ວມກັນ. AI ອາດຈະຫັນໄປສູ່ມະນຸດ. ມະນຸດອາດຈະຫັນໄປສູ່ AI.

ໃນບາງຈຸດ, ລະບົບການຂັບຂີ່ AI ແລະຜູ້ຂັບຂີ່ຂອງມະນຸດໃນວົງການອາດຈະມາຮອດຈຸດເຊື່ອມຕໍ່ຂອງ "ຄວາມບໍ່ເຫັນດີທາງດ້ານວິຊາຊີບ" ກ່ຽວກັບວຽກງານຂັບລົດຢູ່ໃນມື.

ເພື່ອສະແດງໃຫ້ເຫັນວ່າບາງກົດລະບຽບທີ່ໄດ້ກ່າວມາຂ້າງເທິງຂອງການຈັດການກັບຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບສາມາດທ້າທາຍໃນການປະຕິບັດ, ພິຈາລະນາຕົວຢ່າງຂອງການຮຽກຮ້ອງໃຫ້ບຸກຄົນທີສາມເຂົ້າໄປໃນເລື່ອງແລະສະເຫນີການຕັດສິນໃຈແກ້ໄຂບັນຫາທີ່ບໍ່ໄດ້ຮັບການແກ້ໄຂ.

ສົມມຸດວ່າຜູ້ຜະລິດລົດຍົນ ຫຼືບໍລິສັດເທັກໂນໂລຍີຂັບລົດຕົນເອງໄດ້ຈັດໃຫ້ຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກເຂົ້າເຖິງການຄວບຄຸມການຂັບຂີ່ຂອງຍານພາຫະນະພາຍໃນເຮືອຂອງພວກເຂົາ. ຜູ້ປະຕິບັດການຂອງມະນຸດກໍາລັງນັ່ງຢູ່ໃນຫ້ອງການຫ່າງໄກສອກຫຼີກຫຼືຕັ້ງຄ້າຍໆກັນ. ໂດຍຜ່ານລະບົບຄອມພິວເຕີ, ພວກເຂົາເຈົ້າສາມາດເບິ່ງ scene ການຂັບລົດໂດຍຜ່ານການເຂົ້າເຖິງກ້ອງຖ່າຍຮູບແລະອຸປະກອນເຊັນເຊີອື່ນໆ loaded ໃສ່ລົດຂັບລົດຕົນເອງໄດ້. ສໍາລັບພວກເຂົາ, ນີ້ແມ່ນເກືອບຄືກັບການຫຼີ້ນວິດີໂອອອນໄລນ໌, ເຖິງແມ່ນວ່າ, ແນ່ນອນ, ສະຖານະການໃນຊີວິດຈິງມີຜົນສະທ້ອນຮ້າຍແຮງ.

ລະບົບ AI ແລະຜູ້ຂັບຂີ່ມະນຸດຢູ່ໃນລົດກໍາລັງຂັບລົດເຄິ່ງອັດຕະໂນມັດລົງໄປສູ່ທາງດ່ວນຍາວ. ທັນທີທັນໃດ, AI ຕ້ອງການຊີ້ນໍາເຂົ້າໄປໃນຂຸມ. ຄົນຂັບລົດມະນຸດບໍ່ຢາກເຮັດອັນນີ້. ທັງ​ສອງ​ກຳລັງ​ໂຕ້​ຖຽງ​ກັນ​ໃນ​ການ​ຄວບ​ຄຸມ​ການ​ຂັບ​ລົດ.

ນີ້ຈະແກ້ໄຂແນວໃດ?

ບາງທີເຮົາອາດຈະຕັ້ງຂຶ້ນກ່ອນວ່າມະນຸດຊະນະສະເໝີ. ສົມມຸດວ່າພວກເຮົາເລືອກທີ່ຈະບໍ່ເຮັດແນວນັ້ນ.

ພວກ​ເຮົາ​ສາ​ມາດ​ໄດ້​ຈັດ​ຕັ້ງ​ໄວ້​ລ່ວງ​ຫນ້າ​ວ່າ AI ຊະ​ນະ​ສະ​ເຫມີ​ໄປ​. ສົມມຸດວ່າພວກເຮົາເລືອກທີ່ຈະບໍ່ເຮັດແນວນັ້ນ. ທັງໝົດ, ພວກເຮົາບໍ່ໄດ້ຮັບຮອງເອົາກົດລະບຽບເຫຼົ່ານັ້ນ, ນອກເໜືອໄປຈາກພວກເຮົາໄດ້ຕັດສິນໃຈອະນຸຍາດໃຫ້ບຸກຄົນທີສາມເຂົ້າມາແຊກແຊງ ແລະແກ້ໄຂຄວາມບໍ່ລົງລອຍກັນແບບມືອາຊີບຂອງລັກສະນະຫຼັກໆ.

ໃນ​ກໍ​ລະ​ນີ​ການ​ນໍາ​ໃຊ້​ນີ້​, AI ແລະ​ຄົນ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​ຢູ່​ໃນ​ລໍ້​ກໍາ​ລັງ​ຕໍ່​ສູ້​ກັບ​ການ​ຄວບ​ຄຸມ​ການ​ຂັບ​ລົດ​. ນີ້ ແມ່ນ ໃຫ້ ເວົ້າ ວ່າ conveyed ກັບ ປະ ຕິ ບັດ ການ ມະ ນຸດ ຫ່າງ ໄກ ສອກ ຫຼີກ (ມະ ນຸດ ພາກ ສ່ວນ ທີ ສາມ ຂອງ ພວກ ເຮົາ). ຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກກວດກາເບິ່ງສິ່ງທີ່ເກີດຂຶ້ນແລະຕັດສິນໃຈທີ່ຈະຫນີອອກຈາກຂຸມ, ເບິ່ງຄືວ່າຈະຫລີກລ້ຽງສິ່ງທີ່ AI ພະຍາຍາມເຮັດ. ໃນຂະນະດຽວກັນ, ສົມມຸດວ່າຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກໄດ້ຊີ້ນໍາເຂົ້າໄປໃນການຈະລາຈອນທີ່ກໍາລັງຈະມາ, ເຊິ່ງບາງທີ AI ຫຼືຜູ້ຂັບຂີ່ຂອງມະນຸດຢູ່ໃນລົດບໍ່ໄດ້ຢາກເຮັດ.

ຈຸດສໍາຄັນແມ່ນວ່າວິທີການທີ່ກົດລະບຽບນີ້ໄດ້ຖືກປະຕິບັດແມ່ນວ່າຜູ້ປະຕິບັດການຂອງມະນຸດພາກສ່ວນທີສາມສາມາດ override ຫມົດທັງ AI ແລະມະນຸດໃນວົງ. ບໍ່ວ່າຈະເປັນອັນນີ້ທີ່ຈະຜະລິດຜົນໄດ້ຮັບທີ່ດີແມ່ນບໍ່ແນ່ນອນແນ່ນອນ.

ຂ້ອຍຈະໃຊ້ຕົວຢ່າງນີ້ເພື່ອເນັ້ນໃສ່ຄວາມເຂົ້າໃຈເພີ່ມເຕີມບາງຢ່າງກ່ຽວກັບເລື່ອງເຫຼົ່ານີ້.

ທ່ານ​ບໍ່​ສາ​ມາດ​ເຮັດ​ໃຫ້​ສົມ​ມຸດ​ຕິ​ຖານ​ທີ່ brazen ວ່າ​ພຽງ​ແຕ່​ເນື່ອງ​ຈາກ​ວ່າ​ຫນຶ່ງ​ໃນ​ລະ​ບຽບ​ການ​ເຫຼົ່າ​ນີ້​ແມ່ນ​ໄດ້​ຮັບ​ການ​ວາງ​ເຂົ້າ​ໃນ​ສະ​ຖານ​ທີ່​ຜົນ​ຂອງ​ການ​ແກ້​ໄຂ​ຄວາມ​ຂັດ​ແຍ່ງ​ແມ່ນ​ຈໍາ​ເປັນ​ຕ້ອງ​ໄດ້​ຮັບ​ຜົນ​ດີ​ທີ່​ຮັບ​ປະ​ກັນ. ມັນອາດຈະບໍ່ແມ່ນ. ບໍ່​ມີ​ກົດ​ລະ​ບຽບ​ໃດ​ຫນຶ່ງ​ທີ່​ຖືກ​ຕ້ອງ​ສະ​ເຫມີ​ໄປ​ທີ່​ສາ​ມາດ​ເລືອກ​ໄດ້​.

ຕໍ່ໄປ, ບາງກົດລະບຽບເຫຼົ່ານີ້ອາດຈະບໍ່ສາມາດປະຕິບັດໄດ້.

ພິຈາລະນາຕົວຢ່າງຂອງຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກແຊກແຊງໃນເວລາທີ່ AI ແລະຄົນຂັບຂອງມະນຸດກໍາລັງຂັດແຍ້ງກ່ຽວກັບການຄວບຄຸມການຂັບຂີ່. ມັນອາດຈະໃຊ້ເວລາຫຼາຍວິນາທີສໍາລັບຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກເພື່ອຊອກຫາສິ່ງທີ່ກໍາລັງເກີດຂຶ້ນ. ເມື່ອເວລານັ້ນ, ຍານພາຫະນະອາດຈະສິ້ນສຸດລົງໃນຂຸມຫຼືມີຜົນທີ່ບໍ່ດີອື່ນໆ. ນອກຈາກນັ້ນ, ສົມມຸດວ່າສະຖານທີ່ຂອງຍານພາຫະນະກີດຂວາງການເຂົ້າເຖິງຫ່າງໄກສອກຫຼີກເຊັ່ນ: ຢູ່ໃນສະຖານທີ່ໃດຫນຶ່ງທີ່ບໍ່ມີການເຊື່ອມຕໍ່ເອເລັກໂຕຣນິກເຄືອຂ່າຍ. ຫຼືບາງທີຄຸນສົມບັດເຄືອຂ່າຍຂອງຍານພາຫະນະບໍ່ໄດ້ເຮັດວຽກໃນຊ່ວງເວລານັ້ນ.

ດັ່ງທີ່ເຈົ້າເຫັນ, ກົດລະບຽບອາດຈະເບິ່ງຢູ່ໃນເຈ້ຍ, ເຖິງແມ່ນວ່າການວາງກົດລະບຽບເຂົ້າໄປໃນການນໍາໃຊ້ຕົວຈິງອາດຈະເປັນວິທີການທີ່ຍາກຫຼາຍຫຼືມີໂອກາດສູງ. ເບິ່ງການຄຸ້ມຄອງຕາທີ່ສໍາຄັນຂອງຂ້ອຍກ່ຽວກັບຜູ້ປະຕິບັດງານທາງໄກຂອງຍານພາຫະນະອັດຕະໂນມັດແລະລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການສະຫຼຸບໂດຍຫຍໍ້ກ່ຽວກັບຫົວຂໍ້ອື່ນທີ່ກ່ຽວຂ້ອງທີ່ຂ້າພະເຈົ້າຈະກວມເອົາໃນຄວາມເລິກຫຼາຍກວ່າເກົ່າໃນການວິເຄາະທີ່ຈະມາເຖິງ.

ຫນຶ່ງໃນຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນກ່ຽວກັບຍານພາຫະນະ autonomous ແລະລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ມີເຄິ່ງອັດຕະໂນມັດແມ່ນອັນທີ່ເອີ້ນວ່າ. ອາການມັນຕົ້ນຮ້ອນ.

ນີ້ແມ່ນການຈັດການ.

ລະບົບການຂັບລົດ AI ແລະມະນຸດກໍາລັງຂັບລົດຮ່ວມກັນ. ໄພພິບັດຮ້າຍແຮງເກີດຂຶ້ນ. AI ໄດ້​ຖືກ​ຕັ້ງ​ໂຄງ​ການ​ໃຫ້​ອອກ​ຈາກ​ວຽກ​ງານ​ການ​ຂັບ​ລົດ​ແລະ​ຫັນ​ສິ່ງ​ຂອງ​ໄປ​ຫາ​ມະ​ນຸດ​ໃນ​ເວ​ລາ​ທີ່​ຮ້າຍ​ແຮງ​ໄດ້​ເກີດ​ຂຶ້ນ​. ນີ້ເບິ່ງຄືວ່າ "ສົມເຫດສົມຜົນ" ທີ່ພວກເຮົາເບິ່ງຄືວ່າຈະຮຽກຮ້ອງກົດລະບຽບກ່ຽວກັບມະນຸດເປັນ "ຜູ້ຊະນະ" ໃນຕອນຕົ້ນໃນຄວາມບໍ່ເຫັນດີທາງດ້ານວິຊາຊີບໃດໆ.

ແຕ່ AI ຫຼຸດລົງອາດຈະເປັນສໍາລັບຈຸດປະສົງທີ່ຊົ່ວຮ້າຍກວ່າຫຼືພິຈາລະນາ insidious. ມັນອາດຈະເປັນວ່າຜູ້ຜະລິດລົດໃຫຍ່ຫຼືບໍລິສັດເຕັກໂນໂລຢີຂັບລົດດ້ວຍຕົນເອງບໍ່ຕ້ອງການ AI ຂອງພວກເຂົາຖືກຖືວ່າເປັນ "ຝ່າຍຜິດ" ເມື່ອອຸປະຕິເຫດລົດຍົນເກີດຂື້ນ. ເບິ່ງຄືວ່າເພື່ອຫຼີກເວັ້ນການຖືກຍຶດລົງແບບນັ້ນ, AI ໄດ້ມອບການຄວບຄຸມໃຫ້ມະນຸດຢ່າງກະທັນຫັນ. Voila, ມະນຸດໃນປັດຈຸບັນແມ່ນສົມມຸດວ່າມີຄວາມຮັບຜິດຊອບຢ່າງສົມບູນສໍາລັບຍານພາຫະນະ.

kicker ແມ່ນວ່າສົມມຸດວ່າ AI ເຮັດ handoff ນີ້, ໃຫ້ເວົ້າວ່າຫນຶ່ງວິນາທີທີ່ຈະໄປກ່ອນທີ່ຈະ crash ເກີດຂຶ້ນ.

ມະນຸດຈະມີເວລາພຽງພໍເພື່ອຫຼີກລ່ຽງອຸບັດເຫດດັ່ງກ່າວບໍ?

ອາດຈະບໍ່.

ສົມມຸດວ່າ AI ເຮັດ handoff ດ້ວຍສອງສາມມິນລິວິນາທີ ຫຼື nanoseconds ທີ່ເຫຼືອໄປ. ຂ້າພະເຈົ້າກ້າເວົ້າວ່າມະນຸດບໍ່ມີໂອກາດທີ່ຈະເຮັດຫຍັງເພື່ອປ້ອງກັນອຸປະຕິເຫດ.

ຈາກທັດສະນະຂອງຜູ້ຜະລິດລົດໃຫຍ່ຫຼືບໍລິສັດລົດໃຫຍ່ທີ່ຂັບລົດດ້ວຍຕົນເອງ, ພວກເຂົາສາມາດພະຍາຍາມປະຕິບັດຄືກັບວ່າມືຂອງພວກເຂົາສະອາດເມື່ອເກີດອຸປະຕິເຫດລົດຍົນ. ລົດ​ດັ່ງກ່າວ​ໄດ້​ຖືກ​ຄົນ​ຂັບ​ຂີ່. AI ບໍ່ໄດ້ຂັບລົດ. ການສະຫລຸບພຽງແຕ່ "ສົມເຫດສົມຜົນ" ເບິ່ງຄືວ່າມະນຸດຈະຕ້ອງມີຄວາມຜິດແລະ AI ຈະຕ້ອງບໍ່ມີຂໍ້ຜິດ.

ມັນເປັນ crock.

ຂ້າ​ພະ​ເຈົ້າ​ຈະ​ໄດ້​ຮັບ​ການ​ປຶກ​ສາ​ຫາ​ລື​ໃນ​ຄວາມ​ເລິກ​ເພີ່ມ​ເຕີມ​ໃນ​ຖັນ​ທີ່​ຈະ​ມາ​ເຖິງ​.

ສະຫຼຸບ

ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບຈະເກີດຂຶ້ນ.

ມັນເປັນການຍາກທີ່ຈະຈິນຕະນາການວຽກງານທີ່ຊັບຊ້ອນທີ່ມີສອງພາກສ່ວນຮ່ວມກັນປະຕິບັດວຽກງານແລະສໍາລັບການທີ່ບໍ່ເຄີຍຈະມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບໃດໆເກີດຂື້ນ. ນີ້ເບິ່ງຄືວ່າເປັນ fantasyland ຫຼືຢ່າງຫນ້ອຍຫາຍາກທີ່ຍິ່ງໃຫຍ່.

ໃນມື້ນີ້, ພວກເຮົາມີຕົວຢ່າງຫຼາຍແລະຫຼາຍຂອງການຂັດແຍ້ງດ້ານວິຊາຊີບລະຫວ່າງມະນຸດກັບມະນຸດ, ເຊິ່ງໃນແຕ່ລະວັນການແກ້ໄຂແມ່ນໄດ້ໂດຍສັນຕິແລະ sensibly ຄິດອອກວິທີການຫນຶ່ງຫຼືອື່ນ. ໃນຄວາມເປັນຈິງ, ພວກເຮົາມັກຈະຕັ້ງສະຖານະການໂດຍເຈດຕະນາເພື່ອສົ່ງເສີມແລະແກ້ໄຂຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ. ເຈົ້າ​ອາດ​ຈະ​ໂຕ້​ຖຽງ​ວ່າ​ສິ່ງ​ນີ້​ສະແດງ​ໃຫ້​ເຫັນ​ສະຕິ​ປັນຍາ​ທີ່​ມີ​ຊື່ສຽງ​ທີ່​ບາງ​ຄັ້ງ​ສອງ​ຫົວ​ດີ​ກວ່າ​ຫົວ​ດຽວ.

ເມື່ອ AI ກາຍເປັນທີ່ແຜ່ຫຼາຍ, ພວກເຮົາຈະມີຜູ້ປະຕິບັດວຽກງານສອງຝ່າຍ AI-to-human ຫຼື human-to-AI ຫຼາຍແລະຈະມີ. ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ ທີ່ຈະເກີດຂຶ້ນ. ວິ​ທີ​ການ​ທີ່​ຂີ້​ຄ້ານ​ແມ່ນ​ການ​ສະ​ເຫມີ​ໄປ defer ກັບ​ມະ​ນຸດ​. ນີ້ອາດຈະບໍ່ແມ່ນວິທີການທີ່ເຫມາະສົມທີ່ສຸດ. AI ອາດຈະເປັນທາງເລືອກທີ່ດີກວ່າ. ຫຼືຫນຶ່ງໃນກົດລະບຽບອື່ນໆທີ່ໄດ້ກ່າວມາຂ້າງເທິງອາດຈະເປັນວິທີການທີ່ດີຂຶ້ນ.

ມັນມີເສັ້ນ sage ເລື້ອຍໆວ່າພວກເຮົາທຸກຄົນຄວນຈະສາມາດຕົກລົງເຫັນດີບໍ່ເຫັນດີນໍາ, ເຖິງແມ່ນວ່າໃນເວລາທີ່ມັນມາເຖິງສາຍ, ບາງຄັ້ງຄວາມຂັດແຍ້ງຕ້ອງໄດ້ຮັບການແກ້ໄຂຢ່າງຈະແຈ້ງ, ຖ້າບໍ່ດັ່ງນັ້ນເລື່ອງຢູ່ໃນມືຈະນໍາໄປສູ່ໄພພິບັດທີ່ບໍ່ສາມາດບອກໄດ້. ພວກ​ເຮົາ​ບໍ່​ສາ​ມາດ​ພຽງ​ແຕ່​ປ່ອຍ​ໃຫ້​ຄວາມ​ບໍ່​ເຫັນ​ດີ​ທີ່ language ກ່ຽວ​ກັບ​ເຄືອ​. ເວລາອາດຈະເປັນສິ່ງສຳຄັນ ແລະຊີວິດອາດຈະຢູ່ໃນຄວາມສ່ຽງ.

ມີຂໍ້ກໍານົດທີ່ຊັດເຈນສໍາລັບບາງວິທີການທີ່ລະມັດລະວັງເພື່ອແກ້ໄຂຄວາມບໍ່ເຫັນດີເຖິງແມ່ນວ່າບໍ່ຈໍາເປັນຕ້ອງມີຄວາມເຫັນດີນໍາ, ລວມທັງເວລາທີ່ AI ແລະມະນຸດຢູ່ໃນວົງແຫວນບໍ່ເຫັນຕາຕໍ່ຕາຫຼື byte-to-byte.

ຂ້າ​ພະ​ເຈົ້າ​ເຊື່ອ​ວ່າ​ທ່ານ​ຈະ​ບໍ່​ເຫັນ​ດີ​ກັບ​ການ​ໂຕ້​ຖຽງ​ທີ່​ເຫັນ​ດີ​ພ້ອມ​ທັງ​ຫມົດ​.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- the-pilot-and-co-pilot-disagreed- before-take-off-and-abruptly-opted-taxi-back-to-the-terminal-and-go-their-separate-ways/