ສາຍການບິນໄດ້ມີຂ່າວຂ້ອນຂ້າງບໍ່ດົນ.
ພວກເຮົາຢູ່ໃນຊ່ວງລະດູຮ້ອນຂອງຖ້ຽວບິນ. ຜູ້ໂດຍສານທີ່ອິດເມື່ອຍແລະອຸກອັ່ງເຫັນວ່າຕົນເອງປະເຊີນກັບການຂັດຂວາງການບິນທັງຫມົດແລະການຂັດຂວາງການກໍານົດເວລາຂອງສາຍການບິນ. ຖ້ຽວບິນຖືກຍົກເລີກໂດຍບໍ່ຄາດຄິດ. ຖ້ຽວບິນຊັກຊ້າ. fume ຜູ້ໂດຍສານ. ແຕ່ຫນ້າເສຍດາຍ, ມີຫຼາຍກໍລະນີຂອງຜູ້ໂດຍສານທີ່ອະນຸຍາດໃຫ້ຄວາມວຸ້ນວາຍເຫຼົ່ານີ້ລະເບີດ, ແລະພວກເຮົາໄດ້ເຫັນວິດີໂອໄວຣັສຈໍານວນຫຼາຍເກີນໄປຂອງການປະເຊີນຫນ້າກັບຫົວແລະບາງຄັ້ງກໍ່ເກີດການປະທະກັນ.
ພວກເຮົາຮຽນຮູ້ກ່ຽວກັບຂໍ້ຂັດແຍ່ງລະຫວ່າງນັກບິນ ແລະນັກບິນທີ່ອາດຈະເກີດຂຶ້ນໃນຂະນະທີ່ຢູ່ໃນຫ້ອງນັກບິນ.
ນັ້ນແມ່ນຂ້ອນຂ້າງແປກໃຈ.
ແທ້ຈິງແລ້ວ, ໂດຍທົ່ວໄປແລ້ວພວກເຮົາຮູ້ສຶກແປກໃຈທີ່ຄິດວ່ານັກບິນແລະນັກບິນຈະມີລັກສະນະຂັດແຍ້ງທີ່ຮ້າຍແຮງໃນລະຫວ່າງຂັ້ນຕອນຂອງການບິນ. ຖ້າຄວາມບໍ່ເຫັນດີກ່ຽວກັບຍີ່ຫໍ້ກາເຟທີ່ດີທີ່ສຸດ, ການສົມມຸດຕິຖານຂອງພວກເຮົາແມ່ນວ່ານີ້ຈະບໍ່ເຂົ້າໄປໃນຄວາມພະຍາຍາມເຮັດວຽກທີ່ກ່ຽວຂ້ອງກັບການບິນ. ທັງສອງຄົນພຽງແຕ່ຂັດແຍ້ງກັນກັບການບໍ່ໄດ້ເບິ່ງກັນໃນເລື່ອງທີ່ເບິ່ງຄືວ່າບໍ່ກ່ຽວຂ້ອງກັບການບິນ. ພຶດຕິກຳທີ່ເປັນມືອາຊີບ ແລະ ການຝຶກອົບຮົມນັກບິນມາແຕ່ດົນນານຂອງເຂົາເຈົ້າຈະເລີ່ມຂຶ້ນ ແລະເຂົາເຈົ້າຈະເນັ້ນໃສ່ຈຸດມຸ່ງໝາຍຂອງພວກເຂົາກັບຄືນສູ່ສະເພາະການບິນ.
ພິຈາລະນາເຖິງວ່າໃນເວລາທີ່ ກ ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ ແຊກແຊງ.
ຂ້າພະເຈົ້າຂໍເລົ່າເລື່ອງໜຶ່ງໃຫ້ທ່ານຟັງໂດຍຫຍໍ້ ກ່ຽວກັບເລື່ອງທີ່ເກີດຂຶ້ນໃນເວລາທີ່ບິນຢູ່ໃນສະຫະລັດ ກ່ຽວກັບຄວາມຂັດແຍ່ງດ້ານວິຊາຊີບໃນຫ້ອງນັກບິນ.
ນີ້ສ່ວນໃຫຍ່ແມ່ນຖືກອ້າງເຖິງຢູ່ທີ່ນີ້ເພື່ອໃຫ້ພວກເຮົາສາມາດຄົ້ນຫາຫົວຂໍ້ທີ່ກ່ຽວຂ້ອງທີ່ມີຄວາມສໍາຄັນຢ່າງຫຼວງຫຼາຍຕໍ່ການມາເຖິງຂອງປັນຍາປະດິດ (AI). ເຈົ້າເຫັນ, ພວກເຮົາສາມາດມີຮູບແບບຂອງຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບລະຫວ່າງບໍ່ພຽງແຕ່ມະນຸດໃນຄວາມຂັດແຍ້ງລະຫວ່າງມະນຸດກັບມະນຸດ, ແຕ່ພວກເຮົາຍັງສາມາດມີບາງສິ່ງບາງຢ່າງທີ່ຄ້າຍຄືກັນເກີດຂື້ນທ່າມກາງການຮັບຮອງເອົາ AI ແລະ ergo ເຮັດໃຫ້ເກີດຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບຂອງມະນຸດກັບ AI. . ທຸກປະເພດຂອງການພິຈາລະນາດ້ານຈັນຍາບັນ AI ເກີດຂື້ນ. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະບັນຫາດ້ານຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.
ໃຫ້ຕົວທ່ານເອງກຽມພ້ອມສໍາລັບການ tale fascinating.
ຕາມຂ່າວແຈ້ງວ່າ, ເມື່ອບໍ່ດົນມານີ້, ກໍລະນີຂອງ “ຄວາມບໍ່ລົງລອຍກັນດ້ານວິຊາຊີບ” ໄດ້ເກີດຂຶ້ນໃນລະຫວ່າງຖ້ຽວບິນ Alaska Airline ທີ່ເດີນທາງຈາກວໍຊິງຕັນໄປ San Francisco. ຕາມຂ່າວແຈ້ງວ່າ, ຍົນໂດຍສານລຳນີ້ໄດ້ຍ້າຍອອກຈາກປະຕູລົດຍົນ, ແລະພວມລໍຖ້າຢູ່ເທິງລົດແທັກຊີເພື່ອອະນຸຍາດໃຫ້ແທັກຊີແລະບິນ. ລົມພາຍຸກຳລັງດຳເນີນຢູ່ ແລະເຮັດໃຫ້ຖ້ຽວບິນລ່າຊ້າກວ່າໜຶ່ງຊົ່ວໂມງເຄິ່ງ. ປະກົດວ່າ ໃນທີ່ສຸດ ຍົນລຳດັ່ງກ່າວໄດ້ຫັນຫຼັງ ແລະ ມຸ່ງໜ້າກັບຄືນສູ່ປະຕູ, ເຊິ່ງບາງເທື່ອຜູ້ໂດຍສານອາດຈະຄິດວ່າເປັນການລະມັດລະວັງດ້ານຄວາມປອດໄພທີ່ກ່ຽວຂ້ອງກັບພະຍຸ.
ຕາມ tweets ຕ່າງໆ, ມັນເບິ່ງຄືວ່ານັກບິນແລະນັກບິນໄດ້ມີຄວາມຂັດແຍ້ງກັນລະຫວ່າງເວລາຂອງພວກເຂົາຢູ່ໃນຫ້ອງນັກບິນແລະບາງທີໄດ້ສະຫຼຸບວ່າວິທີການທີ່ລະມັດລະວັງທີ່ສຸດແມ່ນການຂັດການບິນແລະກັບຄືນສູ່ສະຖານີ. . Tweets ແນະນໍາວ່າຕັນແລະເຈົ້າຫນ້າທີ່ທໍາອິດເບິ່ງຄືວ່າບໍ່ສາມາດເຂົ້າກັນໄດ້. ຕໍ່ມາສາຍການບິນໄດ້ອອກຖະແຫຼງການວ່າສະຖານະການໂຊກຮ້າຍ (ສະຖານະການບໍ່ໄດ້ລະບຸຢ່າງຊັດເຈນຫຼືອະທິບາຍຕໍ່), ເຈົ້າຫນ້າທີ່ການບິນທັງສອງໄດ້ຖືກປະເມີນໂດຍການຄຸ້ມຄອງແລະຖືວ່າເຫມາະສົມກັບການບິນ, ລູກເຮືອໄດ້ຖືກແລກປ່ຽນ, ແລະການບິນໄດ້ສິ້ນສຸດລົງ. ແລະຕໍ່ມາໄດ້ໄປເຖິງ San Francisco.
ໃນແງ່ຫນຶ່ງ, ຖ້າໃນຄວາມເປັນຈິງນັກບິນແລະນັກບິນມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບເຊັ່ນວ່າຍົນມີຄວາມພ້ອມສໍາລັບການບິນຫຼືວ່າຄວາມສ່ຽງທີ່ຈະບິນຜ່ານພາຍຸແມ່ນຢູ່ໃນຂອບເຂດຄວາມປອດໄພທີ່ເຫມາະສົມ, ຜູ້ໂດຍສານເຫຼົ່ານັ້ນຄວນຈະຜ່ອນຄາຍແລະ. ຂອບໃຈທີ່ຍົນຖືກສົ່ງກັບຄືນສູ່ປະຕູ. ດີກວ່າທີ່ຈະປອດໄພກ່ວາຂໍອະໄພ. ການມີຄວາມລ່າຊ້າເພີ່ມເຕີມແມ່ນຄຸ້ມຄ່າກັບການຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ສົມມຸດຕິຖານທີ່ກ່ຽວຂ້ອງກັບການເດີນທາງການບິນທີ່ຖືວ່າຫຍຸ້ງຍາກ ຫຼື ບໍ່ດີ.
ບາງຄົນອາດຈະແປກໃຈທີ່ຄວາມຂັດແຍ້ງດ້ານວິຊາສະເພາະອາດເກີດຂຶ້ນ.
ບາງທີພວກເຮົາມີຄວາມປະທັບໃຈທີ່ບໍ່ຖືກຕ້ອງວ່າທຸກສິ່ງທຸກຢ່າງທີ່ເກີດຂຶ້ນໃນຫ້ອງນັກບິນແມ່ນມີຄວາມຊັດເຈນທັງຫມົດແລະຂຽນໄດ້ດີ. ທຸກໆຮູບແບບຂອງການຕັດສິນໃຈຂອງມະນຸດເບິ່ງຄືວ່າໄດ້ຖືກຕັດອອກຈາກຂະບວນການ. ອີງຕາມຕາຕະລາງການຄິດໄລ່ທີ່ແນ່ນອນ ແລະລະອຽດ, ຖ້ຽວບິນໃດນຶ່ງຈະດຳເນີນການຕໍ່ໄປ ຫຼືບໍ່ໄດ້. ບໍ່ສາມາດມີຄວາມຂັດແຍ້ງໃດໆໃນເວລາທີ່ຊຸດແລະ caboodle ທັງຫມົດຖືກຄິດວ່າອີງໃສ່ການຄິດໄລ່ຄວາມຈິງແລະຕົວເລກທີ່ບໍ່ສາມາດປະຕິເສດໄດ້.
ນັ້ນບໍ່ແມ່ນຄວາມຈິງອັນເຕັມທີ່ຂອງເລື່ອງ. ແນ່ນອນ, ມີພິທີການແລະການດຸ່ນດ່ຽງທຸກປະເພດ, ແຕ່ນີ້ບໍ່ໄດ້ບີບບັງຄັບການຕັດສິນຂອງມະນຸດທັງຫມົດ. ນັກບິນແລະນັກບິນຍັງໃຊ້ການຕັດສິນຂອງມະນຸດ. ໂຊກດີ, ການພິພາກສາຂອງມະນຸດນີ້ຖືກປະຕິບັດຕາມປີຂອງການບິນ. ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່ານັກບິນແລະນັກບິນໃນຍົນໂດຍສານທາງການຄ້າມີປະສົບການໃນການບິນກ່ອນຫນ້າແລະໃຊ້ການສົມເຫດສົມຜົນໃນຄວາມເລິກຫຼາຍປີຂອງເຂົາເຈົ້າແລະການຕັດສິນໃຈທີ່ກ່ຽວຂ້ອງກັບການຄວບຄຸມການບິນ.
ເນື່ອງຈາກບົດບາດທີ່ໂດດເດັ່ນຂອງການຕັດສິນຂອງມະນຸດ, ພວກເຮົາອາດຄາດກັນຢ່າງມີເຫດຜົນວ່ານັກບິນ ແລະນັກບິນຈະມີຄວາມຂັດແຍ້ງທາງອາຊີບ. ສ່ວນຫຼາຍແລ້ວ, ຖືວ່າມີຄວາມຂັດແຍ້ງກັນໜ້ອຍທີ່ສຸດ. ນັກບິນແລະນັກບິນສໍາຫລັບການບິນທຸກໆມື້ມີແນວໂນ້ມທີ່ຈະສອດຄ່ອງກັບ preponderance ຂອງເວລາທີ່ດີ. ພຽງແຕ່ເວລາທີ່ສະຖານະການການບິນອາດຈະອອກໄປນອກຂອບເຂດປົກກະຕິທີ່ພວກເຮົາຄາດຫວັງວ່າຄວາມເຄັ່ງຕຶງຈະເກີດຂື້ນ.
ຖ້າຫາກວ່າມີຄວາມແຕກຕ່າງກັນຢ່າງແຂງແຮງຂອງຄວາມຄິດເຫັນລະຫວ່າງສອງ, ຂ້າພະເຈົ້າອາດຈະເວົ້າວ່າພວກເຮົາຕ້ອງການໃຫ້ເຂົາເຈົ້າລົບລ້າງມັນອອກ.
ຈິນຕະນາການສະຖານະການທີ່ນັກບິນຕ້ອງການ ດຳ ເນີນຕໍ່ໄປແຕ່ນັກບິນຮັບຮູ້ວ່າຄວາມສ່ຽງສູງເກີນໄປ. ພຽງແຕ່ມີ copilot kowtow ກັບນັກບິນຈະເບິ່ງຄືວ່າບໍ່ສົມຄວນ. copilot ແມ່ນການກວດສອບແລະການດຸ່ນດ່ຽງກັບສິ່ງທີ່ນັກບິນອາດຈະຄິດທີ່ຈະເຮັດ. ສໍາລັບຜູ້ທີ່ຕ້ອງການນັກບິນປິດປາກແລະປະຕິບັດພຽງແຕ່ mindlessly ໃດກໍ່ຕາມລັດຖະດໍາລັດຂອງນັກບິນ, ດີ, ນັ້ນບໍ່ແມ່ນຄວາມແນ່ນອນຫຼາຍ. ນັກບິນບໍ່ພຽງແຕ່ເປັນ “ນັກບິນ” ຫວ່າງທີ່ເຂົ້າມາໃນຮູບເທົ່ານັ້ນ ເມື່ອນັກບິນຂາດຄວາມສາມາດຢ່າງສິ້ນເຊີງ. ນັ້ນແມ່ນຄວາມເຂົ້າໃຈຜິດກ່ຽວກັບຄຸນຄ່າຂອງການມີນັກບິນ ແລະນັກບິນໃນຫ້ອງນັກບິນ.
ມີມຸມອື່ນຕໍ່ກັບເລື່ອງນີ້.
ພິຈາລະນາກໍລະນີຂອງນັກບິນທີ່ບໍ່ເຊື່ອວ່າການບິນຈະດໍາເນີນການແລະໃນຂະນະທີ່ນັກບິນແມ່ນ gung-ho ກ່ຽວກັບການຂຶ້ນໃນອາກາດ. ແລ້ວແມ່ນຫຍັງ? ຕາມລຳດັບທີ່ຄາດໄວ້, ນັກບິນຄວນມີໄຊຊະນະເໜືອນັກບິນຕາມທຳມະດາ. ບົດບາດທີ່ກຳນົດໄວ້ວ່າເປັນຜູ້ຮັບຜິດຊອບຫຼັກເຮັດໃຫ້ນັກບິນມີຄວາມສົມດູນກັນຫຼາຍຂຶ້ນ. ໂດຍປົກກະຕິ, ນັກບິນມີເວລາບິນໂດຍລວມຫຼາຍກວ່ານັກບິນ ແລະ ergo copilot ແມ່ນຕາມລໍາດັບທີ່ຈະເລື່ອນຕາມຄວາມປາດຖະຫນາຂອງນັກບິນ (ເມື່ອຢູ່ໃນເຫດຜົນ).
ໃນກໍລະນີໃດກໍ່ຕາມ, ຂ້າພະເຈົ້າຄິດວ່າພວກເຮົາທຸກຄົນສາມາດຕົກລົງເຫັນດີວ່າການເລືອກທີ່ຈະບໍ່ບິນເປັນທາງເລືອກທີ່ມີຄວາມສ່ຽງຫນ້ອຍກວ່າການຕັດສິນໃຈທີ່ຈະບິນ. ເມື່ອຍົນຂຶ້ນຢູ່ໃນອາກາດ, ລະດັບຄວາມສ່ຽງຈະເພີ່ມຂຶ້ນຢ່າງຫຼວງຫຼາຍເມື່ອປຽບທຽບກັບການຢູ່ເທິງພື້ນທີ່ທີ່ຫມັ້ນຄົງທໍາມະດາ. ຖ້ຽວບິນການຄ້າຕາມປະເພນີທີ່ພຽງແຕ່ຂີ່ລົດແທັກຊີກັບຄືນສູ່ສະຖານີໂດຍບໍ່ໄດ້ຂຶ້ນເຮືອບິນຈະເປັນການແກ້ໄຂທີ່ມີຄວາມເປັນມິດທີ່ດີຕໍ່ການໂຕ້ວາທີທີ່ໂຫດຮ້າຍທີ່ຮ້ອນຮົນກ່ຽວກັບການເຂົ້າໄປໃນການບິນ.
ຂໍໃຫ້ປ່ຽນເຄື່ອງມືແລະນໍາໃຊ້ລາຍການຂ່າວທີ່ແປກປະຫຼາດນີ້ສໍາລັບຈຸດປະສົງທີ່ແຕກຕ່າງກັນທັງຫມົດແຕ່ມີຄວາມກ່ຽວຂ້ອງກັນ.
ພວກເຮົາຄ່ອຍໆມີລະຫວ່າງພວກເຮົາອັດຕາສ່ວນຂອງລະບົບເອກະລັກທີ່ອີງໃສ່ AI. ບາງຄັ້ງ AI ດໍາເນີນການສະແດງ, ດັ່ງທີ່ມັນແມ່ນ. AI ເຮັດທຸກຢ່າງຈາກ A ຫາ Z, ແລະພວກເຮົາອາດຈະ cons ວ່າເປັນ AI ທີ່ເປັນເອກະລາດຢ່າງເຕັມສ່ວນຫຼືເກືອບດັ່ງນັ້ນ. ໃນກໍລະນີອື່ນໆ, ພວກເຮົາສາມາດມີ AI ທີ່ພົວພັນກັບແລະໃນລະດັບໃດຫນຶ່ງແມ່ນໂຄງການທີ່ຈະອີງໃສ່ການມີມະນຸດໃນວົງ.
ຂ້ອຍຢາກສຸມໃສ່ເລື່ອງຂອງລະບົບອັດຕະໂນມັດ ຫຼື ເຄິ່ງອັດຕະໂນມັດທີ່ອີງໃສ່ AI ທີ່ມາຈາກການໄປມາມີມະນຸດຢູ່ໃນວົງການ. AI ແລະມະນຸດມີຄວາມຕັ້ງໃຈ thrust ຮ່ວມກັນແລະຄາດວ່າຈະເຮັດວຽກຮ່ວມກັນ. ເຂົາເຈົ້າເປັນກຸ່ມໃນການປະຕິບັດວຽກງານໃດໜຶ່ງຢູ່ໃນມື. AI ຢ່າງດຽວແມ່ນບໍ່ຄວນຈະປະຕິບັດຫນ້າວຽກ. AI ຈະຕ້ອງພົວພັນກັບມະນຸດໃນວົງການທີ່ກໍານົດ.
ຂ້ອຍເອົາລັກສະນະນີ້ຂຶ້ນມາເພື່ອແຍກຄວາມແຕກຕ່າງຈາກສະຖານະການທີ່ມະນຸດຢູ່ໃນວົງການຖືກພິຈາລະນາເປັນລັກສະນະທາງເລືອກ. ໂດຍເນື້ອແທ້ແລ້ວ, AI ແມ່ນໃຫ້ rein ຟຣີ. ຖ້າ AI ເລືອກທີ່ຈະໃຊ້ມະນຸດ, ມັນກໍ່ເຮັດແນວນັ້ນ. ບໍ່ມີຂໍ້ກໍານົດທີ່ AI ຕ້ອງສໍາພັດກັບຖານຫຼືເຮັດວຽກໃນມືກັບມະນຸດທີ່ກໍານົດໄວ້. ການວິເຄາະທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງແມ່ນແນ່ນອນວ່າກ່ຽວຂ້ອງກັບປະເພດນັ້ນ ທາງເລືອກ ການຈັດການການໂຕ້ຕອບ, ແຕ່ມັນບໍ່ແມ່ນສິ່ງທີ່ຂ້ອຍກໍາລັງຂັບລົດໂດຍສະເພາະໃນການສົນທະນາໂດຍສະເພາະນີ້.
ຕົກລົງ, ດັ່ງນັ້ນພວກເຮົາມີບາງວຽກທີ່ມະນຸດ ແລະ AI ຈະເຮັດວຽກຮ່ວມກັນ, ແຍກອອກຈາກກັນບໍ່ໄດ້. ໃນຄວາມຮູ້ສຶກທີ່ບໍ່ມີຕົວຕົນ, ພວກເຮົາມີມະນຸດນັ່ງຢູ່ໃນບ່ອນນັ່ງຫນຶ່ງແລະລະບົບ AI ນັ່ງຢູ່ໃນບ່ອນນັ່ງອື່ນໆ. ຂ້າພະເຈົ້າເວົ້ານີ້ຢ່າງໂຫດຮ້າຍຍ້ອນວ່າພວກເຮົາບໍ່ໄດ້ຈໍາກັດການສົນທະນານີ້ກັບຫຸ່ນຍົນຕົວຢ່າງທີ່ຕົວຈິງແລ້ວອາດຈະນັ່ງຢູ່ໃນບ່ອນນັ່ງ. ຂ້າພະເຈົ້າໄດ້ປຽບທຽບກັບແນວຄິດທີ່ AI ແມ່ນບາງບ່ອນທີ່ມີສ່ວນຮ່ວມໃນວຽກງານແລະມະນຸດ. ທາງດ້ານຮ່າງກາຍ, ທີ່ຢູ່ຂອງເຂົາເຈົ້າແມ່ນບໍ່ສໍາຄັນໂດຍສະເພາະການສົນທະນາ.
ທ່ານອາດຈະບໍ່ແນ່ໃຈວ່າສະຖານະການດັ່ງກ່າວອາດຈະເກີດຂຶ້ນເມື່ອໃດ.
ງ່າຍທີ່ສຸດ.
ຕໍ່ມາ, ຂ້າພະເຈົ້າຈະສົນທະນາກ່ຽວກັບການມາເຖິງຂອງຍານພາຫະນະອັດຕະໂນມັດແລະລົດຂັບລົດດ້ວຍຕົນເອງ. ໃນບາງລະດັບຂອງຄວາມເປັນເອກະລາດ, AI ແລະມະນຸດຄວນເຮັດວຽກຮ່ວມກັນ. AI ອາດຈະຂັບລົດແລະຮ້ອງຂໍໃຫ້ມະນຸດຮັບຮອງເອົາການຄວບຄຸມການຂັບລົດໄດ້. ມະນຸດອາດຈະຂັບລົດແລະເປີດໃຊ້ AI ເພື່ອຄວບຄຸມການຄວບຄຸມ. ພວກເຂົາເຈົ້າໄດ້ຮັບການປ່ຽນແປງຢູ່ໃນການຄວບຄຸມການຂັບລົດ.
ນອກຈາກນັ້ນ, ການອອກແບບບາງຢ່າງແມ່ນມີ AI ທີ່ຈໍາເປັນຕະຫຼອດເວລາ (ຫຼື, ເວັ້ນເສຍແຕ່ປິດ), ເຊັ່ນວ່າ AI ແມ່ນກຽມພ້ອມສະເຫມີ. ຍິ່ງໄປກວ່ານັ້ນ, AI ອາດຈະແຊກແຊງໂດຍກົງ, ເຖິງແມ່ນວ່າບໍ່ມີການຮ້ອງຂໍຈາກມະນຸດ, ຂຶ້ນກັບສະຖານະການທີ່ເກີດຂື້ນ. ຍົກຕົວຢ່າງວ່າມະນຸດເບິ່ງຄືວ່າໄດ້ນອນຫລັບຢູ່ທີ່ລໍ້. ເນື່ອງຈາກມະນຸດເບິ່ງຄືວ່າບໍ່ສາມາດເປີດໃຊ້ AI ໄດ້ (ເພາະວ່າຄົນນັ້ນນອນຢູ່), AI ອາດຈະຖືກຕັ້ງໂຄງການເພື່ອຄວບຄຸມການຄວບຄຸມຈາກມະນຸດ.
ການອອກແບບບາງຢ່າງນໍາເອົາ AI ແລະມະນຸດໄປສູ່ວິທີການຂັບຂີ່ຄູ່. AI ກໍາລັງຂັບລົດແລະມະນຸດກໍາລັງຂັບລົດ. ຫຼື, ຖ້າທ່ານຕ້ອງການ, ມະນຸດກໍາລັງຂັບລົດແລະ AI ຍັງຂັບລົດ. ພວກເຂົາແຕ່ລະຄົນຂັບລົດຍານພາຫະນະ. ຂ້າພະເຈົ້າສົມທຽບນີ້ກັບລົດທີ່ຕິດຂັດພິເສດທີ່ບາງທີເຈົ້າອາດຈະໃຊ້ໃນເວລາຝຶກຂັບຂີ່ ແລະ ມີສອງຊຸດຂອງການຄວບຄຸມການຂັບຂີ່ຢູ່ໃນຍານພາຫະນະ, ອັນໜຶ່ງສຳລັບຄົນຂັບລົດນັກຮຽນ ແລະ ອີກອັນໜຶ່ງສຳລັບຄູສອນຂັບລົດ.
ນັ້ນແມ່ນແຕ່ຕົວຢ່າງຫນຶ່ງຂອງການຕັ້ງຄ່າທີ່ AI ແລະມະນຸດອາດຈະເຮັດວຽກຮ່ວມກັນໃນວຽກງານຫນຶ່ງ. ຄວາມເປັນໄປໄດ້ທັງໝົດມີຢູ່. ພາຫະນະທີ່ປົກຄອງຕົນເອງປະເພດອື່ນໆອາດຈະຖືກອອກແບບຄ້າຍຄືກັນ, ເຊັ່ນ: ຍົນ, ເຮືອບິນບໍ່ມີຄົນຂັບ, ເຮືອດຳນ້ຳ, ເຮືອພື້ນຜິວ, ລົດໄຟ ແລະ ອື່ນໆ. ພວກເຮົາບໍ່ຈໍາເປັນຕ້ອງພິຈາລະນາພຽງແຕ່ການຕັ້ງຄ່າຍານພາຫະນະແລະການຂົນສົ່ງ. ຈິນຕະນາການໂດເມນທາງການແພດແລະການຜ່າຕັດທີ່ດໍາເນີນການຮ່ວມກັນໂດຍທ່ານຫມໍທາງການແພດແລະລະບົບ AI. ບັນຊີລາຍຊື່ແມ່ນບໍ່ມີທີ່ສິ້ນສຸດ.
ຂ້ອຍເກືອບຮູ້ສຶກຄືກັບການອ້າງເຖິງເລື່ອງຕະຫລົກທີ່ໂຫດຮ້າຍແບບຄລາສສິກກ່ຽວກັບມະນຸດ ແລະ AI ທີ່ຍ່າງເຂົ້າໄປໃນບາຮ່ວມກັນ. ມັນຂ້ອນຂ້າງຫົວເລາະສໍາລັບຜູ້ທີ່ເຂົ້າໄປໃນ AI.
ຢ່າງຈິງຈັງ, ໃຫ້ກັບຄືນສູ່ຈຸດສຸມຂອງມະນຸດແລະລະບົບ AI ທີ່ເຮັດວຽກຮ່ວມກັນໃນວຽກງານທີ່ມອບໃຫ້. ຫນ້າທໍາອິດ, ຂ້າພະເຈົ້າຕ້ອງການທີ່ຈະຫຼີກເວັ້ນການ anthropomorphizing AI, ເຊິ່ງເປັນສິ່ງທີ່ຂ້າພະເຈົ້າຈະເນັ້ນຫນັກໃສ່ຕະຫຼອດ. AI ບໍ່ມີຄວາມຮູ້ສຶກ. ກະລຸນາຮັກສາມັນຢູ່ໃນໃຈ.
ນີ້ແມ່ນບາງສິ່ງບາງຢ່າງທີ່ຕ້ອງພິຈາລະນາ: ມະນຸດໃນວົງການທີ່ຖືກກຳນົດຈະຢູ່ໃນຂໍ້ຕົກລົງກັບ AI ທີ່ເປັນທີມຮ່ວມສະເໝີບໍ?
ສໍາລັບວຽກງານທີ່ສັບສົນໃດກໍ່ຕາມ, ມັນເບິ່ງຄືວ່າບໍ່ຫນ້າຈະເປັນໄປໄດ້ວ່າມະນຸດແລະ AI ຈະເຂົ້າກັນຢ່າງສົມບູນແລະສະເຫມີຢູ່ໃນການລັອກແລະຂັ້ນຕອນ. ມະນຸດຢູ່ໃນບາງໂອກາດທີ່ອາດຈະຂັດແຍ້ງກັບ AI. ພວກເຮົາສາມາດເອົາສົມມຸດຕິຖານນັ້ນໄປຫາທະນາຄານ.
ຂ້າພະເຈົ້າຢາກໃຫ້ທ່ານພິຈາລະນາຄວາມເປັນໄປໄດ້ທີ່ຫນ້າປະຫລາດໃຈນີ້ເຊັ່ນກັນ: AI ສະເຫມີຢູ່ໃນຂໍ້ຕົກລົງກັບມະນຸດທີ່ກໍານົດໄວ້ບໍ?
ອີກເທື່ອ ໜຶ່ງ, ສຳ ລັບວຽກງານທີ່ສັບສົນ, ມັນເບິ່ງຄືວ່າຂ້ອນຂ້າງຄິດວ່າ AI ຈະບໍ່ຕົກລົງກັບມະນຸດໃນບາງໂອກາດ. ຖ້າທ່ານຕັ້ງໃຈຢູ່ແລ້ວກັບຄວາມຄິດທີ່ວ່າ AI ຕ້ອງຜິດສະ ເໝີ ໃນຂະນະທີ່ມະນຸດຕ້ອງຖືກຕ້ອງສະ ເໝີ, ເຈົ້າຄົງຈະສະຫຼາດທີ່ຈະຄິດຄືນ ຄຳ ສະຫລຸບທີ່ຮີບດ່ວນນັ້ນ. ຈິນຕະນາການລົດທີ່ມີມະນຸດແລະ AI ຮ່ວມກັນຂັບລົດຍານພາຫະນະເຄິ່ງອັດຕະໂນມັດ. ມະນຸດມຸ້ງໜ້າໄປຫາກຳແພງດິນຈີ່. ເປັນຫຍັງ? ພວກເຮົາບໍ່ຮູ້, ບາງທີມະນຸດເມົາເຫຼົ້າຫຼືນອນຫລັບ, ແຕ່ພວກເຮົາຮູ້ວ່າການລົ້ມລົງໃນກໍາແພງອິດບໍ່ແມ່ນຄວາມຄິດທີ່ດີ, ທັງຫມົດແມ່ນເທົ່າທຽມກັນ. AI ອາດຈະກວດພົບໄພພິບັດທີ່ຈະມາເຖິງ ແລະສະແຫວງຫາທີ່ຈະຂັບໄລ່ອອກຈາກສິ່ງກີດຂວາງທີ່ຈະມາເຖິງ.
ທັງຫມົດທີ່ບອກ, ພວກເຮົາຈະມີຄວາມເປັນໄປໄດ້ທີ່ແຕກຕ່າງກັນຂອງ AI ແລະມະນຸດບໍ່ເຫັນດີນໍາກັນ. ອີກວິທີໜຶ່ງທີ່ເວົ້າຄືກັນກໍຄືມະນຸດ ແລະ AI ບໍ່ເຫັນດີກັບກັນ. ໃຫ້ສັງເກດວ່າຂ້ອຍບໍ່ຢາກໃຫ້ການຈັດລໍາດັບຂອງ AI-and-human ທຽບກັບ human-and-AI ແນະນໍາຫຍັງກ່ຽວກັບທິດທາງຫຼືຄວາມຫນ້າເຊື່ອຖືຂອງການຂັດແຍ້ງ.
ຄົນງານສອງຄົນ, ມະນຸດຄົນໜຶ່ງ ແລະອີກຄົນໜຶ່ງທີ່ເປັນ AI, ບໍ່ເຫັນດີນໍາກັນ.
ພວກເຮົາສາມາດປະກາດລ່ວງໜ້າໄດ້ວ່າທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງເກີດຂຶ້ນລະຫວ່າງ AI ແລະມະນຸດທີ່ໃຫ້, ພວກເຮົາປະກາດລ່ວງໜ້າວ່າມະນຸດມີໄຊຊະນະເໜືອ AI. ເມື່ອເວົ້າແບບນັ້ນ, ຕົວຢ່າງຕົວຢ່າງຂອງຂ້ອຍກ່ຽວກັບລົດທີ່ກໍາລັງມຸ່ງຫນ້າເຂົ້າໄປໃນກໍາແພງດິນຈີ່ເບິ່ງຄືວ່າຈະຂັດຂວາງພວກເຮົາວ່າມະນຸດຈະຖືກຕ້ອງສະເຫມີ.
ໃນທາງກົງກັນຂ້າມ, ພວກເຮົາສາມາດເລືອກທີ່ຈະປະກາດລ່ວງຫນ້າວ່າທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງເກີດຂື້ນວ່າພວກເຮົາຈະກໍານົດລ່ວງຫນ້າວ່າ AI ແມ່ນຖືກຕ້ອງແລະມະນຸດແມ່ນຜິດພາດ. ນີ້ບໍ່ແມ່ນການສະຫນອງໂດຍທົ່ວໄປ sensibly sensibly. ຈິນຕະນາການລົດທີ່ AI ມີຂໍ້ຜິດພາດ ຫຼື bug ຂອງຊອບແວຝັງຢູ່, ແລະ AI ກໍາລັງພະຍາຍາມຊີ້ນໍາຍານພາຫະນະອອກຈາກຖະຫນົນແລະເຂົ້າໄປໃນຂຸມ. ສົມມຸດວ່າສິ່ງອື່ນແມ່ນເທົ່າທຽມກັນ, ມະນຸດຄວນຈະສາມາດເອົາຊະນະການດໍາເນີນການຂັບລົດ AI ນີ້ແລະປ້ອງກັນບໍ່ໃຫ້ຍານພາຫະນະລົງຈອດໃນ gully.
ຂໍໃຫ້ສະຫຼຸບໂດຍຫຍໍ້ກ່ຽວກັບເລື່ອງນີ້:
- ມະນຸດຢູ່ໃນວົງຮອບຈະຢູ່ໃນຂໍ້ຕົກລົງກັບ AI ສະເໝີບໍ? ຕອບ: ສະບັບເລກທີ
- AI ສະເຫມີຢູ່ໃນຂໍ້ຕົກລົງກັບມະນຸດໃນວົງການບໍ? ຕອບ: No.
- ມະນຸດຢູ່ໃນວົງຮອບຈະຖືກຕ້ອງບໍເມື່ອປຽບທຽບກັບ AI? ຕອບ: ບໍ່ຈໍາເປັນ.
- AI ຈະຖືກຕ້ອງສະ ເໝີ ໄປເມື່ອປຽບທຽບກັບມະນຸດໃນວົງການບໍ? ຄໍາຕອບ: ບໍ່ຈໍາເປັນ.
ທ່ານແນ່ນອນສາມາດຕັ້ງຄ່າ AI ເພື່ອພິຈາລະນາໂດຍຄ່າເລີ່ມຕົ້ນເປັນ "ຜິດ" ຫຼືຝ່າຍທີ່ອ່ອນແອກວ່າແລະດັ່ງນັ້ນຈິ່ງປະຕິເສດມະນຸດທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງປາກົດຂຶ້ນ. ເຊັ່ນດຽວກັນ, ທ່ານສາມາດຕັ້ງຄ່າ AI ເພື່ອສົມມຸດວ່າ AI ຖືກພິຈາລະນາວ່າ "ຖືກຕ້ອງ" ເມື່ອໃດກໍ່ຕາມທີ່ມະນຸດບໍ່ເຫັນດີກັບ AI. ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງວ່າພວກເຮົາສາມາດເຮັດໄດ້ໂຄງການຖ້າຫາກວ່າພວກເຮົາຕ້ອງການທີ່ຈະເຮັດແນວນັ້ນ. ຂ້າພະເຈົ້າອ້າງວ່າໂດຍທົ່ວໄປ, ນີ້ບໍ່ແມ່ນສະເຫມີໄປກໍລະນີ. ມີການຕັ້ງຄ່າທີ່ແນ່ນອນທີ່ພວກເຮົາບໍ່ຮູ້ລ່ວງຫນ້າວ່າ AI ແມ່ນ "ຖືກຕ້ອງ" ຫຼືມະນຸດແມ່ນ "ຖືກຕ້ອງ" ໃນແງ່ຂອງການເລືອກຫນຶ່ງຫຼືອີກອັນຫນຶ່ງກ່ຽວກັບຄວາມຂັດແຍ້ງທີ່ກ່ຽວຂ້ອງກັບວຽກງານໃດຫນຶ່ງ.
ຂ້າພະເຈົ້າໄດ້ນໍາພາເຈົ້າໄປຫາຄໍາຖາມທີ່ສໍາຄັນແລະສັບສົນຫຼາຍ.
ພວກເຮົາຄວນເຮັດແນວໃດເມື່ອຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບເກີດຂຶ້ນລະຫວ່າງມະນຸດໃນວົງແລະ AI (ຫຼື, ທຽບເທົ່າ, ພວກເຮົາສາມາດປະໂຫຍກນີ້ເປັນລະຫວ່າງ AI ແລະມະນຸດໃນວົງ)?
ຢ່າພະຍາຍາມ dodge ຄໍາຖາມ.
ບາງຄົນອາດຈະໂຕ້ຖຽງວ່ານີ້ຈະບໍ່ເກີດຂຶ້ນ, ແຕ່ດັ່ງທີ່ຂ້ອຍໄດ້ວາງໄວ້ໃນຕົວຢ່າງຂອງຂ້ອຍກ່ຽວກັບລົດ, ມັນແນ່ນອນອາດຈະເກີດຂື້ນ. ບາງຄົນອາດຈະໂຕ້ຖຽງວ່າມະນຸດເປັນຄົນດີກວ່າຢ່າງແນ່ນອນ ແລະຕ້ອງເປັນຜູ້ຊະນະການຂັດແຍ້ງໃດໆ. ຕົວຢ່າງຂອງຂ້ອຍກ່ຽວກັບລົດແລະກໍາແພງອິດເຮັດໃຫ້ຫນຶ່ງລົ້ມລົງ. ມີຜູ້ສະໜັບສະໜູນ AI ທີ່ອາດຈະຍືນຍັນວ່າ AI ຈະຕ້ອງເປັນຜູ້ຊະນະ, ເນື່ອງຈາກການເອົາຊະນະອາລົມຂອງມະນຸດຢ່າງເຫັນໄດ້ຊັດ ແລະ ການຄິດທີ່ຢາກຮູ້ຢາກເຫັນໂດຍມະນຸດທີ່ຄິດບໍ່ເຕັມທີ່. ອີກເທື່ອ ໜຶ່ງ, ຕົວຢ່າງອີກອັນ ໜຶ່ງ ຂອງຂ້ອຍທີ່ກ່າວເຖິງລົດທີ່ ກຳ ລັງມຸ່ງ ໜ້າ ເຂົ້າໄປໃນຂຸມເຮັດໃຫ້ການຢືນຢັນນັ້ນ.
ໃນໂລກຄວາມເປັນຈິງ, AI ແລະມະນຸດຈະບໍ່ເຫັນດີນໍາ, ເຖິງແມ່ນວ່າທັງສອງຄົນຈະຖືກນໍາເຂົ້າໄປໃນສະຖານະການເປັນທີມເພື່ອປະຕິບັດວຽກງານຮ່ວມກັນ. ມັນຈະເກີດຂຶ້ນ. ພວກເຮົາບໍ່ສາມາດເອົາຫົວຂອງພວກເຮົາເຂົ້າໄປໃນດິນຊາຍແລະທໍາທ່າວ່າມັນຈະບໍ່ເກີດຂຶ້ນ.
ພວກເຮົາໄດ້ເຫັນວ່າພວກຄົນທີ່ຂັບຍົນໄດ້ຕົກຢູ່ໃນຄວາມບໍ່ເຫັນດີເຫັນພ້ອມ. ໂຊກດີ, ພວກເຂົາເຈົ້າຕົກລົງເຫັນດີບໍ່ເຫັນດີ, ສະນັ້ນມັນເບິ່ງຄືວ່າ. ພວກເຂົາເຈົ້າໄດ້ນໍາເອົາຍົນກັບຄືນໄປບ່ອນທີ່ຢູ່ປາຍຍອດ. ພວກເຂົາເຈົ້າໄດ້ພົບເຫັນວິທີການເພື່ອແກ້ໄຂຄວາມຂັດແຍ່ງກັນໄດ້. ການແກ້ໄຂຄວາມບໍ່ລົງລອຍກັນຂອງເຂົາເຈົ້າໄດ້ຮັບຜົນດີ, ເມື່ອສົມທຽບກັບວ່າບາງທີເຂົາເຈົ້າໄດ້ໄປຍິງກັນຢູ່ໃນຫ້ອງນັກບິນ ຫຼືບາງທີໄດ້ບິນຂຶ້ນໄປໃນອາກາດ ແລະສືບຕໍ່ຕໍ່ສູ້ກັນ. ນັ້ນແມ່ນສະຖານະການທີ່ໂສກເສົ້າທີ່ບໍ່ສາມາດແກ້ໄຂ, ແລະພວກເຮົາສາມາດມີຄວາມຂອບໃຈທີ່ບໍ່ໄດ້ເກີດຂຶ້ນ.
ອະນຸຍາດໃຫ້ຂ້ອຍໃຫ້ລາຍຊື່ຂອງຂ້ອຍກ່ຽວກັບວິທີຕ່າງໆທີ່ AI ແລະ human-in-the-loop (ຫຼື, human-in-the-loop ແລະ AI) ອາດຈະຖືກແກ້ໄຂ:
- AI ແລະມະນຸດທີ່ຮ່ວມມືກັນເຮັດວຽກຮ່ວມກັນ (ມິດຕະພາບຫຼືບໍ່)
- ມະນຸດມີໄຊຊະນະເໜືອ AI, ໂດຍຄ່າເລີ່ມຕົ້ນ
- AI ຊະນະມະນຸດ, ໂດຍຄ່າເລີ່ມຕົ້ນ
- ບາງຄວາມລະອຽດຄົງທີ່ທີ່ກຳນົດໄວ້ລ່ວງໜ້າແມ່ນຊະນະ, ໂດຍຄ່າເລີ່ມຕົ້ນ
- ບຸກຄົນພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງເຂົາເຈົ້າມີໄຊຊະນະໃນໄລຍະພາກສ່ວນ
- AI ພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງມັນຊະນະຝ່າຍຕ່າງໆ
- ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆດຳເນີນຕໍ່ໄປ
- AI ພາກສ່ວນທີສາມປ່ຽນແທນ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ
- ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດຳເນີນໄປອີກ (ດຽວນີ້ຈາກມະນຸດຫາມະນຸດ)
- AI ພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ (ໃນປັດຈຸບັນ AI-to-AI)
- ອື່ນ ໆ
ເຫຼົ່ານີ້ແມ່ນອຸດົມສົມບູນສົມຄວນທີ່ຈະໄດ້ຮັບການ unpacked.
ກ່ອນທີ່ຈະເຂົ້າໄປໃນບາງຊີ້ນແລະມັນຕົ້ນເພີ່ມເຕີມກ່ຽວກັບການພິຈາລະນາທໍາມະຊາດແລະຂົນສັດທີ່ຕິດພັນກັບວິທີການຈັດການກັບ AI ແລະຄວາມຂັດແຍ້ງຂອງມະນຸດ, ໃຫ້ພວກເຮົາຈັດວາງບາງພື້ນຖານເພີ່ມເຕີມກ່ຽວກັບຫົວຂໍ້ທີ່ສໍາຄັນຢ່າງເລິກເຊິ່ງ. ພວກເຮົາຈໍາເປັນຕ້ອງໃຊ້ເວລາສັ້ນໆເຂົ້າໄປໃນຈັນຍາບັນ AI ແລະໂດຍສະເພາະແມ່ນການມາຮອດຂອງ Machine Learning (ML) ແລະ Deep Learning (DL).
ທ່ານອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່າສຽງດັງທີ່ສຸດໃນປະຈຸບັນນີ້ຢູ່ໃນພາກສະຫນາມ AI ແລະເຖິງແມ່ນວ່າຢູ່ນອກພາກສະຫນາມຂອງ AI ປະກອບດ້ວຍການຮ້ອງອອກມາສໍາລັບລັກສະນະທີ່ໃຫຍ່ກວ່າຂອງ AI ດ້ານຈັນຍາບັນ. ລອງພິຈາລະນາເບິ່ງວ່າມັນຫມາຍຄວາມວ່າແນວໃດກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI. ນອກຈາກນັ້ນ, ພວກເຮົາຈະຄົ້ນຫາສິ່ງທີ່ຂ້ອຍຫມາຍເຖິງເມື່ອຂ້ອຍເວົ້າກ່ຽວກັບ Machine Learning ແລະ Deep Learning.
ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກຈາກ vociferous ທາງດ້ານກົດຫມາຍ ການສະແຫວງຫາການຍຶດໝັ້ນໃນການກະທຳຜິດ, ຍັງມີການຊຸກຍູ້ອັນສຳຄັນໄປສູ່ການຖືສິນທຳ AI ເພື່ອແກ້ໄຂຄວາມຊົ່ວຮ້າຍຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມກັນນັ້ນ ໄດ້ປະກາດ ແລະ ສົ່ງເສີມຄວາມນິຍົມ AI ສໍາລັບທີ່ດີ.
ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).
ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.
ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.
ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:
- ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
- ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
- ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
- ບໍ່ ລຳ ອຽງ: ຫ້າມສ້າງຫຼືກະທຳຕາມຄວາມລຳອຽງ, ເປັນການປົກປ້ອງຄວາມຍຸຕິທຳ ແລະ ກຽດສັກສີຂອງມະນຸດ
- ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
- ຄວາມປອດໄພແລະຄວາມເປັນສ່ວນຕົວ: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.
ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:
- ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
- ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
- ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະສາມາດກວດສອບໄດ້, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
- ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
- ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.
ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:
- ຄວາມໂປ່ງໃສ
- ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
- ຄວາມບໍ່ເປັນອັນຕະລາຍ
- ຄວາມຮັບຜິດຊອບ
- ຄວາມເປັນສ່ວນຕົວ
- ຜົນປະໂຫຍດ
- ເສລີພາບ & ການປົກຄອງຕົນເອງ
- ຄວາມໄວ້ວາງໃຈ
- ຄວາມຍືນຍົງ
- ກຽດຕິຍົດ
- ຄວາມສົມດຸນ
ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.
ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.
ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.
ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).
ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).
ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.
ຮັບຮູ້ວ່າ AI ໃນທຸກມື້ນີ້ບໍ່ສາມາດ “ຄິດ” ໃນແບບໃດກໍຕາມເທົ່າກັບການຄິດຂອງມະນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.
ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.
ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.
ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.
ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.
ບໍ່ດີ.
ໃຫ້ກັບຄືນໄປຫາຈຸດສຸມຂອງພວກເຮົາກ່ຽວກັບຄວາມຂັດແຍ້ງລະຫວ່າງ AI ແລະມະນຸດ.
ຂ້າພະເຈົ້າໄດ້ຊີ້ບອກກ່ອນຫນ້ານີ້ວ່ານີ້ແມ່ນບາງຍຸດທະສາດການແກ້ໄຂຄວາມຂັດແຍ້ງ:
- AI ແລະມະນຸດທີ່ຮ່ວມມືກັນເຮັດວຽກຮ່ວມກັນ (ມິດຕະພາບຫຼືບໍ່)
- ມະນຸດມີໄຊຊະນະເໜືອ AI, ໂດຍຄ່າເລີ່ມຕົ້ນ
- AI ຊະນະມະນຸດ, ໂດຍຄ່າເລີ່ມຕົ້ນ
- ບາງຄວາມລະອຽດຄົງທີ່ທີ່ກຳນົດໄວ້ລ່ວງໜ້າແມ່ນຊະນະ, ໂດຍຄ່າເລີ່ມຕົ້ນ
- ບຸກຄົນພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງເຂົາເຈົ້າມີໄຊຊະນະໃນໄລຍະພາກສ່ວນ
- AI ພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງມັນຊະນະຝ່າຍຕ່າງໆ
- ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆດຳເນີນຕໍ່ໄປ
- AI ພາກສ່ວນທີສາມປ່ຽນແທນ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ
- ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດຳເນີນໄປອີກ (ດຽວນີ້ຈາກມະນຸດຫາມະນຸດ)
- AI ພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ (ໃນປັດຈຸບັນ AI-to-AI)
- ອື່ນ ໆ
ເຖິງເວລາແລ້ວທີ່ຈະເອົາສິ່ງເຫຼົ່ານີ້ອອກ.
ຫນ້າທໍາອິດ, ພິຈາລະນາວ່ານີ້ແມ່ນທັງຫມົດກ່ຽວກັບ ມືອາຊີບ ຄວາມບໍ່ເຫັນດີ.
ຄວາມບໍ່ເຫັນດີທາງດ້ານວິຊາຊີບແມ່ນຖືກກໍານົດໄວ້ວ່າງໆວ່າເປັນຄວາມບໍ່ເຫັນດີທີ່ກ່ຽວຂ້ອງກັບວຽກງານທີ່ກ່ຽວຂ້ອງກັບວຽກງານ.
ຕົວຢ່າງ, ຄວາມບໍ່ເຫັນດີທີ່ເກີດຂື້ນລະຫວ່າງນັກບິນແລະນັກບິນຈະດໍາເນີນການກັບການບິນທີ່ກໍາລັງປະເຊີນກັບພະຍຸສາມາດຖືກຕິດສະຫລາກຢ່າງສົມເຫດສົມຜົນວ່າເປັນການຂັດແຍ້ງດ້ານວິຊາຊີບ. ໃນທາງກົງກັນຂ້າມ, ຄວາມບໍ່ລົງລອຍກັນຢ່າງຮ້າຍແຮງກ່ຽວກັບຍີ່ຫໍ້ກາເຟທີ່ນັກບິນສະ ໜັບ ສະ ໜູນ ທຽບກັບຍີ່ຫໍ້ທີ່ນັກບິນມັກຖືກຈັດປະເພດເປັນຄວາມຂັດແຍ້ງທີ່ບໍ່ເປັນມືອາຊີບໃນສະພາບການສະເພາະນີ້.
ແນ່ນອນ, ຖ້າຄວາມຂັດແຍ້ງທີ່ບໍ່ເປັນມືອາຊີບເຮັດໃຫ້ເກີດຄວາມບໍ່ລົງລອຍກັນທາງດ້ານວິຊາຊີບ, ໃນທີ່ສຸດພວກເຮົາອາດຈະສົນໃຈຄວາມຂັດແຍ້ງທີ່ບໍ່ແມ່ນຜູ້ຊ່ຽວຊານທີ່ເປັນແຫຼ່ງທີ່ສົມມຸດຕິຖານຫຼືຈຸດປະກາຍສໍາລັບຜູ້ຊ່ຽວຊານ. ລອງນຶກພາບວ່ານັກບິນ ແລະນັກບິນໂຕ້ຖຽງກັນຢ່າງຂົມຂື່ນວ່າກາເຟຍີ່ຫໍ້ໃດດີທີ່ສຸດ, ຈາກນັ້ນໜ້າເສຍໃຈທີ່ຮົ່ວໄຫຼໄປສູ່ຄວາມເປັນຫ່ວງສະເພາະໃນການບິນ (ປົງ!) ເຊັ່ນວ່າ ຈະອອກ ຫຼື ບໍ່.
ອັນທີສອງ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ຮັກສາຢູ່ໃນໃຈຂອງຂະຫນາດຂອງການຂັດແຍ້ງດ້ານວິຊາຊີບ.
ບາງທີນັກບິນແລະນັກບິນຫຼືໃນການບໍ່ເຫັນດີທີ່ອ່ອນໂຍນກ່ຽວກັບການດໍາເນີນການບິນ. ພວກເຂົາເຈົ້າບໍ່ໄດ້ຢູ່ໃນຫົວ loggerhead ແລະພຽງແຕ່ການໄຕ່ຕອງ pros ແລະ cons ຂອງວ່າຈະຂຶ້ນ. ນີ້ບໍ່ແມ່ນຄວາມສອດຄ່ອງ ຫຼືຂະໜາດຂອງການຂັດແຍ້ງດ້ານວິຊາຊີບທີ່ເຮົາພິຈາລະນາຕາມປະເພນີໃນນີ້. ສິ່ງທີ່ເປັນໄປໄດ້, ອາດຈະເປັນການຂັດແຍ້ງດ້ານວິຊາຊີບເປັນໄລຍະຂ້າມຜ່ານ ແລະ ທັງສອງຝ່າຍໄດ້ດຳເນີນການແກ້ໄຂຢ່າງສະໜິດແໜ້ນ ຫຼື ຢ່າງໜ້ອຍບົນພື້ນຖານທັນການ. ໂດຍທົ່ວໄປ, ຈຸດສຸມຂອງຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບຢູ່ໃນຂອບເຂດແມ່ນບັນຫາທີ່ເບິ່ງຄືວ່າບໍ່ມີຄວາມຫຍຸ້ງຍາກ, ແລະ ສອງຝ່າຍຍັງຄົງບໍ່ລົງຮອຍກັນ.
ອັນທີສາມ, ປົກກະຕິແລ້ວຕ້ອງມີບາງສິ່ງບາງຢ່າງຢ່າງຈິງຈັງຢູ່ໃນເສັ້ນເພື່ອໃຫ້ຄໍາແນະນໍາເຫຼົ່ານີ້ເຂົ້າມາ.
ການເລືອກບິນ ຫຼື ບໍ່ບິນແມ່ນການຕັດສິນໃຈແບບມີຊີວິດ ຫຼື ຄວາມຕາຍ ຖ້າການບິນມີຄວາມສ່ຽງຍ້ອນລົມພາຍຸ ຫຼື ຍົນກໍ່ຖືວ່າບໍ່ໄດ້ກຽມຕົວເຕັມທີ່ສຳລັບການເດີນທາງດັ່ງກ່າວ. ນີ້ແມ່ນທຸລະກິດທີ່ຮ້າຍແຮງ. ພວກເຮົາຍັງສາມາດນຳໃຊ້ຄໍາແນະນໍາຕໍ່ກັບຄວາມບໍ່ລົງລອຍກັນທາງດ້ານວິຊາຊີບທີ່ມີຜົນກະທົບໜ້ອຍກວ່າ ເຖິງແມ່ນວ່າມັນອາດຈະເປັນການລົບກວນຫຼາຍກ່ວາມັນຄຸ້ມຄ່າ.
ຕົກລົງ, ການພິຈາລະນາຂອງພວກເຮົາແມ່ນວ່າ:
- ການບໍ່ເຫັນດີເຫັນພ້ອມແມ່ນເນັ້ນໃສ່ເປັນມືອາຊີບຕົ້ນຕໍ ຫຼາຍກວ່າສິ່ງທີ່ບໍ່ແມ່ນອາຊີບ
- ຄວາມບໍ່ລົງລອຍກັນແມ່ນມີລັກສະນະຍືນຍົງ ແລະບໍ່ແມ່ນພຽງໄລຍະຂ້າມຜ່ານ ຫຼືແກ້ໄຂໄດ້ຢ່າງອື່ນ.
- ຄວາມບໍ່ເຫັນດີໄດ້ບອກລ່ວງໜ້າເຖິງຜົນສະທ້ອນທີ່ຮ້າຍແຮງ ແລະປົກກະຕິແລ້ວແມ່ນຜົນທີ່ມີຜົນກະທົບ
- ພາກສ່ວນຕ່າງໆແມ່ນຢູ່ໃນຫົວ loggerhead ແລະພວກເຂົາເບິ່ງຄືວ່າ intractable
ຕອນນີ້ຂໍໃຫ້ພິຈາລະນາຢ່າງລະອຽດກ່ຽວກັບຄໍາແນະນໍາຫຼືວິທີການແນະນໍາຂອງຂ້ອຍກ່ຽວກັບວິທີຮັບມືກັບຄວາມບໍ່ລົງລອຍກັນແບບມືອາຊີບ.
AI ແລະມະນຸດທີ່ຮ່ວມມືກັນເຮັດວຽກຮ່ວມກັນ (ມິດຕະພາບຫຼືບໍ່)
ຂ້ອຍເລີ່ມຕົ້ນບັນຊີລາຍຊື່ດ້ວຍຄວາມເປັນໄປໄດ້ທີ່ກົງໄປກົງມາທີ່ AI ແລະມະນຸດໃນວົງການສາມາດແກ້ໄຂຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບລະຫວ່າງເຂົາເຈົ້າ. ມັນເບິ່ງຄືວ່າບາງທີຕົວຢ່າງຂອງມະນຸດສອງຄົນ, ນັກບິນແລະນັກບິນໄດ້ສະແດງໃຫ້ເຫັນສະຖານະການແບບນີ້. ພວກເຂົາເຈົ້າ somehow ຕົກລົງທີ່ຈະກັບຄືນໄປ terminal ແລະໄປວິທີການແຍກຕ່າງຫາກຂອງເຂົາເຈົ້າ. ມັນອາດຈະເປັນວ່າລະບົບ AI ແລະມະນຸດສາມາດຊອກຫາວິທີການແກ້ໄຂທີ່ໂດຍທົ່ວໄປແລ້ວເປັນທີ່ພໍໃຈຂອງທັງສອງຝ່າຍແລະເລື່ອງນີ້ຈຶ່ງສະຫຼຸບໄດ້ຢ່າງພໍໃຈ.
ມະນຸດມີໄຊຊະນະເໜືອ AI, ໂດຍຄ່າເລີ່ມຕົ້ນ
ເມື່ອຕັ້ງ AI, ພວກເຮົາອາດຈະວາງແຜນກົດລະບຽບທີ່ກ່າວວ່າມະນຸດໃນວົງການຈະຊະນະສະເຫມີທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບເກີດຂື້ນ. ອັນນີ້ຈະເປັນຄ່າເລີ່ມຕົ້ນທີ່ຖືກລະຫັດຢ່າງຈະແຈ້ງ. ພວກເຮົາອາດຈະອະນຸຍາດໃຫ້ມີການລົບລ້າງບາງຮູບແບບ, ໃນກໍລະນີທີ່, ເຖິງແມ່ນວ່າກົດລະບຽບທີ່ຢືນຢູ່ຈະເປັນທີ່ມະນຸດຊະນະ.
AI ຊະນະມະນຸດ, ໂດຍຄ່າເລີ່ມຕົ້ນ
ເມື່ອຕັ້ງ AI, ພວກເຮົາອາດຈະວາງແຜນກົດລະບຽບທີ່ກ່າວວ່າ AI ຈະຊະນະມະນຸດຕະຫຼອດທຸກຄັ້ງທີ່ຄວາມບໍ່ລົງລອຍກັນດ້ານວິຊາຊີບເກີດຂື້ນ. ນີ້ແມ່ນລະຫັດເລີ່ມຕົ້ນທີ່ຊັດເຈນ. ພວກເຮົາອາດຈະອະນຸຍາດໃຫ້ມີການລົບລ້າງບາງຮູບແບບ, ໃນກໍລະນີ, ເຖິງແມ່ນວ່າກົດລະບຽບທີ່ຢືນຢູ່ຈະເປັນທີ່ AI ຊະນະ.
ບາງຄວາມລະອຽດຄົງທີ່ທີ່ກຳນົດໄວ້ລ່ວງໜ້າແມ່ນຊະນະ, ໂດຍຄ່າເລີ່ມຕົ້ນ
ເມື່ອຕັ້ງ AI, ພວກເຮົາອາດຈະວາງແຜນກົດລະບຽບທີ່ກ່າວວ່າການແກ້ໄຂຄົງທີ່ທີ່ກໍານົດໄວ້ລ່ວງຫນ້າອື່ນໆຈະຊະນະທຸກຄັ້ງທີ່ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບເກີດຂື້ນກັບມະນຸດໃນວົງ. human-in-the-loop ບໍ່ໄດ້ຊະນະໂດຍຄ່າເລີ່ມຕົ້ນ. AI ບໍ່ໄດ້ຊະນະໂດຍຄ່າເລີ່ມຕົ້ນ. ມີບາງການແກ້ໄຂທີ່ໄດ້ກໍານົດໄວ້ກ່ອນ. ຕົວຢ່າງ, ບາງທີອາດມີການຖິ້ມຫຼຽນທີ່ຈະໃຊ້ເພື່ອຕັດສິນໃຈວ່າຝ່າຍໃດຂອງທັງສອງຝ່າຍຖືວ່າເປັນເສັ້ນທາງທີ່ຖືກຕ້ອງ. ນັ້ນແນ່ນອນຈະເບິ່ງຄືວ່າບໍ່ມັກ; ດັ່ງນັ້ນວິທີການຕົວຢ່າງອີກອັນຫນຶ່ງແມ່ນວ່າກົດລະບຽບພິເສດເລີ່ມຕົ້ນໃນການຄິດໄລ່ມູນຄ່າໂດຍອີງໃສ່ປັດໄຈນໍາເຂົ້າຈາກທັງສອງຝ່າຍແລະມາຮອດຜົນໄດ້ຮັບເປັນຕົວແຍກ.
ບຸກຄົນພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງເຂົາເຈົ້າມີໄຊຊະນະໃນໄລຍະພາກສ່ວນ
ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, ກົດລະບຽບອາດຈະເປັນວ່າບຸກຄົນທີສາມທີ່ເປັນມະນຸດຈະຖືກເອີ້ນແລະເຂົ້າໄປໃນການກໍານົດເພື່ອຕັດສິນໃຈແກ້ໄຂຄວາມຂັດແຍ້ງ. AI ໄດ້ຖືກວາງແຜນໄວ້ເພື່ອປະຕິບັດຕາມສິ່ງທີ່ມະນຸດພາກສ່ວນທີສາມຕັດສິນໃຈ. ມະນຸດທີ່ຢູ່ໃນວົງການຂອງມະນຸດໄດ້ຮັບການແນະນຳລ່ວງໜ້າວ່າ ຖ້າສະພາບການດັ່ງກ່າວເກີດຂຶ້ນ, ເຂົາເຈົ້າກໍຄືກັນກັບມະນຸດຝ່າຍທີສາມ. ໃນທາງກົງກັນຂ້າມ, ເຈົ້າສາມາດຄາດການໄດ້ວ່າມະນຸດໃນວົງການອາດຈະມີຄວາມຄຽດແຄ້ນຕໍ່ການຍອມຮັບສິ່ງທີ່ມະນຸດພາກສ່ວນທີສາມຕັດສິນໃຈຖ້າການຕັດສິນໃຈບໍ່ເຫັນດີກັບທ່າທາງຂອງມະນຸດ.
AI ພາກສ່ວນທີສາມແມ່ນ looped-in ແລະຕົວຊີ້ບອກຂອງມັນຊະນະຝ່າຍຕ່າງໆ
ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, ກົດລະບຽບອາດຈະເປັນວ່າພາກສ່ວນທີສາມທີ່ເປັນລະບົບ AI ທີ່ແຕກຕ່າງກັນໄດ້ຖືກເອີ້ນແລະເຂົ້າໄປໃນການກໍານົດເພື່ອຕັດສິນໃຈແກ້ໄຂຄວາມຂັດແຍ້ງ. AI ຕົ້ນສະບັບຖືກຕັ້ງໂຄງການໃຫ້ເລື່ອນໄປຕາມສິ່ງທີ່ AI ພາກສ່ວນທີສາມຕັດສິນໃຈ. ມະນຸດຢູ່ໃນວົງການຂອງມະນຸດແລ້ວໄດ້ຖືກແນະນໍາລ່ວງຫນ້າວ່າຖ້າສະຖານະການດັ່ງກ່າວເກີດຂື້ນ, ພວກເຂົາກໍ່ຕ້ອງປະຕິເສດກັບ AI ພາກສ່ວນທີສາມ. ໃນທາງກົງກັນຂ້າມ, ເຈົ້າສາມາດຄາດການໄດ້ວ່າມະນຸດໃນວົງການອາດຈະມີຄວາມໂກດແຄ້ນຕໍ່ການຍອມຮັບສິ່ງທີ່ AI ພາກສ່ວນທີສາມຕັດສິນໃຈຖ້າການຕັດສິນໃຈບໍ່ເຫັນດີກັບທ່າທາງຂອງມະນຸດ.
ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆດຳເນີນຕໍ່ໄປ
ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, ມະນຸດໃນວົງການຖືກແທນທີ່ດ້ວຍພາກສ່ວນທີສາມທີ່ເປັນມະນຸດແລະນັ້ນຈະກາຍເປັນມະນຸດໃນວົງການຕໍ່ໄປ. ມະນຸດທີ່ເປັນມະນຸດຕົ້ນສະບັບໃນວົງການສໍາລັບວຽກງານນັ້ນບໍ່ໄດ້ຖືກພິຈາລະນາເປັນສ່ວນຫນຶ່ງຂອງວຽກງານທີ່ມີຢູ່ໃນມື. ມັນເປັນລັກສະນະທີ່ເປີດເຜີຍກ່ຽວກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນຈະເກີດຂຶ້ນກັບມະນຸດໃນວົງການທີ່ຖືກແທນທີ່ໃນປັດຈຸບັນ, ແຕ່ພວກເຮົາເວົ້າວ່າແນ່ນອນວ່າພວກເຂົາບໍ່ມີບົດບາດຢ່າງຕໍ່ເນື່ອງໃນວຽກງານການເຮັດວຽກ.
AI ພາກສ່ວນທີສາມປ່ຽນແທນ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ
ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, AI ຖືກແທນທີ່ດ້ວຍ AI ພາກສ່ວນທີສາມແລະນັ້ນກາຍເປັນ AI ທີ່ໃຊ້ໃນການເຮັດວຽກໃນມື. AI ທີ່ຖືກນຳໃຊ້ໃນເບື້ອງຕົ້ນສຳລັບວຽກງານນັ້ນບໍ່ຖືກຖືວ່າເປັນສ່ວນໜຶ່ງຂອງວຽກງານທີ່ມີຢູ່ແລ້ວ. ມັນເປັນລັກສະນະທີ່ເປີດເຜີຍກ່ຽວກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນຈະເກີດຂຶ້ນກັບ AI ທີ່ຖືກແທນທີ່ໃນປັດຈຸບັນ, ແຕ່ພວກເຮົາເວົ້າວ່າແນ່ນອນ AI ບໍ່ມີບົດບາດຢ່າງຕໍ່ເນື່ອງໃນວຽກງານ.
ມະນຸດພາກສ່ວນທີສາມມາແທນທີ່ AI ທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດຳເນີນໄປອີກ (ດຽວນີ້ຈາກມະນຸດຫາມະນຸດ)
ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, AI ໄດ້ຖືກແທນທີ່ດ້ວຍມະນຸດພາກສ່ວນທີສາມທີ່ບຸກຄົນນັ້ນກາຍເປັນທີມງານຮ່ວມກັນທີ່ຖືກພິຈາລະນາທີ່ຈະໃຊ້ສໍາລັບວຽກງານໃນມື. AI ທີ່ຖືກນຳໃຊ້ໃນເບື້ອງຕົ້ນສຳລັບວຽກງານນັ້ນບໍ່ຖືກຖືວ່າເປັນສ່ວນໜຶ່ງຂອງວຽກງານທີ່ມີຢູ່ແລ້ວ. ມັນເປັນລັກສະນະທີ່ເປີດເຜີຍກ່ຽວກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນຈະເກີດຂຶ້ນກັບ AI ທີ່ຖືກແທນທີ່ໃນປັດຈຸບັນ, ແຕ່ພວກເຮົາເວົ້າວ່າແນ່ນອນ AI ບໍ່ມີບົດບາດຢ່າງຕໍ່ເນື່ອງໃນວຽກງານ. ໃນສັ້ນ, ນີ້ກາຍເປັນວຽກງານທີ່ສອງຝ່າຍຂອງມະນຸດຕໍ່ມະນຸດ.
AI ພາກສ່ວນທີສາມມາແທນທີ່ມະນຸດທີ່ມີຢູ່ແລ້ວ, ສິ່ງຕ່າງໆກໍ່ດໍາເນີນຕໍ່ໄປ (ໃນປັດຈຸບັນ AI-to-AI)
ເມື່ອມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ, ມະນຸດໃນວົງການຖືກແທນທີ່ດ້ວຍ AI ພາກສ່ວນທີສາມແລະ AI ນີ້ຈະກາຍເປັນການຕື່ມຂໍ້ມູນໃສ່ໃນວົງກ່ອນຂອງມະນຸດ. ມະນຸດທີ່ເປັນມະນຸດຕົ້ນສະບັບໃນວົງການສໍາລັບວຽກງານນັ້ນບໍ່ໄດ້ຖືກພິຈາລະນາເປັນສ່ວນຫນຶ່ງຂອງວຽກງານທີ່ມີຢູ່ໃນມື. ມັນເປັນລັກສະນະທີ່ເປີດເຜີຍກ່ຽວກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນຈະເກີດຂຶ້ນກັບມະນຸດໃນວົງການທີ່ຖືກແທນທີ່ໃນປັດຈຸບັນ, ແຕ່ພວກເຮົາເວົ້າວ່າແນ່ນອນວ່າພວກເຂົາບໍ່ມີບົດບາດຢ່າງຕໍ່ເນື່ອງໃນວຽກງານການເຮັດວຽກ. ໃນສັ້ນ, ໃນປັດຈຸບັນນີ້ກາຍເປັນສອງຝ່າຍ AI-to-AI ເພື່ອປະຕິບັດວຽກງານ.
ອື່ນ ໆ
ການປ່ຽນແປງອື່ນໆສາມາດຖືກວາງແຜນເພື່ອຮັບມືກັບຄວາມບໍ່ລົງລອຍກັນແບບມືອາຊີບ, ແຕ່ພວກເຮົາໄດ້ກວມເອົາບາງຈຸດສໍາຄັນທີ່ນີ້.
ເຮົາຈະຕັດສິນໃຈແນວໃດວ່າວິທີການເຫຼົ່ານັ້ນຈະເໝາະສົມກັບສະຖານະການໃດ?
ຫຼາຍໆບັນຫາເຂົ້າໄປໃນການເລືອກດັ່ງກ່າວ. ມີການພິຈາລະນາທາງດ້ານເຕັກໂນໂລຢີ. ມີການພິຈາລະນາທຸລະກິດ. ມີການພິຈາລະນາທາງດ້ານກົດໝາຍ ແລະ ຈັນຍາບັນ.
ໃນບາງລະດັບ, ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າຈັນຍາບັນຂອງ AI ແລະຈັນຍາບັນ AI ແມ່ນຫົວຂໍ້ສໍາຄັນດັ່ງກ່າວ. ຫຼັກຈັນຍາບັນຂອງ AI ເຮັດໃຫ້ພວກເຮົາມີຄວາມລະມັດລະວັງ. ບາງຄັ້ງນັກເທກໂນໂລຍີ AI ສາມາດກາຍເປັນຄົນທີ່ສົນໃຈກັບເຕັກໂນໂລຢີ, ໂດຍສະເພາະການເພີ່ມປະສິດທິພາບຂອງເຕັກໂນໂລຢີສູງ. ເຂົາເຈົ້າບໍ່ຈໍາເປັນພິຈາລະນາເຖິງຜົນກະທົບຂອງສັງຄົມທີ່ໃຫຍ່ກວ່າ. ການມີແນວຄິດດ້ານຈັນຍາບັນຂອງ AI ແລະເຮັດແນວນັ້ນຢ່າງປະສົມປະສານກັບການພັດທະນາ AI ແລະພາກສະຫນາມແມ່ນສໍາຄັນສໍາລັບການຜະລິດ AI ທີ່ເຫມາະສົມ, ລວມທັງ (ບາງທີອາດເປັນເລື່ອງແປກທີ່ຫຼືທາດເຫຼັກ) ການປະເມີນວ່າຈັນຍາບັນ AI ໄດ້ຮັບການຮັບຮອງເອົາໂດຍບໍລິສັດ.
ນອກເຫນືອຈາກການໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ໂດຍທົ່ວໄປແລ້ວ, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອຄວບຄຸມການນໍາໃຊ້ຕ່າງໆຂອງ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມພະຍາຍາມເພື່ອຮ່າງກົດໝາຍດັ່ງກ່າວແມ່ນເປັນໄປເທື່ອລະກ້າວ. ຈັນຍາບັນ AI ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.
ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ໃນຄວາມເປັນຈິງ, ພວກເຂົາເຕືອນວ່າຖ້າພວກເຮົາປະກາດກົດຫມາຍ AI ເຫຼົ່ານີ້, ພວກເຮົາຈະຂ້າ goose ທອງໂດຍການຍຶດຫມັ້ນໃນຄວາມກ້າວຫນ້າໃນ AI ທີ່ສະເຫນີຂໍ້ໄດ້ປຽບຂອງສັງຄົມອັນໃຫຍ່ຫຼວງ.
ໃນຊ່ວງເວລາຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້ອຍຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງຫົວຂໍ້ນີ້. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.
ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດແດ່ກ່ຽວກັບການແກ້ໄຂຄວາມຂັດແຍ້ງລະຫວ່າງ AI ແລະມະນຸດ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?
ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.
ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່ມີຄວາມຕ້ອງການສໍາລັບການຂັບລົດຂອງມະນຸດ, ແລະບໍ່ມີການຈັດສັນສໍາລັບມະນຸດຂັບລົດໄດ້. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.
ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ
ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.
ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).
ຍັງບໍ່ທັນມີລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຕົວຈິງຢູ່ໃນລະດັບ 5, ແລະພວກເຮົາຍັງບໍ່ທັນຮູ້ວ່າສິ່ງນີ້ຈະບັນລຸໄດ້ຫຼືບໍ່ມັນຈະໃຊ້ເວລາດົນປານໃດ.
ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).
ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).
ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.
ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.
ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI-Versus-Human ຄວາມບໍ່ເຫັນດີນໍາ
ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.
ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.
AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.
ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.
ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?
ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.
ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.
ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.
ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.
ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.
ຂ້າພະເຈົ້າຫວັງວ່າມັນຈະສະຫນອງໃຫ້ເປັນພຽງພໍຂອງຄໍາແນະນໍາທີ່ຈະ underlie ສິ່ງທີ່ຂ້າພະເຈົ້າກໍາລັງຈະກ່ຽວຂ້ອງ.
ສໍາລັບຍານພາຫະນະທີ່ປົກຄອງຕົນເອງຢ່າງເຕັມທີ່ອາດຈະບໍ່ມີໂອກາດທີ່ຈະຂັດແຍ້ງດ້ານວິຊາຊີບລະຫວ່າງມະນຸດແລະ AI ເນື່ອງຈາກຄວາມເປັນໄປໄດ້ທີ່ບໍ່ມີມະນຸດຢູ່ໃນວົງການທີ່ຈະເລີ່ມຕົ້ນ. ຄວາມປາຖະໜາຂອງຜູ້ຜະລິດລົດທີ່ຂັບລົດຕົນເອງຫຼາຍຄົນໃນທຸກມື້ນີ້ ແມ່ນເພື່ອເອົາຄົນຂັບມະນຸດອອກຈາກວຽກຂັບລົດໝົດທຸກຄົນ. ຍານພາຫະນະດັ່ງກ່າວຈະບໍ່ມີການຄວບຄຸມການຂັບຂີ່ທີ່ມະນຸດເຂົ້າເຖິງໄດ້. ໃນກໍລະນີນັ້ນ, ຜູ້ຂັບຂີ່ມະນຸດ, ຖ້າຢູ່, ຈະບໍ່ສາມາດເຂົ້າຮ່ວມໃນວຽກງານຂັບລົດໄດ້ເນື່ອງຈາກພວກເຂົາຂາດການເຂົ້າເຖິງການຄວບຄຸມການຂັບຂີ່ໃດໆ.
ສໍາລັບຍານພາຫະນະອັດຕະໂນມັດບາງອັນ, ການອອກແບບບາງຢ່າງຍັງອະນຸຍາດໃຫ້ມະນຸດຢູ່ໃນວົງ, ເຖິງແມ່ນວ່າມະນຸດບໍ່ຈໍາເປັນຕ້ອງມີຫຼືມີສ່ວນຮ່ວມໃນຂະບວນການຂັບຂີ່ທັງຫມົດ. ດັ່ງນັ້ນ, ມະນຸດສາມາດມີສ່ວນຮ່ວມໃນການຂັບລົດ, ຖ້າບຸກຄົນນັ້ນຕ້ອງການ. ເຖິງແມ່ນວ່າບໍ່ມີຈຸດໃດທີ່ AI ອີງໃສ່ມະນຸດເພື່ອປະຕິບັດວຽກງານການຂັບລົດໃດໆ.
ໃນກໍລະນີຂອງຍານພາຫະນະເຄິ່ງອັດຕະໂນມັດ, ມີຄວາມສໍາພັນໃນມືລະຫວ່າງຜູ້ຂັບຂີ່ຂອງມະນຸດແລະ AI. ຜູ້ຂັບຂີ່ຂອງມະນຸດສາມາດຄວບຄຸມການຄວບຄຸມການຂັບຂີ່ໄດ້ຢ່າງສົມບູນແລະສໍາຄັນທີ່ຈະຢຸດ AI ຈາກການມີສ່ວນຮ່ວມໃນການຂັບຂີ່. ຖ້າຜູ້ຂັບຂີ່ຂອງມະນຸດຕ້ອງການທີ່ຈະຟື້ນຟູ AI ເຂົ້າໃນບົດບາດການຂັບຂີ່, ເຂົາເຈົ້າສາມາດເຮັດໄດ້, ເຖິງແມ່ນວ່ານີ້ບາງຄັ້ງກໍ່ບັງຄັບມະນຸດໃຫ້ຍົກເລີກການຄວບຄຸມການຂັບຂີ່.
ຮູບແບບການດຳເນີນງານແບບເຄິ່ງອັດຕະໂນມັດອີກອັນໜຶ່ງຈະໃຫ້ຜູ້ຂັບຂີ່ມະນຸດ ແລະ AI ເຮັດວຽກຮ່ວມກັນເປັນທີມ. AI ກໍາລັງຂັບລົດແລະມະນຸດກໍາລັງຂັບລົດ. ພວກເຂົາເຈົ້າກໍາລັງຂັບລົດຮ່ວມກັນ. AI ອາດຈະຫັນໄປສູ່ມະນຸດ. ມະນຸດອາດຈະຫັນໄປສູ່ AI.
ໃນບາງຈຸດ, ລະບົບການຂັບຂີ່ AI ແລະຜູ້ຂັບຂີ່ຂອງມະນຸດໃນວົງການອາດຈະມາຮອດຈຸດເຊື່ອມຕໍ່ຂອງ "ຄວາມບໍ່ເຫັນດີທາງດ້ານວິຊາຊີບ" ກ່ຽວກັບວຽກງານຂັບລົດຢູ່ໃນມື.
ເພື່ອສະແດງໃຫ້ເຫັນວ່າບາງກົດລະບຽບທີ່ໄດ້ກ່າວມາຂ້າງເທິງຂອງການຈັດການກັບຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບສາມາດທ້າທາຍໃນການປະຕິບັດ, ພິຈາລະນາຕົວຢ່າງຂອງການຮຽກຮ້ອງໃຫ້ບຸກຄົນທີສາມເຂົ້າໄປໃນເລື່ອງແລະສະເຫນີການຕັດສິນໃຈແກ້ໄຂບັນຫາທີ່ບໍ່ໄດ້ຮັບການແກ້ໄຂ.
ສົມມຸດວ່າຜູ້ຜະລິດລົດຍົນ ຫຼືບໍລິສັດເທັກໂນໂລຍີຂັບລົດຕົນເອງໄດ້ຈັດໃຫ້ຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກເຂົ້າເຖິງການຄວບຄຸມການຂັບຂີ່ຂອງຍານພາຫະນະພາຍໃນເຮືອຂອງພວກເຂົາ. ຜູ້ປະຕິບັດການຂອງມະນຸດກໍາລັງນັ່ງຢູ່ໃນຫ້ອງການຫ່າງໄກສອກຫຼີກຫຼືຕັ້ງຄ້າຍໆກັນ. ໂດຍຜ່ານລະບົບຄອມພິວເຕີ, ພວກເຂົາເຈົ້າສາມາດເບິ່ງ scene ການຂັບລົດໂດຍຜ່ານການເຂົ້າເຖິງກ້ອງຖ່າຍຮູບແລະອຸປະກອນເຊັນເຊີອື່ນໆ loaded ໃສ່ລົດຂັບລົດຕົນເອງໄດ້. ສໍາລັບພວກເຂົາ, ນີ້ແມ່ນເກືອບຄືກັບການຫຼີ້ນວິດີໂອອອນໄລນ໌, ເຖິງແມ່ນວ່າ, ແນ່ນອນ, ສະຖານະການໃນຊີວິດຈິງມີຜົນສະທ້ອນຮ້າຍແຮງ.
ລະບົບ AI ແລະຜູ້ຂັບຂີ່ມະນຸດຢູ່ໃນລົດກໍາລັງຂັບລົດເຄິ່ງອັດຕະໂນມັດລົງໄປສູ່ທາງດ່ວນຍາວ. ທັນທີທັນໃດ, AI ຕ້ອງການຊີ້ນໍາເຂົ້າໄປໃນຂຸມ. ຄົນຂັບລົດມະນຸດບໍ່ຢາກເຮັດອັນນີ້. ທັງສອງກຳລັງໂຕ້ຖຽງກັນໃນການຄວບຄຸມການຂັບລົດ.
ນີ້ຈະແກ້ໄຂແນວໃດ?
ບາງທີເຮົາອາດຈະຕັ້ງຂຶ້ນກ່ອນວ່າມະນຸດຊະນະສະເໝີ. ສົມມຸດວ່າພວກເຮົາເລືອກທີ່ຈະບໍ່ເຮັດແນວນັ້ນ.
ພວກເຮົາສາມາດໄດ້ຈັດຕັ້ງໄວ້ລ່ວງຫນ້າວ່າ AI ຊະນະສະເຫມີໄປ. ສົມມຸດວ່າພວກເຮົາເລືອກທີ່ຈະບໍ່ເຮັດແນວນັ້ນ. ທັງໝົດ, ພວກເຮົາບໍ່ໄດ້ຮັບຮອງເອົາກົດລະບຽບເຫຼົ່ານັ້ນ, ນອກເໜືອໄປຈາກພວກເຮົາໄດ້ຕັດສິນໃຈອະນຸຍາດໃຫ້ບຸກຄົນທີສາມເຂົ້າມາແຊກແຊງ ແລະແກ້ໄຂຄວາມບໍ່ລົງລອຍກັນແບບມືອາຊີບຂອງລັກສະນະຫຼັກໆ.
ໃນກໍລະນີການນໍາໃຊ້ນີ້, AI ແລະຄົນຂັບລົດຂອງມະນຸດຢູ່ໃນລໍ້ກໍາລັງຕໍ່ສູ້ກັບການຄວບຄຸມການຂັບລົດ. ນີ້ ແມ່ນ ໃຫ້ ເວົ້າ ວ່າ conveyed ກັບ ປະ ຕິ ບັດ ການ ມະ ນຸດ ຫ່າງ ໄກ ສອກ ຫຼີກ (ມະ ນຸດ ພາກ ສ່ວນ ທີ ສາມ ຂອງ ພວກ ເຮົາ). ຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກກວດກາເບິ່ງສິ່ງທີ່ເກີດຂຶ້ນແລະຕັດສິນໃຈທີ່ຈະຫນີອອກຈາກຂຸມ, ເບິ່ງຄືວ່າຈະຫລີກລ້ຽງສິ່ງທີ່ AI ພະຍາຍາມເຮັດ. ໃນຂະນະດຽວກັນ, ສົມມຸດວ່າຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກໄດ້ຊີ້ນໍາເຂົ້າໄປໃນການຈະລາຈອນທີ່ກໍາລັງຈະມາ, ເຊິ່ງບາງທີ AI ຫຼືຜູ້ຂັບຂີ່ຂອງມະນຸດຢູ່ໃນລົດບໍ່ໄດ້ຢາກເຮັດ.
ຈຸດສໍາຄັນແມ່ນວ່າວິທີການທີ່ກົດລະບຽບນີ້ໄດ້ຖືກປະຕິບັດແມ່ນວ່າຜູ້ປະຕິບັດການຂອງມະນຸດພາກສ່ວນທີສາມສາມາດ override ຫມົດທັງ AI ແລະມະນຸດໃນວົງ. ບໍ່ວ່າຈະເປັນອັນນີ້ທີ່ຈະຜະລິດຜົນໄດ້ຮັບທີ່ດີແມ່ນບໍ່ແນ່ນອນແນ່ນອນ.
ຂ້ອຍຈະໃຊ້ຕົວຢ່າງນີ້ເພື່ອເນັ້ນໃສ່ຄວາມເຂົ້າໃຈເພີ່ມເຕີມບາງຢ່າງກ່ຽວກັບເລື່ອງເຫຼົ່ານີ້.
ທ່ານບໍ່ສາມາດເຮັດໃຫ້ສົມມຸດຕິຖານທີ່ brazen ວ່າພຽງແຕ່ເນື່ອງຈາກວ່າຫນຶ່ງໃນລະບຽບການເຫຼົ່ານີ້ແມ່ນໄດ້ຮັບການວາງເຂົ້າໃນສະຖານທີ່ຜົນຂອງການແກ້ໄຂຄວາມຂັດແຍ່ງແມ່ນຈໍາເປັນຕ້ອງໄດ້ຮັບຜົນດີທີ່ຮັບປະກັນ. ມັນອາດຈະບໍ່ແມ່ນ. ບໍ່ມີກົດລະບຽບໃດຫນຶ່ງທີ່ຖືກຕ້ອງສະເຫມີໄປທີ່ສາມາດເລືອກໄດ້.
ຕໍ່ໄປ, ບາງກົດລະບຽບເຫຼົ່ານີ້ອາດຈະບໍ່ສາມາດປະຕິບັດໄດ້.
ພິຈາລະນາຕົວຢ່າງຂອງຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກແຊກແຊງໃນເວລາທີ່ AI ແລະຄົນຂັບຂອງມະນຸດກໍາລັງຂັດແຍ້ງກ່ຽວກັບການຄວບຄຸມການຂັບຂີ່. ມັນອາດຈະໃຊ້ເວລາຫຼາຍວິນາທີສໍາລັບຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກເພື່ອຊອກຫາສິ່ງທີ່ກໍາລັງເກີດຂຶ້ນ. ເມື່ອເວລານັ້ນ, ຍານພາຫະນະອາດຈະສິ້ນສຸດລົງໃນຂຸມຫຼືມີຜົນທີ່ບໍ່ດີອື່ນໆ. ນອກຈາກນັ້ນ, ສົມມຸດວ່າສະຖານທີ່ຂອງຍານພາຫະນະກີດຂວາງການເຂົ້າເຖິງຫ່າງໄກສອກຫຼີກເຊັ່ນ: ຢູ່ໃນສະຖານທີ່ໃດຫນຶ່ງທີ່ບໍ່ມີການເຊື່ອມຕໍ່ເອເລັກໂຕຣນິກເຄືອຂ່າຍ. ຫຼືບາງທີຄຸນສົມບັດເຄືອຂ່າຍຂອງຍານພາຫະນະບໍ່ໄດ້ເຮັດວຽກໃນຊ່ວງເວລານັ້ນ.
ດັ່ງທີ່ເຈົ້າເຫັນ, ກົດລະບຽບອາດຈະເບິ່ງຢູ່ໃນເຈ້ຍ, ເຖິງແມ່ນວ່າການວາງກົດລະບຽບເຂົ້າໄປໃນການນໍາໃຊ້ຕົວຈິງອາດຈະເປັນວິທີການທີ່ຍາກຫຼາຍຫຼືມີໂອກາດສູງ. ເບິ່ງການຄຸ້ມຄອງຕາທີ່ສໍາຄັນຂອງຂ້ອຍກ່ຽວກັບຜູ້ປະຕິບັດງານທາງໄກຂອງຍານພາຫະນະອັດຕະໂນມັດແລະລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຂ້າພະເຈົ້າຕ້ອງການສະຫຼຸບໂດຍຫຍໍ້ກ່ຽວກັບຫົວຂໍ້ອື່ນທີ່ກ່ຽວຂ້ອງທີ່ຂ້າພະເຈົ້າຈະກວມເອົາໃນຄວາມເລິກຫຼາຍກວ່າເກົ່າໃນການວິເຄາະທີ່ຈະມາເຖິງ.
ຫນຶ່ງໃນຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນກ່ຽວກັບຍານພາຫະນະ autonomous ແລະລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ມີເຄິ່ງອັດຕະໂນມັດແມ່ນອັນທີ່ເອີ້ນວ່າ. ອາການມັນຕົ້ນຮ້ອນ.
ນີ້ແມ່ນການຈັດການ.
ລະບົບການຂັບລົດ AI ແລະມະນຸດກໍາລັງຂັບລົດຮ່ວມກັນ. ໄພພິບັດຮ້າຍແຮງເກີດຂຶ້ນ. AI ໄດ້ຖືກຕັ້ງໂຄງການໃຫ້ອອກຈາກວຽກງານການຂັບລົດແລະຫັນສິ່ງຂອງໄປຫາມະນຸດໃນເວລາທີ່ຮ້າຍແຮງໄດ້ເກີດຂຶ້ນ. ນີ້ເບິ່ງຄືວ່າ "ສົມເຫດສົມຜົນ" ທີ່ພວກເຮົາເບິ່ງຄືວ່າຈະຮຽກຮ້ອງກົດລະບຽບກ່ຽວກັບມະນຸດເປັນ "ຜູ້ຊະນະ" ໃນຕອນຕົ້ນໃນຄວາມບໍ່ເຫັນດີທາງດ້ານວິຊາຊີບໃດໆ.
ແຕ່ AI ຫຼຸດລົງອາດຈະເປັນສໍາລັບຈຸດປະສົງທີ່ຊົ່ວຮ້າຍກວ່າຫຼືພິຈາລະນາ insidious. ມັນອາດຈະເປັນວ່າຜູ້ຜະລິດລົດໃຫຍ່ຫຼືບໍລິສັດເຕັກໂນໂລຢີຂັບລົດດ້ວຍຕົນເອງບໍ່ຕ້ອງການ AI ຂອງພວກເຂົາຖືກຖືວ່າເປັນ "ຝ່າຍຜິດ" ເມື່ອອຸປະຕິເຫດລົດຍົນເກີດຂື້ນ. ເບິ່ງຄືວ່າເພື່ອຫຼີກເວັ້ນການຖືກຍຶດລົງແບບນັ້ນ, AI ໄດ້ມອບການຄວບຄຸມໃຫ້ມະນຸດຢ່າງກະທັນຫັນ. Voila, ມະນຸດໃນປັດຈຸບັນແມ່ນສົມມຸດວ່າມີຄວາມຮັບຜິດຊອບຢ່າງສົມບູນສໍາລັບຍານພາຫະນະ.
kicker ແມ່ນວ່າສົມມຸດວ່າ AI ເຮັດ handoff ນີ້, ໃຫ້ເວົ້າວ່າຫນຶ່ງວິນາທີທີ່ຈະໄປກ່ອນທີ່ຈະ crash ເກີດຂຶ້ນ.
ມະນຸດຈະມີເວລາພຽງພໍເພື່ອຫຼີກລ່ຽງອຸບັດເຫດດັ່ງກ່າວບໍ?
ອາດຈະບໍ່.
ສົມມຸດວ່າ AI ເຮັດ handoff ດ້ວຍສອງສາມມິນລິວິນາທີ ຫຼື nanoseconds ທີ່ເຫຼືອໄປ. ຂ້າພະເຈົ້າກ້າເວົ້າວ່າມະນຸດບໍ່ມີໂອກາດທີ່ຈະເຮັດຫຍັງເພື່ອປ້ອງກັນອຸປະຕິເຫດ.
ຈາກທັດສະນະຂອງຜູ້ຜະລິດລົດໃຫຍ່ຫຼືບໍລິສັດລົດໃຫຍ່ທີ່ຂັບລົດດ້ວຍຕົນເອງ, ພວກເຂົາສາມາດພະຍາຍາມປະຕິບັດຄືກັບວ່າມືຂອງພວກເຂົາສະອາດເມື່ອເກີດອຸປະຕິເຫດລົດຍົນ. ລົດດັ່ງກ່າວໄດ້ຖືກຄົນຂັບຂີ່. AI ບໍ່ໄດ້ຂັບລົດ. ການສະຫລຸບພຽງແຕ່ "ສົມເຫດສົມຜົນ" ເບິ່ງຄືວ່າມະນຸດຈະຕ້ອງມີຄວາມຜິດແລະ AI ຈະຕ້ອງບໍ່ມີຂໍ້ຜິດ.
ມັນເປັນ crock.
ຂ້າພະເຈົ້າຈະໄດ້ຮັບການປຶກສາຫາລືໃນຄວາມເລິກເພີ່ມເຕີມໃນຖັນທີ່ຈະມາເຖິງ.
ສະຫຼຸບ
ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບຈະເກີດຂຶ້ນ.
ມັນເປັນການຍາກທີ່ຈະຈິນຕະນາການວຽກງານທີ່ຊັບຊ້ອນທີ່ມີສອງພາກສ່ວນຮ່ວມກັນປະຕິບັດວຽກງານແລະສໍາລັບການທີ່ບໍ່ເຄີຍຈະມີຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບໃດໆເກີດຂື້ນ. ນີ້ເບິ່ງຄືວ່າເປັນ fantasyland ຫຼືຢ່າງຫນ້ອຍຫາຍາກທີ່ຍິ່ງໃຫຍ່.
ໃນມື້ນີ້, ພວກເຮົາມີຕົວຢ່າງຫຼາຍແລະຫຼາຍຂອງການຂັດແຍ້ງດ້ານວິຊາຊີບລະຫວ່າງມະນຸດກັບມະນຸດ, ເຊິ່ງໃນແຕ່ລະວັນການແກ້ໄຂແມ່ນໄດ້ໂດຍສັນຕິແລະ sensibly ຄິດອອກວິທີການຫນຶ່ງຫຼືອື່ນ. ໃນຄວາມເປັນຈິງ, ພວກເຮົາມັກຈະຕັ້ງສະຖານະການໂດຍເຈດຕະນາເພື່ອສົ່ງເສີມແລະແກ້ໄຂຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ. ເຈົ້າອາດຈະໂຕ້ຖຽງວ່າສິ່ງນີ້ສະແດງໃຫ້ເຫັນສະຕິປັນຍາທີ່ມີຊື່ສຽງທີ່ບາງຄັ້ງສອງຫົວດີກວ່າຫົວດຽວ.
ເມື່ອ AI ກາຍເປັນທີ່ແຜ່ຫຼາຍ, ພວກເຮົາຈະມີຜູ້ປະຕິບັດວຽກງານສອງຝ່າຍ AI-to-human ຫຼື human-to-AI ຫຼາຍແລະຈະມີ. ຄວາມຂັດແຍ້ງດ້ານວິຊາຊີບ ທີ່ຈະເກີດຂຶ້ນ. ວິທີການທີ່ຂີ້ຄ້ານແມ່ນການສະເຫມີໄປ defer ກັບມະນຸດ. ນີ້ອາດຈະບໍ່ແມ່ນວິທີການທີ່ເຫມາະສົມທີ່ສຸດ. AI ອາດຈະເປັນທາງເລືອກທີ່ດີກວ່າ. ຫຼືຫນຶ່ງໃນກົດລະບຽບອື່ນໆທີ່ໄດ້ກ່າວມາຂ້າງເທິງອາດຈະເປັນວິທີການທີ່ດີຂຶ້ນ.
ມັນມີເສັ້ນ sage ເລື້ອຍໆວ່າພວກເຮົາທຸກຄົນຄວນຈະສາມາດຕົກລົງເຫັນດີບໍ່ເຫັນດີນໍາ, ເຖິງແມ່ນວ່າໃນເວລາທີ່ມັນມາເຖິງສາຍ, ບາງຄັ້ງຄວາມຂັດແຍ້ງຕ້ອງໄດ້ຮັບການແກ້ໄຂຢ່າງຈະແຈ້ງ, ຖ້າບໍ່ດັ່ງນັ້ນເລື່ອງຢູ່ໃນມືຈະນໍາໄປສູ່ໄພພິບັດທີ່ບໍ່ສາມາດບອກໄດ້. ພວກເຮົາບໍ່ສາມາດພຽງແຕ່ປ່ອຍໃຫ້ຄວາມບໍ່ເຫັນດີທີ່ language ກ່ຽວກັບເຄືອ. ເວລາອາດຈະເປັນສິ່ງສຳຄັນ ແລະຊີວິດອາດຈະຢູ່ໃນຄວາມສ່ຽງ.
ມີຂໍ້ກໍານົດທີ່ຊັດເຈນສໍາລັບບາງວິທີການທີ່ລະມັດລະວັງເພື່ອແກ້ໄຂຄວາມບໍ່ເຫັນດີເຖິງແມ່ນວ່າບໍ່ຈໍາເປັນຕ້ອງມີຄວາມເຫັນດີນໍາ, ລວມທັງເວລາທີ່ AI ແລະມະນຸດຢູ່ໃນວົງແຫວນບໍ່ເຫັນຕາຕໍ່ຕາຫຼື byte-to-byte.
ຂ້າພະເຈົ້າເຊື່ອວ່າທ່ານຈະບໍ່ເຫັນດີກັບການໂຕ້ຖຽງທີ່ເຫັນດີພ້ອມທັງຫມົດ.
ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- the-pilot-and-co-pilot-disagreed- before-take-off-and-abruptly-opted-taxi-back-to-the-terminal-and-go-their-separate-ways/