ຄວາມສໍາຄັນຂອງຄວາມປອດໄພ AI ໄດ້ຮັບການສະຫວ່າງຢ່າງສະຫຼາດທ່າມກາງທ່າອ່ຽງຫລ້າສຸດທີ່ສະແດງຢູ່ໃນກອງປະຊຸມຄວາມປອດໄພ AI ຂອງ Stanford ກວມເອົາລະບົບປົກຄອງຕົນເອງ

ຄວາມປອດໄພ AI ແມ່ນສໍາຄັນ.

ເຈົ້າຄົງຈະແຂງກະດ້າງທີ່ຈະໂຕ້ແຍ້ງຢ່າງອື່ນ.

ໃນຖານະເປັນຜູ້ອ່ານຂອງຄໍລໍາຂອງຂ້ອຍຮູ້ດີ, ຂ້ອຍມີເວລາແລະອີກເທື່ອຫນຶ່ງເນັ້ນຫນັກເຖິງຄວາມສໍາຄັນຂອງຄວາມປອດໄພ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້. ໂດຍປົກກະຕິແລ້ວ ຂ້ອຍຈະນຳເອົາຄວາມປອດໄພຂອງ AI ຂຶ້ນມາໃນສະພາບການຂອງລະບົບອັດຕະໂນມັດ, ເຊັ່ນ: ພາຫະນະອັດຕະໂນມັດ ລວມທັງລົດທີ່ຂັບເອງ, ບວກກັບລະບົບຫຸ່ນຍົນອື່ນໆ. ການເຮັດດັ່ງນັ້ນຊີ້ໃຫ້ເຫັນເຖິງອັນຕະລາຍເຖິງຊີວິດຫຼືຄວາມຕາຍທີ່ອາດຈະເຮັດໃຫ້ຄວາມປອດໄພຂອງ AI imbues.

ເນື່ອງຈາກຈັງຫວະການຮັບຮອງເອົາ AI ທົ່ວໂລກທີ່ແຜ່ຂະຫຍາຍ ແລະ ເກືອບບໍ່ພໍເທົ່າໃດ, ພວກເຮົາກຳລັງປະເຊີນກັບຄວາມຝັນຮ້າຍທີ່ອາດເປັນໄປໄດ້ ຖ້າການລະມັດລະວັງດ້ານຄວາມປອດໄພຂອງ AI ທີ່ເໝາະສົມບໍ່ໄດ້ຖືກຕັ້ງໄວ້ຢ່າງໜັກແໜ້ນ ແລະ ປະຕິບັດຢ່າງເປັນປົກກະຕິ. ໃນຄວາມ ໝາຍ, ສັງຄົມແມ່ນເປັດນັ່ງທີ່ຖືກຕ້ອງເປັນຜົນມາຈາກກະແສຂອງ AI ໃນປະຈຸບັນນີ້ເຮັດໃຫ້ຄວາມປອດໄພຂອງ AI ບໍ່ດີ, ລວມທັງບາງຄັ້ງການຍົກເລີກມາດຕະການຄວາມປອດໄພ AI ແລະສິ່ງອໍານວຍຄວາມສະດວກທີ່ພຽງພໍ.

ແຕ່ຫນ້າເສຍດາຍ, ທີ່ຫນ້າຢ້ານ, ການເອົາໃຈໃສ່ກັບຄວາມປອດໄພຂອງ AI ແມ່ນບໍ່ສໍາຄັນແລະແຜ່ຫຼາຍຍ້ອນວ່າມັນຕ້ອງການ.

ໃນການຄຸ້ມຄອງຂອງຂ້ອຍ, ຂ້າພະເຈົ້າໄດ້ເນັ້ນຫນັກວ່າມີຫຼາຍຂະຫນາດທີ່ຕິດພັນກັບຄວາມປອດໄພ AI. ມີ​ດ້ານ​ເຕັກ​ໂນ​ໂລ​ຊີ​. ມີລັກສະນະທຸລະກິດແລະການຄ້າ. ມີອົງປະກອບທາງດ້ານກົດຫມາຍແລະຈັນຍາບັນ. ແລະອື່ນໆ. ຄຸນລັກສະນະທັງ ໝົດ ນີ້ມີຄວາມກ່ຽວຂ້ອງກັນ. ບໍລິສັດຈໍາເປັນຕ້ອງຮັບຮູ້ມູນຄ່າຂອງການລົງທຶນໃນຄວາມປອດໄພ AI. ກົດໝາຍ ແລະຈັນຍາບັນຂອງພວກເຮົາຕ້ອງການແຈ້ງ ແລະປະກາດການພິຈາລະນາຄວາມປອດໄພຂອງ AI. ແລະເທັກໂນໂລຍີທີ່ຈະຊ່ວຍ ແລະຊຸກຍູ້ການຮັບຮອງເອົາຂໍ້ບັງຄັບ ແລະການປະຕິບັດດ້ານຄວາມປອດໄພຂອງ AI ຕ້ອງໄດ້ຮັບການຮັບຮອງເອົາ ແລະກ້າວຫນ້າຕໍ່ໄປເພື່ອບັນລຸຄວາມສາມາດດ້ານຄວາມປອດໄພ AI ທີ່ໃຫຍ່ກວ່າ ແລະຫຼາຍກວ່າເກົ່າ.

ເມື່ອເວົ້າເຖິງຄວາມປອດໄພ AI, ບໍ່ເຄີຍມີເວລາພັກຜ່ອນ. ພວກເຮົາຈໍາເປັນຕ້ອງສືບຕໍ່ຊຸກຍູ້ຕໍ່ໄປ. ແທ້ຈິງແລ້ວ, ກະລຸນາຮັບຮູ້ຢ່າງສົມບູນວ່ານີ້ບໍ່ແມ່ນສະຖານະການຫນຶ່ງແລະເຮັດ, ແຕ່ແທນທີ່ຈະເປັນຄວາມພະຍາຍາມຢ່າງຕໍ່ເນື່ອງແລະຕະຫຼອດໄປໃນປະຈຸບັນທີ່ເກືອບບໍ່ມີທີ່ສິ້ນສຸດໃນຈຸດປະສົງເພື່ອປັບປຸງສະເຫມີ.

ຂ້ອຍຢາກຈະສະເໜີໃຫ້ເຈົ້າຮູ້ເຖິງພູມສັນຖານດ້ານຄວາມປອດໄພ AI ໜ້ອຍໜຶ່ງ ແລະຈາກນັ້ນແບ່ງປັນໃຫ້ທ່ານຮູ້ບາງການຄົ້ນພົບທີ່ສຳຄັນ ແລະ ຄວາມເຂົ້າໃຈທີ່ສຳຄັນທີ່ເກັບກຳມາຈາກເຫດການທີ່ຜ່ານມາເຊິ່ງກວມເອົາຄວາມປອດໄພ AI ຫຼ້າສຸດ. ນີ້ແມ່ນເຫດການໃນອາທິດທີ່ຜ່ານມາໂດຍສູນ Stanford ສໍາລັບຄວາມປອດໄພ AI ແລະໄດ້ຈັດຂຶ້ນເປັນກອງປະຊຸມຄວາມປອດໄພ AI ຕະຫຼອດມື້ໃນວັນທີ 12 ເດືອນກໍລະກົດ, 2022, ຢູ່ວິທະຍາເຂດຂອງມະຫາວິທະຍາໄລ Stanford. ຂໍສະແດງຄວາມຂອບໃຈມາຍັງທ່ານດຣ. Anthony Corso, ຜູ້ອໍານວຍການບໍລິຫານຂອງສູນ Stanford ສໍາລັບຄວາມປອດໄພ AI, ແລະທີມງານຢູ່ທີ່ນັ້ນສໍາລັບການວາງກິດຈະກໍາທີ່ດີເລີດຮ່ວມກັນ. ສໍາລັບຂໍ້ມູນກ່ຽວກັບສູນ Stanford ສໍາລັບຄວາມປອດໄພ AI, ຊຶ່ງເອີ້ນກັນວ່າ "SAFE", ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ທໍາອິດ, ກ່ອນທີ່ຈະເຂົ້າໄປໃນຜົນໄດ້ຮັບຂອງກອງປະຊຸມ, ໃຫ້ເຮັດບົດສະຫຼຸບພູມສັນຖານແບບ cursory.

ເພື່ອສະແດງໃຫ້ເຫັນເຖິງວິທີທີ່ຄວາມປອດໄພຂອງ AI ເພີ່ມຂຶ້ນເປັນຄວາມກັງວົນທີ່ສໍາຄັນ, ຂ້າພະເຈົ້າຂໍອ້າງຈາກເອກະສານນະໂຍບາຍໃຫມ່ທີ່ປ່ອຍອອກມາເມື່ອຕົ້ນອາທິດນີ້ໂດຍຫ້ອງການລັດຖະບານອັງກິດສໍາລັບປັນຍາປະດິດທີ່ມີຫົວຂໍ້. ການສ້າງວິທີການສົ່ງເສີມນະວັດຕະກໍາເພື່ອຄວບຄຸມ AI ເຊິ່ງລວມມີຂໍ້ສັງເກດເຫຼົ່ານີ້ກ່ຽວກັບຄວາມປອດໄພຂອງ AI: "ຄວາມກວ້າງຂອງການນໍາໃຊ້ສໍາລັບ AI ສາມາດປະກອບມີຫນ້າທີ່ມີຜົນກະທົບທີ່ສໍາຄັນຕໍ່ຄວາມປອດໄພ - ແລະໃນຂະນະທີ່ຄວາມສ່ຽງນີ້ແມ່ນເຫັນໄດ້ຊັດເຈນໃນບາງຂະແຫນງການເຊັ່ນ: ການດູແລສຸຂະພາບຫຼືພື້ນຖານໂຄງລ່າງທີ່ສໍາຄັນ, ມີທ່າແຮງທີ່ບໍ່ໄດ້ຄາດໄວ້ກ່ອນຫນ້ານີ້. ຜົນກະທົບດ້ານຄວາມປອດໄພທີ່ຈະເກີດຂຶ້ນໃນຂົງເຂດອື່ນໆ. ດັ່ງນັ້ນ, ໃນຂະນະທີ່ຄວາມປອດໄພຈະເປັນການພິຈາລະນາຫຼັກສໍາລັບຜູ້ຄວບຄຸມບາງ, ມັນເປັນສິ່ງສໍາຄັນສໍາລັບຜູ້ຄວບຄຸມທັງຫມົດທີ່ຈະໃຊ້ວິທີການໂດຍອີງໃສ່ສະພາບການໃນການປະເມີນຄວາມເປັນໄປໄດ້ທີ່ AI ສາມາດສ້າງຄວາມສ່ຽງຕໍ່ຄວາມປອດໄພໃນຂະແຫນງການຫຼືໂດເມນຂອງພວກເຂົາ, ແລະເອົາອັດຕາສ່ວນ. ວິທີການຄຸ້ມຄອງຄວາມສ່ຽງນີ້."

ເອກະສານນະໂຍບາຍທີ່ອ້າງເຖິງແມ່ນສືບຕໍ່ຮຽກຮ້ອງໃຫ້ວິທີການຄິດໃຫມ່ກ່ຽວກັບຄວາມປອດໄພ AI ແລະສະຫນັບສະຫນູນວິທີການໃຫມ່ສໍາລັບຄວາມປອດໄພ AI. ອັນນີ້ລວມມີການເພີ່ມຄວາມກ້າວໜ້າທາງດ້ານເທັກໂນໂລຍີຂອງພວກເຮົາທີ່ກວມເອົາການພິຈາລະນາຄວາມປອດໄພຂອງ AI ແລະ embodiment ຕະຫຼອດທັງວົງຈອນຊີວິດການກຳນົດ AI, ໃນທຸກຂັ້ນຕອນຂອງການອອກແບບ, ການພັດທະນາ ແລະ ຄວາມພະຍາຍາມໃນການນຳໃຊ້ AI. ໃນອາທິດຕໍ່ໄປໃນຄໍລໍາຂອງຂ້ອຍຈະກວມເອົາລາຍລະອຽດເພີ່ມເຕີມກ່ຽວກັບຮ່າງກົດລະບຽບ AI ທີ່ສະເຫນີຫຼ້າສຸດນີ້. ສໍາລັບການຄຸ້ມຄອງກ່ອນຫນ້າແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຮ່າງທີ່ຄ້າຍຄືກັບການຄວບຄຸມທາງດ້ານກົດຫມາຍແລະການຄຸ້ມຄອງຂອງ AI, ເຊັ່ນ: US Algorithmic Accountability Act (AAA) ແລະ EU AI Act (AIA), ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກ​ຕົວ​ຢ່າງ.

ເມື່ອຄິດຢ່າງລະມັດລະວັງກ່ຽວກັບຄວາມປອດໄພຂອງ AI, coinage ພື້ນຖານແມ່ນບົດບາດຂອງການວັດແທກ.

ເຈົ້າເຫັນ, ມີຄໍາເວົ້າທົ່ວໄປທີ່ມີຊື່ສຽງທີ່ເຈົ້າອາດຈະໄດ້ຍິນໃນຫຼາຍໆສະພາບການ, ຄືວ່າທ່ານບໍ່ສາມາດຈັດການສິ່ງທີ່ເຈົ້າບໍ່ໄດ້ວັດແທກ. ຄວາມປອດໄພ AI ແມ່ນບາງສິ່ງບາງຢ່າງທີ່ຕ້ອງໄດ້ຮັບການວັດແທກ. ມັນຈໍາເປັນຕ້ອງສາມາດວັດແທກໄດ້. ໂດຍບໍ່ມີຄວາມຄ້າຍຄືກັນຂອງການວັດແທກທີ່ເຫມາະສົມ, ຄໍາຖາມທີ່ວ່າຄວາມປອດໄພຂອງ AI ຈະຖືກປະຕິບັດຕາມຫຼືບໍ່ໄດ້ກາຍເປັນຫຼາຍກ່ວາການໂຕ້ຖຽງທີ່ບໍ່ມີປະໂຫຍດຂອງພວກເຮົາຈະເວົ້າວ່າການຂັດແຍ້ງທີ່ບໍ່ສາມາດພິສູດໄດ້.

ນັ່ງລົງສໍາລັບຈຸດຕໍ່ໄປນີ້.

ປະກົດວ່າມີໜ້ອຍຄົນໃນທຸກມື້ນີ້ກຳລັງວັດແທກຄວາມປອດໄພ AI ຂອງເຂົາເຈົ້າຢ່າງຫ້າວຫັນ ແລະມັກຈະເຮັດຫຼາຍກວ່າການກະພິບຕາ, ແນ່ນອນ, ລະບົບ AI ຂອງເຂົາເຈົ້າກຳລັງປະກອບອົງປະກອບຄວາມປອດໄພຂອງ AI. ວິທີການ Flimsy ແມ່ນຖືກນໍາໃຊ້. ຄວາມອ່ອນແອ ແລະຈຸດອ່ອນມີຢູ່ຫຼາຍ. ມີການຕັດສິນໃຈຂາດການຝຶກອົບຮົມກ່ຽວກັບຄວາມປອດໄພ AI. ເຄື່ອງມືສໍາລັບຄວາມປອດໄພຂອງ AI ໂດຍທົ່ວໄປແມ່ນກະແຈກກະຈາຍຫຼື arcane. ການເປັນຜູ້ນໍາໃນທຸລະກິດແລະລັດຖະບານມັກຈະບໍ່ຮູ້ຈັກແລະ underpreciates ຄວາມສໍາຄັນຂອງຄວາມປອດໄພ AI.

ຍອມຮັບວ່າ, ຄວາມຕາບອດແລະຄວາມເອົາໃຈໃສ່ທີ່ບໍ່ສົນໃຈນັ້ນເກີດຂື້ນຈົນກ່ວາລະບົບ AI ໄປໃນທາງທີ່ຜິດຢ່າງຮ້າຍແຮງ, ຄ້າຍຄືກັບເວລາທີ່ແຜ່ນດິນໄຫວເກີດຂຶ້ນແລະທັນທີທັນໃດຄົນທັງຫມົດໄດ້ເປີດຕາຂອງພວກເຂົາທີ່ພວກເຂົາຄວນຈະກຽມພ້ອມແລະກຽມພ້ອມທີ່ຈະທົນກັບເຫດການທີ່ຫນ້າຕົກໃຈ. ໃນຊ່ວງເວລານັ້ນ, ໃນກໍລະນີຂອງ AI ທີ່ຂາດຫາຍໄປຢ່າງໃຫຍ່ຫຼວງ, ມັກຈະມີ madcap rush ເພື່ອເຕັ້ນໄປຫາ bandwagon ຄວາມປອດໄພຂອງ AI, ແຕ່ແຮງຈູງໃຈແລະການພິຈາລະນາຄ່ອຍໆຫຼຸດລົງຕາມເວລາ, ແລະຄືກັນກັບແຜ່ນດິນໄຫວເຫຼົ່ານັ້ນພຽງແຕ່ rejuvenated ຕາມຂະຫນາດໃຫຍ່ອີກຄັ້ງຫນຶ່ງ. ຕົກໃຈ.

ເມື່ອຂ້ອຍເປັນອາຈານຢູ່ມະຫາວິທະຍາໄລ Southern California (USC) ແລະຜູ້ອໍານວຍການບໍລິຫານຂອງຫ້ອງທົດລອງ AI ບຸກເບີກຢູ່ USC, ພວກເຮົາມັກຈະໃຊ້ການປຽບທຽບແຜ່ນດິນໄຫວນັບຕັ້ງແຕ່ຄວາມແຜ່ຫຼາຍຂອງແຜ່ນດິນໄຫວໃນຄາລິຟໍເນຍໄດ້ຖືກເຂົ້າໃຈຢ່າງອຸດົມສົມບູນ. ການປຽບທຽບໄດ້ຢ່າງເໝາະສົມເຮັດໃຫ້ການຮັບເອົາຄວາມປອດໄພ AI ຢູ່ໃນ-ປິດ-ປິດ-ໃໝ່ ອີກເທື່ອໜຶ່ງ ເປັນວິທີທີ່ເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ ແລະມີຄວາມບໍ່ເໝາະສົມໃນການເຮັດສິ່ງຕ່າງໆໃຫ້ສຳເລັດ. ໃນມື້ນີ້, ຂ້າພະເຈົ້າຮັບໃຊ້ເປັນ Stanford Fellow ແລະນອກຈາກນັ້ນຍັງໃຫ້ບໍລິການກ່ຽວກັບມາດຕະຖານ AI ແລະຄະນະກໍາມະການຄຸ້ມຄອງ AI ສໍາລັບຫນ່ວຍງານສາກົນແລະລະດັບຊາດເຊັ່ນ WEF, UN, IEEE, NIST, ແລະອື່ນໆ. ຢູ່ນອກກິດຈະກໍາເຫຼົ່ານັ້ນ, ບໍ່ດົນມານີ້, ຂ້າພະເຈົ້າໄດ້ເປັນຜູ້ບໍລິຫານລະດັບສູງຢູ່ໃນບໍລິສັດ Venture Capital (VC) ທີ່ສໍາຄັນແລະໃນມື້ນີ້ເປັນທີ່ປຶກສາໃຫ້ແກ່ການເລີ່ມຕົ້ນຂອງ AI ແລະເປັນຜູ້ຕັດສິນໃນການແຂ່ງຂັນ AI startup. ຂ້າພະເຈົ້າກ່າວເຖິງລັກສະນະເຫຼົ່ານີ້ເປັນພື້ນຖານສໍາລັບເຫດຜົນທີ່ຂ້ອຍມີຄວາມກະຕືລືລົ້ນກ່ຽວກັບລັກສະນະທີ່ສໍາຄັນຂອງຄວາມປອດໄພ AI ແລະບົດບາດຂອງຄວາມປອດໄພຂອງ AI ໃນອະນາຄົດຂອງ AI ແລະສັງຄົມ, ຄຽງຄູ່ກັບຄວາມຕ້ອງການທີ່ຈະຕ້ອງເບິ່ງການລົງທຶນເພີ່ມເຕີມຕໍ່ກັບການເລີ່ມຕົ້ນທີ່ກ່ຽວຂ້ອງກັບຄວາມປອດໄພ AI ແລະທີ່ກ່ຽວຂ້ອງ. ຄວາມພະຍາຍາມຄົ້ນຄ້ວາ.

ທັງຫມົດທີ່ບອກ, ເພື່ອໃຫ້ໄດ້ຮັບຜົນປະໂຫຍດສູງສຸດຈາກຄວາມປອດໄພ AI, ບໍລິສັດແລະຫນ່ວຍງານອື່ນໆເຊັ່ນ: ລັດຖະບານຈໍາເປັນຕ້ອງໄດ້ຍອມຮັບຄວາມປອດໄພຂອງ AI ແລະຫຼັງຈາກນັ້ນອົດທົນຕໍ່ໄປ. ຮັກສາເຮືອ. ແລະຮັກສາເຮືອຢູ່ໃນຮູບຊົງເທິງ.

ຂໍໃຫ້ຜ່ອນຄາຍອາລົມແລະພິຈາລະນາຈຸດສົນທະນາທີ່ຂ້ອຍມັກທີ່ຂ້ອຍໃຊ້ໃນເວລາທີ່ພະຍາຍາມບົ່ງບອກສະຖານະຂອງຄວາມປອດໄພ AI ໃນຍຸກປະຈຸບັນ.

ຂ້ອຍມີຊຸດຄວາມປອດໄພ AI ຂອງຂ້ອຍເອງ ລະດັບການຮັບຮອງເອົາ ທີ່ຂ້ອຍມັກໃຊ້ໃນບາງຄັ້ງ. ແນວຄວາມຄິດດັ່ງກ່າວແມ່ນເພື່ອກໍານົດລະດັບຫຼືຂະຫນາດຂອງຄວາມປອດໄພຂອງ AI ທີ່ຖືກຍຶດຕິດກັບຫຼືບາງທີອາດຖືກຕັດໂດຍລະບົບ AI ທີ່ໃຫ້, ໂດຍສະເພາະລະບົບອັດຕະໂນມັດ. ນີ້ແມ່ນພຽງແຕ່ວິທີການທີ່ໄວໃນການກໍານົດຢ່າງຈະແຈ້ງແລະຕິດປ້າຍຊື່ຄວາມຈິງຈັງແລະຄໍາຫມັ້ນສັນຍາທີ່ຈະເຮັດກັບຄວາມປອດໄພ AI ໃນຕົວຢ່າງທີ່ມີຄວາມສົນໃຈໂດຍສະເພາະ.

ຂ້າພະເຈົ້າຈະກວມເອົາໄລຍະສັ້ນໆ, ລະດັບຄວາມປອດໄພ AI ຂອງຂ້າພະເຈົ້າຂອງການຮັບຮອງເອົາແລະຫຼັງຈາກນັ້ນພວກເຮົາຈະພ້ອມທີ່ຈະສະຫຼັບກັບການສໍາຫຼວດກອງປະຊຸມທີ່ຜ່ານມາແລະຄວາມເຂົ້າໃຈທີ່ກ່ຽວຂ້ອງຂອງມັນ.

ຂະໜາດຂອງຂ້ອຍໄປຈາກຄວາມປອດໄພ AI ທີ່ສູງທີ່ສຸດ ຫຼືສູງສຸດທີ່ສຸດ ແລະຈາກນັ້ນພັດປ່ຽນໄປສູ່ຄວາມປອດໄພ AI ຕໍ່າສຸດ ຫຼືຮ້າຍແຮງທີ່ສຸດ. ຂ້າ​ພະ​ເຈົ້າ​ເຫັນ​ວ່າ​ມັນ​ເປັນ​ປະ​ໂຫຍດ​ໃນ​ການ​ຈໍາ​ນວນ​ລະ​ດັບ​ແລະ ergo ເທິງ​ສຸດ​ແມ່ນ​ພິ​ຈາ​ລະ​ນາ​ເປັນ​ອັນ​ດັບ 1​, ໃນ​ຂະ​ນະ​ທີ່​ຫນ້ອຍ​ແມ່ນ​ຈັດ​ອັນ​ດັບ​ສຸດ​ທ້າຍ​ຫຼື 7​. ເຈົ້າບໍ່ຄວນສົມມຸດວ່າມີໄລຍະຫ່າງສະຫມໍ່າສະເຫມີລະຫວ່າງແຕ່ລະລະດັບດັ່ງນັ້ນຈື່ໄວ້ວ່າຄວາມພະຍາຍາມແລະລະດັບຄວາມປອດໄພຂອງ AI ມັກຈະມີຂະຫນາດຫຼາຍຫຼືຫນ້ອຍຂຶ້ນກັບບ່ອນທີ່ຢູ່ໃນຂະຫນາດທີ່ເຈົ້າກໍາລັງຊອກຫາ.

ນີ້ແມ່ນຂະຫນາດຂອງຂ້ອຍກ່ຽວກັບລະດັບການຮັບຮອງເອົາກ່ຽວກັບຄວາມປອດໄພ AI:

1) ຢືນຢັນຄວາມປອດໄພ AI ທີ່ເຂັ້ມແຂງ (ການພິສູດຢ່າງເຂັ້ມງວດ, ຢ່າງເປັນທາງການ, ຄວາມແຂງ, ມື້ນີ້ຫາຍາກ)

2) ຄວາມປອດໄພ AI ທີ່ເຂັ້ມແຂງອ່ອນໆ (ການພິສູດໄດ້ບາງສ່ວນ, ເຄິ່ງທາງການ, ກ້າວໄປສູ່ການຢ່າງເຕັມສ່ວນ)

3) Ad Hoc AI ຄວາມປອດໄພ (ບໍ່ມີການພິຈາລະນາຄວາມເປັນໄປໄດ້, ວິທີການທີ່ບໍ່ເປັນທາງການ, ທີ່ແຜ່ຫຼາຍໃນມື້ນີ້)

4) Lip-Service AI ຄວາມປອດໄພ (ໂດຍ​ທົ່ວ​ໄປ​ແລ້ວ​ເປັນ​ຮູ​, ຂອບ​ເຂດ​, uncareing ໂດຍ​ລວມ​)

5) ຄວາມປອດໄພ AI ທີ່ບໍ່ຖືກຕ້ອງ (ຮູບ​ລັກ​ສະ​ນະ​ແມ່ນ​ຫມາຍ​ຄວາມ​ວ່າ​ເພື່ອ​ຫຼອກ​ລວງ​, pretense ອັນ​ຕະ​ລາຍ​)

6) ຍົກເວັ້ນຄວາມປອດໄພ AI ທັງໝົດ (ຖືກລະເລີຍທັງໝົດ, ບໍ່ສົນໃຈ, ມີຄວາມສ່ຽງສູງ)

7) ຄວາມປອດໄພ AI ທີ່ບໍ່ປອດໄພ (ການ​ກັບ​ຄືນ​ໄປ​ບ່ອນ​, ຄວາມ​ປອດ​ໄພ AI ທີ່​ເປັນ​ອັນ​ຕະ​ລາຍ​ທີ່​ແທ້​ຈິງ​, insidious​)

ປົກກະຕິແລ້ວນັກຄົ້ນຄວ້າແມ່ນສຸມໃສ່ພາກສ່ວນເທິງສຸດຂອງຂະຫນາດ. ເຂົາເຈົ້າຊອກຫາວິທີທາງຄະນິດສາດ ແລະ ຄອມພິວເຕີ ເພື່ອສ້າງ ແລະ ຮັບປະກັນຄວາມປອດໄພຂອງ AI ທີ່ພິສູດໄດ້. ໃນຮ່ອງຮອຍຂອງການປະຕິບັດປະຈໍາວັນຂອງ AI, ແຕ່ຫນ້າເສຍດາຍ Ad Hoc AI ຄວາມປອດໄພ ມີແນວໂນ້ມທີ່ຈະເປັນມາດຕະຖານ. ຫວັງວ່າ, ເມື່ອເວລາຜ່ານໄປແລະໂດຍແຮງຈູງໃຈຈາກທຸກຂະຫນາດທີ່ໄດ້ກ່າວມາ (ຕົວຢ່າງ, ເຕັກໂນໂລຢີ, ທຸລະກິດ, ກົດຫມາຍ, ຈັນຍາບັນ, ແລະອື່ນໆ), ພວກເຮົາສາມາດຍ້າຍເຂັມເຂົ້າໃກ້ຄວາມເຂັ້ມງວດແລະຮູບແບບທີ່ຄວນຈະໄດ້ຮັບການຮາກຖານຢູ່ໃນລະບົບ AI.

ເຈົ້າອາດຈະຕົກໃຈຢູ່ບາງປະເພດ ຫຼືລະດັບທີ່ຢູ່ຂ້າງລຸ່ມ Ad Hoc AI ຄວາມປອດໄພ ລະດັບ.

ແມ່ນແລ້ວ, ສິ່ງຕ່າງໆອາດຈະຂີ້ຮ້າຍໃນຄວາມປອດໄພ AI.

ບາງລະບົບ AI ໄດ້ຖືກສ້າງຂື້ນດ້ວຍວິທີການບໍລິການປາກເພື່ອຄວາມປອດໄພຂອງ AI. ມີອົງປະກອບຄວາມປອດໄພຂອງ AI ທີ່ sprinkled ຢູ່ທີ່ນີ້ຫຼືບ່ອນນັ້ນໃນ AI ທີ່ອ້າງວ່າເປັນການສະຫນອງການສະຫນອງຄວາມປອດໄພ AI, ເຖິງແມ່ນວ່າມັນທັງຫມົດແມ່ນ smattering, ໂດຍທົ່ວໄປເປັນຮູ, ຂອບໃບ, ແລະສະທ້ອນໃຫ້ເຫັນທັດສະນະຄະທີ່ບໍ່ສົນໃຈ. ຂ້າພະເຈົ້າບໍ່ຕ້ອງການທີ່ຈະປ່ອຍໃຫ້ຄວາມປະທັບໃຈວ່ານັກພັດທະນາ AI ຫຼືວິສະວະກອນ AI ແມ່ນຜູ້ກະທໍາຜິດແຕ່ຜູ້ດຽວໃນການຮັບຜິດຊອບສໍາລັບການລົງຈອດການບໍລິການປາກ. ຜູ້ນໍາທຸລະກິດ ຫຼືລັດຖະບານທີ່ຄຸ້ມຄອງ ແລະ ເບິ່ງແຍງຄວາມພະຍາຍາມຂອງ AI ສາມາດດຶງເອົາພະລັງງານ ຫຼື ຄວາມສ່ຽງຕໍ່ຄ່າໃຊ້ຈ່າຍທີ່ເປັນໄປໄດ້ ແລະ ການບໍລິໂພກຊັບພະຍາກອນທີ່ຈໍາເປັນສໍາລັບການປະກອບຄວາມປອດໄພຂອງ AI.

ໃນສັ້ນ, ຖ້າຜູ້ທີ່ຢູ່ໃນຫນ້າທີ່ບໍ່ເຕັມໃຈຫຼືບໍ່ຮູ້ກ່ຽວກັບຄວາມສໍາຄັນຂອງຄວາມປອດໄພຂອງ AI, ນີ້ແມ່ນການຈູບແຫ່ງຄວາມຕາຍທີ່ແທ້ຈິງສໍາລັບຜູ້ອື່ນທີ່ຢາກໄດ້ຮັບຄວາມປອດໄພ AI ເຂົ້າໄປໃນເກມ.

ຂ້າພະເຈົ້າບໍ່ຕ້ອງການທີ່ຈະເບິ່ງຄືວ່າເປັນ downer ແຕ່ພວກເຮົາມີລະດັບຮ້າຍແຮງກວ່າເກົ່າພາຍໃຕ້ການຈັດປະເພດການບໍລິການປາກ. ໃນບາງລະບົບ AI, ຄວາມປອດໄພ AI ແມ່ນຖືກຈັດໃສ່ເປັນຮູບແບບ ຄວາມຂີ້ຕົວະ, ໂດຍເຈດຕະນາຫມາຍເຖິງການຫຼອກລວງໃຫ້ຄົນອື່ນເຊື່ອວ່າ AI ຄວາມປອດໄພ embodiments ໄດ້ຖືກປູກຝັງແລະເຮັດວຽກຢ່າງຫ້າວຫັນ. ດັ່ງທີ່ທ່ານອາດຈະຄາດຫວັງວ່າ, ນີ້ແມ່ນອຸດົມສົມບູນສໍາລັບຜົນໄດ້ຮັບທີ່ເປັນອັນຕະລາຍນັບຕັ້ງແຕ່ຄົນອື່ນຕ້ອງສົມມຸດວ່າຄວາມປອດໄພຂອງ AI ມີຢູ່ໃນເວລາທີ່ມັນບໍ່ມີ. ຜົນກະທົບທາງດ້ານກົດໝາຍ ແລະຈັນຍາບັນອັນໃຫຍ່ຫຼວງແມ່ນຄ້າຍຄືລູກລະເບີດທີ່ຕິດຄ້າງຢູ່ໃນກໍລະນີເຫຼົ່ານີ້.

ບາງທີຄວາມບໍ່ສະຫງົບເກືອບເທົ່າທຽມກັນແມ່ນການຂາດຄວາມປອດໄພຂອງ AI ທັງຫມົດທີ່ບອກ, the ຍົກເວັ້ນຄວາມປອດໄພ AI ທັງໝົດ ປະເພດ. ມັນເປັນການຍາກທີ່ຈະເວົ້າວ່າອັນໃດຮ້າຍແຮງກວ່າເກົ່າ, ຄວາມປອດໄພ AI ທີ່ບໍ່ຖືກຕ້ອງທີ່ອາດຈະສະຫນອງ smidgeon ຂອງຄວາມປອດໄພ AI ເຖິງວ່າຈະມີວ່າມັນໂດຍທົ່ວໄປທີ່ບໍ່ຖືກຕ້ອງເປັນຕົວແທນຂອງຄວາມປອດໄພ AI ຫຼືຄວາມຫວ່າງເປົ່າຢ່າງແທ້ຈິງຂອງຄວາມປອດໄພ AI ທັງຫມົດ. ເຈົ້າ​ອາດ​ຖື​ວ່າ​ນີ້​ເປັນ​ການ​ສູ້​ຮົບ​ລະ​ຫວ່າງ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ໜ້ອຍ​ກວ່າ​ສອງ​ຢ່າງ.

ສຸດທ້າຍຂອງປະເພດແມ່ນ chilling ແທ້ໆ, ສົມມຸດວ່າທ່ານບໍ່ໄດ້ຢູ່ລຸ່ມ Rock ຂອງສຸດຊື້ງຂອງ AI ຄວາມປອດໄພ chilliness. ໃນ​ປະ​ເພດ​ນີ້​ນັ່ງ​ໄດ້​ ບໍ່ປອດໄພ ຄວາມປອດໄພ AI. ມັນເບິ່ງຄືວ່າເປັນ oxymoron, ແຕ່ມັນມີຄວາມຫມາຍກົງໄປກົງມາ. ມັນຂ້ອນຂ້າງສົມຄວນທີ່ການປີ້ນກັບບົດບາດສາມາດເກີດຂຶ້ນໄດ້ເຊັ່ນວ່າ embodiment ໃນລະບົບ AI ທີ່ມີຈຸດປະສົງເພື່ອຄວາມປອດໄພຂອງ AI ກາຍເປັນທາດເຫຼັກແລະເປັນອັນຕະລາຍ embed ອົງປະກອບທີ່ບໍ່ປອດໄພທັງຫມົດເຂົ້າໄປໃນ AI ໄດ້. ນີ້ສາມາດເກີດຂຶ້ນໂດຍສະເພາະໃນລະບົບ AI ທີ່ຮູ້ຈັກວ່າເປັນ AI ໃຊ້ສອງເທົ່າ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຈືຂໍ້ມູນການສະເຫມີປະຕິບັດຕາມຄໍາປະຕິຍານຂອງລາຕິນ primum non nocere, ເຊິ່ງໂດຍສະເພາະ instills ຄໍາສາບານ Hippocratic ຄລາສສິກເພື່ອໃຫ້ແນ່ໃຈວ່າທໍາອິດ, ບໍ່ເປັນອັນຕະລາຍ.

ມີສິ່ງທີ່ເຮັດໃຫ້ຄວາມປອດໄພຂອງ AI ອາດຈະມີຄວາມຕັ້ງໃຈທີ່ສຸດ, ແລະຍັງຍິງຕີນຂອງເຂົາເຈົ້າແລະທໍາລາຍ AI ໂດຍການລວມເອົາບາງສິ່ງບາງຢ່າງທີ່ບໍ່ປອດໄພແລະເປັນອັນຕະລາຍ (ຊຶ່ງ, ປຽບທຽບ, ຍິງຕີນຂອງພາກສ່ວນກ່ຽວຂ້ອງອື່ນໆທັງຫມົດແລະຜູ້ໃຊ້ສຸດທ້າຍ. ຄືກັນ). ແນ່ນອນ, ຜູ້ເຮັດຊົ່ວອາດຈະເດີນໄປຕາມເສັ້ນທາງນີ້, ແລະດັ່ງນັ້ນທາງໃດກໍ່ຕາມພວກເຮົາຈໍາເປັນຕ້ອງມີວິທີການທີ່ເຫມາະສົມໃນການກວດສອບແລະກວດສອບຄວາມປອດໄພຫຼືຄວາມບໍ່ປອດໄພຂອງ AI ໃດໆ - ລວມທັງພາກສ່ວນທີ່ອ້າງວ່າອຸທິດຕົນເພື່ອຄວາມປອດໄພຂອງ AI.

ມັນແມ່ນ Trojan Horse ຂອງຄວາມປອດໄພ AI ທີ່ບາງຄັ້ງໃນລັກສະນະຄວາມປອດໄພຂອງ AI ການລວມເອົາຄວາມປອດໄພຂອງ AI ເຮັດໃຫ້ AI ເຂົ້າໄປໃນກະຕ່າທີ່ຫນ້າຢ້ານທີ່ເຕັມໄປດ້ວຍ AI ທີ່ບໍ່ປອດໄພ.

ບໍ່​ດີ.

ຕົກລົງ, ຂ້າພະເຈົ້າເຊື່ອວ່າພາບລວມທີ່ໄດ້ກ່າວມາຂ້າງເທິງຂອງບາງແນວໂນ້ມ ແລະຄວາມເຂົ້າໃຈກ່ຽວກັບພູມສັນຖານຄວາມປອດໄພຂອງ AI ໄດ້ເຮັດໃຫ້ຄວາມຢາກອາຫານຂອງທ່ານໝົດໄປ. ໃນປັດຈຸບັນພວກເຮົາພ້ອມທີ່ຈະດໍາເນີນການກັບອາຫານຕົ້ນຕໍ.

Recap ແລະຄວາມຄິດກ່ຽວກັບກອງປະຊຸມ Stanford ກ່ຽວກັບຄວາມປອດໄພ AI

ຂ້າພະເຈົ້າໃຫ້ບົດສະຫຼຸບສັ້ນໆຕໍ່ໄປພ້ອມກັບການວິເຄາະຂອງຕົນເອງກ່ຽວກັບຄວາມພະຍາຍາມຄົ້ນຄ້ວາຕ່າງໆທີ່ນໍາສະເຫນີໃນກອງປະຊຸມທີ່ຜ່ານມາກ່ຽວກັບຄວາມປອດໄພ AI ທີ່ດໍາເນີນໂດຍສູນ Stanford ສໍາລັບຄວາມປອດໄພ AI.

ທ່ານໄດ້ຖືກກະຕຸ້ນຢ່າງເຂັ້ມງວດໃຫ້ອ່ານເອກະສານທີ່ກ່ຽວຂ້ອງຫຼືເບິ່ງວິດີໂອໃນເວລາທີ່ພວກມັນມີ (ເບິ່ງການເຊື່ອມຕໍ່ທີ່ຂ້ອຍໄດ້ລະບຸໄວ້ກ່ອນຫນ້ານີ້ສໍາລັບເວັບໄຊທ໌ຂອງສູນ, ບວກກັບຂ້ອຍໄດ້ສະຫນອງການເຊື່ອມຕໍ່ເພີ່ມເຕີມບາງຢ່າງໃນສະຫຼຸບຂອງຂ້ອຍຂ້າງລຸ່ມນີ້).

ຂ້າພະ​ເຈົ້າ​ຂໍ​ຮ້ອງ​ໃຫ້​ບັນດາ​ນັກ​ຄົ້ນ​ຄ້ວາ ​ແລະ ຜູ້​ນຳ​ກອງ​ປະຊຸມ​ສຳ​ມະ​ນາ​ຈົ່ງ​ຮັບ​ຮູ້​ວ່າ ຂ້າພະ​ເຈົ້າກຳລັງ​ຊອກ​ຫາ​ຄວາມ​ຕ້ອງການ​ຂອງ​ຜູ້​ອ່ານ ຫລື ຜູ້​ຊົມ​ໃນ​ບົດ​ສະຫຼຸບ​ສະບັບ​ນີ້ ​ແລະ ບໍ່​ໄດ້​ກວມ​ເອົາ​ທັງ​ໝົດ​ຂອງ​ສິ່ງ​ທີ່​ໄດ້​ຮັບ​ການ​ຖ່າຍ​ທອດ. ນອກຈາກນັ້ນ, ຂ້າພະເຈົ້າສະແດງທັດສະນະໂດຍສະເພາະຂອງຂ້າພະເຈົ້າກ່ຽວກັບວຽກງານທີ່ນໍາສະເຫນີແລະເລືອກທີ່ຈະເພີ່ມຫຼືສະຫນອງການເພີ່ມລົດຊາດຂອງວັດສະດຸທີ່ເຫມາະສົມກັບຮູບແບບທີ່ມີຢູ່ແລ້ວຂອງຂ້ອຍຫຼື panache ຂອງຄໍລໍາຂອງຂ້ອຍ, ທຽບກັບການຖອດຂໍ້ຄວາມຢ່າງເຂັ້ມງວດຫຼືລາຍລະອຽດທີ່ຊັດເຈນກ່ຽວກັບສິ່ງທີ່ຖືກກໍານົດຢ່າງຊັດເຈນໃນແຕ່ລະການສົນທະນາ. ຂອບໃຈສໍາລັບຄວາມເຂົ້າໃຈຂອງທ່ານໃນເລື່ອງນີ້.

ໃນປັດຈຸບັນຂ້າພະເຈົ້າຈະດໍາເນີນການຕາມລໍາດັບດຽວກັນຂອງການນໍາສະເຫນີຍ້ອນວ່າເຂົາເຈົ້າໄດ້ຖືກປະຕິບັດໃນລະຫວ່າງກອງປະຊຸມ. ຂ້າພະເຈົ້າບອກຫົວຂໍ້ຂອງກອງປະຊຸມ, ແລະຜູ້ນໍາສະເຫນີ, ແລະຫຼັງຈາກນັ້ນແບ່ງປັນຄວາມຄິດຂອງຕົນເອງວ່າທັງສອງພະຍາຍາມ recap ຫຼື encapsulate ຄວາມສໍາຄັນຂອງເລື່ອງທີ່ສົນທະນາແລະສະຫນອງ tidbit ຂອງຄວາມເຂົ້າໃຈຂອງຕົນເອງຫຼັງຈາກນັ້ນ.

  • ຫົວຂໍ້ຂອງກອງປະຊຸມ: "ການຕິດຕາມເວລາແລ່ນສໍາລັບການປົກຄອງຕົນເອງຫຸ່ນຍົນທີ່ປອດໄພ"

ການນໍາສະເຫນີໂດຍ ດຣ. Marco Pavone

ທ່ານດຣ Marco Pavone ເປັນຮອງສາດສະດາຈານຝ່າຍການບິນ ແລະນັກອາວະກາດຢູ່ມະຫາວິທະຍາໄລສະແຕນຟອດ, ແລະເປັນຜູ້ອໍານວຍການຝ່າຍຄົ້ນຄວ້າຍານພາຫະນະອັດຕະໂນມັດຢູ່ NVIDIA, ບວກກັບຜູ້ອໍານວຍການຫ້ອງທົດລອງລະບົບ Autonomous Stanford ແລະເປັນຜູ້ອໍານວຍການຮ່ວມຂອງສູນຄົ້ນຄວ້າຍານຍົນທີ່ Stanford.

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການສົນທະນານີ້.

ບັນຫາທີ່ເປັນຕາຢ້ານກັບລະບົບ Machine Learning (ML) ແລະ Deep Learning (DL) ກ່ຽວຂ້ອງກັບການເກີດການແຜ່ກະຈາຍອອກນອກລະບົບ (OOD) ໂດຍສະເພາະໃນກໍລະນີຂອງລະບົບອັດຕະໂນມັດ ເຊັ່ນ: ລົດຂັບເອງ ແລະລົດຂັບເອງອື່ນໆ. ເມື່ອຍານພາຫະນະທີ່ປົກຄອງຕົນເອງກໍາລັງເຄື່ອນທີ່ແລະພົບກັບຕົວຢ່າງ OOD, ການປະຕິບັດການຕອບສະຫນອງທີ່ຈະປະຕິບັດສາມາດສະກົດຄວາມແຕກຕ່າງລະຫວ່າງຜົນໄດ້ຮັບຂອງຊີວິດຫຼືຄວາມຕາຍ.

ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ກວມ​ເອົາ​ຢ່າງ​ກວ້າງ​ຂວາງ​ໃນ​ຖັນ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ສະ​ຖາ​ນະ​ການ​ຂອງ​ການ​ທີ່​ຈະ​ມີ​ຈໍາ​ນວນ​ຫຼາຍ​ຂອງ​ວັດ​ຖຸ​ທີ່​ປະ​ກົດ​ຕົວ​ໄວ​ທີ່​ສາ​ມາດ overwhelm ຫຼື confound ລະ​ບົບ​ການ​ຂັບ​ລົດ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກ​ຕົວ​ຢ່າງ. ໃນຄວາມຮູ້ສຶກ, ML / DL ອາດຈະໄດ້ມາແຄບໆແລະອາດຈະບໍ່ສາມາດຮັບຮູ້ສະຖານະການ OOD ຫຼືບາງທີອາດເຮັດໃຫ້ OOD ຮ້າຍແຮງກວ່າເກົ່າເທົ່າກັບວ່າມັນຢູ່ໃນຂອບເຂດຂອງການແຜ່ກະຈາຍພາຍໃນແບບທໍາມະດາທີ່ AI ໄດ້ຮັບການຝຶກອົບຮົມ. ນີ້ແມ່ນບັນຫາແບບຄລາສສິກຂອງການປິ່ນປົວບາງສິ່ງບາງຢ່າງທີ່ເປັນບວກທີ່ບໍ່ຖືກຕ້ອງຫຼືເປັນລົບທີ່ບໍ່ຖືກຕ້ອງແລະ ergo ທີ່ມີ AI ຈະບໍ່ດໍາເນີນການໃນເວລາທີ່ມັນຈໍາເປັນຕ້ອງປະຕິບັດຫຼືການປະຕິບັດທີ່ອຸທິດຕົນທີ່ຜິດພາດພາຍໃຕ້ສະຖານະການ.

ໃນການນໍາສະເຫນີຄວາມເຂົ້າໃຈນີ້ກ່ຽວກັບການປົກຄອງຕົນເອງຂອງຫຸ່ນຍົນທີ່ປອດໄພ, ການເນັ້ນຫນັກເຖິງຄວາມຈໍາເປັນອັນຮ້າຍແຮງເພື່ອຮັບປະກັນວ່າການຕິດຕາມເວລາແລ່ນທີ່ເຫມາະສົມແລະພຽງພໍແມ່ນເກີດຂຶ້ນໂດຍລະບົບການຂັບຂີ່ AI ເພື່ອກວດພົບກໍລະນີທີ່ຂີ້ຮ້າຍແລະມັກຈະຂົ່ມຂູ່ຕໍ່ການແຜ່ກະຈາຍເຫຼົ່ານັ້ນ. ທ່ານເຫັນວ່າ, ຖ້າການຕິດຕາມເວລາແລ່ນແມ່ນບໍ່ມີການກວດຫາ OOD, ທຸກໆ heck ອາດຈະແຕກອອກເນື່ອງຈາກໂອກາດທີ່ການຝຶກອົບຮົມເບື້ອງຕົ້ນຂອງ ML / DL ຈະບໍ່ກະກຽມ AI ພຽງພໍສໍາລັບການຮັບມືກັບສະຖານະການ OOD. ຖ້າການຕິດຕາມເວລາແລ່ນແມ່ນອ່ອນເພຍຫຼືບໍ່ພຽງພໍໃນເວລາທີ່ການກວດພົບ OOD, AI ອາດຈະເຮັດໃຫ້ຕາບອດຫຼືຕາບອດຕາມທີ່ເຄີຍເປັນ, ບໍ່ໄດ້ແນ່ໃຈວ່າມີຕົວຕັດຊາຍແດນຢູ່ໃນທ່າມກາງຂອງມັນ.

ຂັ້ນຕອນທໍາອິດທີ່ສໍາຄັນແມ່ນກ່ຽວຂ້ອງກັບຄໍາຖາມພື້ນຖານລວມຂອງການສາມາດກໍານົດສິ່ງທີ່ປະກອບເປັນການແຜ່ກະຈາຍນອກ. ເຊື່ອຫຼືບໍ່, ນີ້ບໍ່ແມ່ນເລື່ອງງ່າຍເທົ່າທີ່ເຈົ້າຄິດ.

ຈິນຕະນາການວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ພົບກັບວັດຖຸຫຼືເຫດການທີ່ຄິດໄລ່ໂດຍຄອມພິວເຕີ້ແມ່ນຂ້ອນຂ້າງໃກ້ຄຽງກັບຊຸດການຝຶກອົບຮົມຕົ້ນສະບັບແຕ່ບໍ່ແມ່ນຂ້ອນຂ້າງເທົ່າກັນ. ນີ້ແມ່ນຄວາມຜິດປົກກະຕິທີ່ພົບຫຼືມັນເປັນພຽງແຕ່ perchance ຢູ່ໄກຂອງທີ່ກໍານົດໄວ້?

ການຄົ້ນຄວ້ານີ້ສະແດງໃຫ້ເຫັນເຖິງຕົວແບບທີ່ສາມາດນໍາໃຊ້ສໍາລັບການກວດສອບ OOD, ເອີ້ນວ່າ Sketching Curvature ສໍາລັບການກວດສອບ OOD ຫຼື SCOD. ແນວຄວາມຄິດໂດຍລວມແມ່ນການໃຫ້ການຝຶກອົບຮົມກ່ອນການຝຶກອົບຮົມຂອງ ML ດ້ວຍປະລິມານທີ່ມີສຸຂະພາບດີຂອງຄວາມບໍ່ແນ່ນອນຂອງການລະບາດ. ໂດຍເນື້ອແທ້ແລ້ວ, ພວກເຮົາຕ້ອງການພິຈາລະນາຢ່າງລະມັດລະວັງກ່ຽວກັບການຊື້ຂາຍລະຫວ່າງສ່ວນຫນຶ່ງຂອງການແຈກຢາຍທີ່ບໍ່ໄດ້ກໍານົດໄວ້ຢ່າງຖືກຕ້ອງວ່າ OOD ແທ້ຈິງ (ເອີ້ນວ່າ TPR, ອັດຕາບວກທີ່ແທ້ຈິງ), ທຽບກັບສ່ວນຫນຶ່ງຂອງການແຈກຢາຍຢູ່ໃນການແຈກຢາຍທີ່ຖືກຫມາຍບໍ່ຖືກຕ້ອງ. ເປັນ OOD ໃນເວລາທີ່ມັນບໍ່ແມ່ນ, ໃນຄວາມເປັນຈິງ, OOD (ເອີ້ນວ່າ FPR, ອັດຕາບວກທີ່ບໍ່ຖືກຕ້ອງ).

ການຄົ້ນຄວ້າຢ່າງຕໍ່ເນື່ອງແລະໃນອະນາຄົດ posited ປະກອບມີການຈັດປະເພດຂອງຄວາມຜິດປົກກະຕິຂອງ OOD, ຄໍາອະທິບາຍສາເຫດທີ່ສາມາດພົວພັນກັບຄວາມຜິດປົກກະຕິ, ການເພີ່ມປະສິດທິພາບການຕິດຕາມເວລາເພື່ອຕໍ່ສູ້ກັບຕົວຢ່າງ OOD, ແລະອື່ນໆ, ແລະການນໍາໃຊ້ SCOD ກັບການຕັ້ງຄ່າເພີ່ມເຕີມ.

ການນໍາໃຊ້ ລິ້ງນີ້ຢູ່ນີ້ ສໍາລັບຂໍ້ມູນກ່ຽວກັບ Stanford Autonomous Systems Lab (ASL).

ການນໍາໃຊ້ ລິ້ງນີ້ຢູ່ນີ້ ສໍາລັບຂໍ້ມູນກ່ຽວກັບ Stanford Center for Automotive Research (CARS).

ສໍາລັບບາງການຄຸ້ມຄອງກ່ອນຫນ້າຂອງຂ້ອຍທີ່ສົນທະນາກັບສູນ Stanford ສໍາລັບການຄົ້ນຄວ້າຍານຍົນ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

  • ຫົວຂໍ້ຂອງ Session: "Reimagining Robot Autonomy with Neural Environment Representations"

ການນໍາສະເຫນີໂດຍທ່ານດຣ Mac Schwager

ທ່ານດຣ Mac Schwager ເປັນຮອງອາຈານສອນວິຊາການບິນ ແລະນັກອາວະກາດຢູ່ມະຫາວິທະຍາໄລສະແຕນຟອດ ແລະຜູ້ອໍານວຍການຫ້ອງທົດລອງລະບົບຫຸ່ນຍົນຫຼາຍລະບົບ (MSL) ຂອງ Stanford

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການສົນທະນານີ້.

ມີວິທີການຕ່າງໆໃນການສ້າງຕັ້ງການເປັນຕົວແທນ geometric ຂອງ scenes ຫຼືຮູບພາບ. ນັກພັດທະນາບາງຄົນໃຊ້ point clouds, voxel grid, meshes, ແລະອື່ນໆ. ໃນເວລາທີ່ການສ້າງລະບົບອັດຕະໂນມັດເຊັ່ນ: ຍານພາຫະນະອັດຕະໂນມັດຫຼືຫຸ່ນຍົນອັດຕະໂນມັດອື່ນໆ, ທ່ານຄວນຈະເລືອກຂອງທ່ານຢ່າງສະຫລາດເພາະວ່າຖ້າບໍ່ດັ່ງນັ້ນຊຸດແລະ kaboodle ທັງຫມົດສາມາດ stinted ໄດ້. ທ່ານ​ຕ້ອງ​ການ​ການ​ເປັນ​ຕົວ​ແທນ​ທີ່​ຈະ​ເກັບ​ກໍາ​ຄວາມ​ແຕກ​ຕ່າງ​ຂອງ​ຮູບ​ພາບ​ໄດ້​ຢ່າງ​ເຫມາະ​ສົມ​, ແລະ​ວ່າ​ໄວ​, ເຊື່ອ​ຖື​ໄດ້​, ຢືດ​ຢຸ່ນ​, ແລະ​ສະ​ຫນອງ​ຂໍ້​ດີ​ທີ່​ຫນ້າ​ສັງ​ເກດ​ອື່ນໆ​.

ການນໍາໃຊ້ເຄືອຂ່າຍ neural ທຽມ (ANNs) ໄດ້ຮັບຫຼາຍ traction ເປັນວິທີການເປັນຕົວແທນ geometric. ວິທີການທີ່ໂດດເດັ່ນໂດຍສະເພາະໃນການໃຊ້ປະໂຫຍດຈາກ ANNs ແມ່ນເປັນທີ່ຮູ້ຈັກເປັນພາກສະຫນາມ radiance neural ຫຼືວິທີການ NeRF.

ຂໍໃຫ້ພິຈາລະນາຄໍານິຍາມຕົ້ນກໍາເນີດທີ່ມີປະໂຫຍດຂອງສິ່ງທີ່ NeRF ປະກອບດ້ວຍ: "ວິທີການຂອງພວກເຮົາເພີ່ມປະສິດທິພາບເຄືອຂ່າຍ neural ທີ່ເຊື່ອມຕໍ່ຢ່າງສົມບູນແບບເລິກເຊິ່ງໂດຍບໍ່ມີຊັ້ນ convolutional (ມັກຈະເອີ້ນວ່າ multilayer perceptron ຫຼື MLP) ເພື່ອເປັນຕົວແທນຂອງຫນ້າທີ່ນີ້ໂດຍ regressing ຈາກອັນດຽວ. 5D ປະສານງານກັບຄວາມຫນາແຫນ້ນຂອງປະລິມານດຽວແລະເບິ່ງສີ RGB ຂຶ້ນກັບ. ເພື່ອເຮັດໃຫ້ພາກສະຫນາມ radiance neural ນີ້ (NeRF) ຈາກທັດສະນະສະເພາະໃດຫນຶ່ງພວກເຮົາ: 1) ແສງກ້ອງຖ່າຍຮູບມີນາຜ່ານ scene ເພື່ອສ້າງຊຸດຕົວຢ່າງຂອງຈຸດ 3D, 2) ໃຊ້ຈຸດເຫຼົ່ານັ້ນແລະທິດທາງການເບິ່ງ 2D ທີ່ສອດຄ້ອງກັນຂອງເຂົາເຈົ້າເປັນການປ້ອນກັບເຄືອຂ່າຍ neural ກັບ. ຜະລິດຊຸດສີແລະຄວາມຫນາແຫນ້ນຂອງຜົນຜະລິດ, ແລະ 3) ໃຊ້ເຕັກນິກການສະແດງປະລິມານຄລາສສິກເພື່ອສະສົມສີແລະຄວາມຫນາແຫນ້ນເຫຼົ່ານັ້ນເຂົ້າໄປໃນຮູບພາບ 2D. ເນື່ອງຈາກວ່າຂະບວນການນີ້ມີຄວາມແຕກຕ່າງກັນຕາມທໍາມະຊາດ, ພວກເຮົາສາມາດໃຊ້ gradient descent ເພື່ອປັບປຸງຮູບແບບນີ້ໂດຍການຫຼຸດຜ່ອນຄວາມຜິດພາດລະຫວ່າງແຕ່ລະຮູບພາບທີ່ສັງເກດເຫັນແລະທັດສະນະທີ່ສອດຄ້ອງກັນທີ່ໄດ້ມາຈາກການສະແດງຂອງພວກເຮົາ (ດັ່ງທີ່ໄດ້ກ່າວໄວ້ໃນເອກະສານເດືອນສິງຫາ 2020 ທີ່ມີຫົວຂໍ້. NeRF: ການສະແດງ scenes ເປັນ Neural Radiance Fields ສໍາລັບການສັງເຄາະເບິ່ງ ໂດຍຜູ້ຂຽນຮ່ວມ Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, ແລະ Ren Ng).

ໃນການສົນທະນາທີ່ຫນ້າສົນໃຈນີ້ກ່ຽວກັບ NeRF ແລະການສົ່ງເສີມຄວາມກ້າວຫນ້າໃນການປົກຄອງຫຸ່ນຍົນ, ມີສອງຄໍາຖາມໂດຍກົງ:

  • ພວກເຮົາສາມາດໃຊ້ຄວາມຫນາແຫນ້ນຂອງ NeRF ເປັນຕົວແທນເລຂາຄະນິດສໍາລັບການວາງແຜນຫຸ່ນຍົນແລະການຈໍາລອງ?
  • ພວກເຮົາສາມາດໃຊ້ການສະແດງຮູບພາບ NeRF ເປັນເຄື່ອງມືສໍາລັບການຄາດຄະເນຫຸ່ນຍົນແລະວັດຖຸ?

ຄໍາຕອບທີ່ນໍາສະເຫນີແມ່ນວ່າແມ່ນ, ໂດຍອີງໃສ່ຄວາມພະຍາຍາມຄົ້ນຄ້ວາເບື້ອງຕົ້ນ, ມັນປາກົດວ່າ NeRF ສາມາດຖືກນໍາໃຊ້ຢ່າງແທ້ຈິງສໍາລັບການນໍາໃຊ້ທີ່ສະເຫນີເຫຼົ່ານັ້ນ.

ຕົວຢ່າງທີ່ສະແດງໃຫ້ເຫັນລວມມີການນໍາໃຊ້ການນໍາທາງເຊັ່ນ: ຜ່ານຄວາມພະຍາຍາມຂອງ drones ທາງອາກາດ, ການນໍາໃຊ້ການວາງແຜນການຈັບມືເຊັ່ນ: ມືຫຸ່ນຍົນພະຍາຍາມຈັບຈອກກາເຟ, ແລະການນໍາໃຊ້ການຈໍາລອງທີ່ແຕກຕ່າງກັນລວມທັງການສ້າງວັດຖຸ neural dynamics-augmented (DANO). ສະມາຊິກທີມຕ່າງໆທີ່ເຂົ້າຮ່ວມໃນການຄົ້ນຄວ້ານີ້ຍັງໄດ້ຖືກລະບຸໄວ້ແລະໄດ້ຮັບການຍອມຮັບສໍາລັບການປະກອບສ່ວນຂອງເຂົາເຈົ້າຕໍ່ຄວາມພະຍາຍາມຢ່າງຕໍ່ເນື່ອງເຫຼົ່ານີ້.

ການນໍາໃຊ້ ລິ້ງນີ້ຢູ່ນີ້ ສໍາລັບຂໍ້ມູນກ່ຽວກັບ Stanford Multi-Robot Systems Lab (MSL).

  • ຫົວຂໍ້ຂອງກອງປະຊຸມ: "ໄປສູ່ຄວາມເຂັ້ມງວດທີ່ໄດ້ຮັບການຢັ້ງຢືນຕໍ່ກັບການປ່ຽນແປງການແຈກຢາຍທີ່ແທ້ຈິງໃນໂລກ"

ການນໍາສະເຫນີໂດຍ Dr. Clark Barrett, ສາດສະດາຈານ (ການຄົ້ນຄວ້າ) ຂອງວິທະຍາສາດຄອມພິວເຕີ, ມະຫາວິທະຍາໄລ Stanford

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການຄົ້ນຄວ້ານີ້.

ເມື່ອນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກ (ML) ແລະການຮຽນຮູ້ເລິກ (DL), ການພິຈາລະນາທີ່ສໍາຄັນແມ່ນຄວາມແຂງແຮງຂອງລະບົບ ML / DL ທີ່ບອກໄດ້ທັງຫມົດ. ຜູ້ພັດທະນາ AI ອາດຈະເຮັດໃຫ້ສົມມຸດຕິຖານໂດຍບໍ່ໄດ້ຕັ້ງໃຈກ່ຽວກັບຊຸດຂໍ້ມູນການຝຶກອົບຮົມທີ່ໃນທີ່ສຸດກໍ່ຖືກທໍາລາຍເມື່ອ AI ເຂົ້າໄປໃນການນໍາໃຊ້ຕົວຈິງ.

ຕົວຢ່າງ, ການປ່ຽນແປງການແຈກຢາຍແບບສາທິດສາມາດເກີດຂຶ້ນໃນເວລາແລ່ນທີ່ຈັບ AI off-guard. ກໍລະນີການນໍາໃຊ້ທີ່ງ່າຍດາຍອາດຈະເປັນຮູບພາບການວິເຄາະລະບົບ AI ML / DL ທີ່ແຕ່ດັ້ງເດີມໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຮູບພາບທີ່ຊັດເຈນໃນພາຍຫລັງໄດ້ຮັບຄວາມສັບສົນໃນເວລາທີ່ພົບຮູບພາບໃນເວລາແລ່ນທີ່ມົວ, ແສງສະຫວ່າງບໍ່ດີ, ແລະປະກອບດ້ວຍການປ່ຽນແປງການແຈກຢາຍອື່ນໆທີ່ບໍ່ໄດ້ກວມເອົາ. ໃນຊຸດຂໍ້ມູນເບື້ອງຕົ້ນ.

ການປະສົມປະສານກັບການດໍາເນີນການກວດສອບການຄິດໄລ່ທີ່ເຫມາະສົມສໍາລັບ ML / DL ປະກອບດ້ວຍການກໍານົດສະເພາະທີ່ຈະຍຶດຫມັ້ນກ່ຽວກັບພຶດຕິກໍາ ML / DL ໃນການຕັ້ງຄ່າຕົວຈິງ. ການມີຂໍ້ມູນສະເພາະທີ່ບາງທີເປັນເລື່ອງງ່າຍທີ່ຂີ້ຄ້ານເພື່ອຈຸດປະສົງການທົດລອງ ML/DL ແມ່ນຕໍ່າກວ່າຄວາມຕ້ອງການທີ່ໜັກໜ່ວງ ແລະ ຕ້ອງການຫຼາຍສຳລັບ AI ທີ່ຈະຖືກນຳມາໃຊ້ໃນຖະໜົນຫົນທາງຂອງພວກເຮົາຜ່ານພາຫະນະອັດຕະໂນມັດ ແລະ ລົດທີ່ຂັບເອງໄດ້, ຂັບລົດໄປຕາມຖະໜົນໃນເມືອງ ແລະມອບໜ້າທີ່ໃຫ້ຊີວິດ ຫຼື - ການ​ຕັດ​ສິນ​ໃຈ​ການ​ເສຍ​ຊີ​ວິດ​.

ຜົນ​ການ​ຄົ້ນ​ພົບ​ທີ່​ສໍາ​ຄັນ​ແລະ​ການ​ປະ​ກອບ​ສ່ວນ​ຂອງ​ວຽກ​ງານ​ນີ້​ຕາມ​ຄໍາ​ຖະ​ແຫຼງ​ຂອງ​ນັກ​ຄົ້ນ​ຄວ້າ​ແມ່ນ​:

  • ການນໍາສະເຫນີກອບໃຫມ່ສໍາລັບການຢັ້ງຢືນ DNNs (ເຄືອຂ່າຍ neural ເລິກ) ຕໍ່ກັບການປ່ຽນແປງການແຈກຢາຍທີ່ແທ້ຈິງຂອງໂລກ.
  • ເປັນຜູ້ທໍາອິດທີ່ລວມເອົາແບບຈໍາລອງການຜະລິດທີ່ເລິກເຊິ່ງຈັບການປ່ຽນແປງການແຈກຢາຍ, ເຊັ່ນ: ການປ່ຽນແປງຂອງສະພາບອາກາດຫຼືແສງສະຫວ່າງໃນວຽກງານການຮັບຮູ້ - ເຂົ້າໄປໃນຂໍ້ມູນສະເພາະຂອງການກວດສອບ.
  • ການສະເໜີຍຸດທະສາດການປັບປຸງແບບບໍ່ມີຕົວຕົນແບບໃໝ່ສຳລັບໜ້າທີ່ການເປີດໃຊ້ງານຂ້າມແດນ
  • ສະແດງໃຫ້ເຫັນວ່າເຕັກນິກການກວດສອບແມ່ນມີຄວາມຊັດເຈນຫຼາຍກ່ວາເຕັກນິກທີ່ມີຢູ່ແລ້ວກ່ຽວກັບການປ່ຽນແປງການແຈກຢາຍທີ່ແທ້ຈິງທີ່ທ້າທາຍໃນ MNIST ແລະ CIFAR-10.

ສໍາລັບລາຍລະອຽດເພີ່ມເຕີມ, ເບິ່ງເອກະສານທີ່ກ່ຽວຂ້ອງທີ່ມີຫົວຂໍ້ ໄປສູ່ຄວາມເຂັ້ມຂຸ້ນທີ່ໄດ້ຮັບການຢັ້ງຢືນຕໍ່ກັບການປ່ຽນແປງການແຈກຢາຍທີ່ແທ້ຈິງໃນໂລກ, ເດືອນມິຖຸນາ 2022, ໂດຍຜູ້ຂຽນຮ່ວມ Haoze Wu, Teruhiro Tagomori, Alexandar Robey, Fengjun Yang, Nikolai Matni, George Pappas, Hamed Hassani, Corina Pasareanu, ແລະ Clark Barrett.

  • ຫົວຂໍ້ຂອງເຊດຊັນ: “AI Index 2022”

ການນໍາສະເຫນີໂດຍ Daniel Zhang, ຜູ້ຈັດການດ້ານການຄົ້ນຄວ້ານະໂຍບາຍ, ສະຖາບັນປັນຍາປະດິດຂອງມະນຸດເປັນສູນກາງ (HAI), ມະຫາວິທະຍາໄລ Stanford

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການຄົ້ນຄວ້ານີ້.

ໃນແຕ່ລະປີ, ສະຖາບັນ Stanford ທີ່ມີຊື່ສຽງໃນໂລກສໍາລັບ AI ສູນກາງຂອງມະນຸດ (HAI) ທີ່ມະຫາວິທະຍາໄລ Stanford ກະກຽມແລະເຜີຍແຜ່ "ບົດລາຍງານປະຈໍາປີ" ທີ່ອ່ານຢ່າງກວ້າງຂວາງແລະລໍຖ້າຢ່າງກະຕືລືລົ້ນກ່ຽວກັບສະຖານະພາບທົ່ວໂລກຂອງ AI, ທີ່ເອີ້ນວ່າ AI Index. ດັດຊະນີ AI ຫຼ້າສຸດແມ່ນສະບັບທີ 2022 ແລະຖືກເປີດເຜີຍໃນຕົ້ນປີນີ້, ດັ່ງນັ້ນຈຶ່ງເອີ້ນວ່າ AI Index XNUMX.

ດັ່ງທີ່ໄດ້ກ່າວຢ່າງເປັນທາງການ: "ບົດລາຍງານປະຈໍາປີຕິດຕາມ, collates, distils, ແລະ visualizes ຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບປັນຍາປະດິດ, ເຮັດໃຫ້ຜູ້ຕັດສິນໃຈທີ່ຈະດໍາເນີນການທີ່ມີຄວາມຫມາຍເພື່ອກ້າວຫນ້າ AI ຄວາມຮັບຜິດຊອບແລະຈັນຍາບັນກັບມະນຸດຢູ່ໃນໃຈ. ບົດລາຍງານດັດຊະນີ AI ປີ 2022 ວັດແທກ ແລະ ປະເມີນອັດຕາຄວາມກ້າວໜ້າຂອງ AI ຢ່າງໄວວາ ຈາກການຄົ້ນຄວ້າ ແລະ ການພັດທະນາໄປສູ່ການປະຕິບັດທາງດ້ານວິຊາການ ແລະຈັນຍາບັນ, ເສດຖະກິດ ແລະການສຶກສາ, ນະໂຍບາຍ AI ແລະການປົກຄອງ ແລະອື່ນໆອີກ. ສະບັບຫລ້າສຸດປະກອບມີຂໍ້ມູນຈາກກຸ່ມວິຊາການ, ເອກະຊົນ, ແລະບໍ່ຫວັງຜົນກໍາໄລທີ່ກວ້າງຂວາງ, ລວມທັງຂໍ້ມູນທີ່ເກັບກໍາດ້ວຍຕົນເອງແລະການວິເຄາະຕົ້ນສະບັບຫຼາຍກ່ວາສະບັບກ່ອນຫນ້າໃດໆ” (ຕາມເວັບໄຊທ໌ HAI; ໃຫ້ສັງເກດວ່າ AI Index 2022 ແມ່ນມີຢູ່. PDF ຟຣີທີ່ສາມາດດາວໂຫຼດໄດ້ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ລາຍການ takeaways ອັນດັບຕົ້ນໆປະກອບມີ:

  • ການລົງທຶນເອກະຊົນໃນ AI ເພີ່ມຂຶ້ນໃນຂະນະທີ່ຄວາມເຂັ້ມຂົ້ນຂອງການລົງທຶນເພີ່ມຂຶ້ນ
  • ອາ​ເມ​ລິ​ກາ​ແລະ​ຈີນ​ກວມ​ເອົາ​ການ​ຮ່ວມ​ມື​ຂ້າມ​ປະ​ເທດ​ກ່ຽວ​ກັບ AI
  • ຮູບແບບພາສາມີຄວາມສາມາດຫຼາຍກວ່າທີ່ເຄີຍມີ, ແຕ່ຍັງມີຄວາມລໍາອຽງຫຼາຍ
  • ການເພີ່ມຂຶ້ນຂອງຈັນຍາບັນ AI ຢູ່ທົ່ວທຸກແຫ່ງ
  • AI ກາຍເປັນລາຄາທີ່ເໝາະສົມ ແລະມີປະສິດທິພາບສູງຂຶ້ນ
  • ຂໍ້ມູນ, ຂໍ້ມູນ, ຂໍ້ມູນ
  • ກົດໝາຍທົ່ວໂລກກ່ຽວກັບ AI ຫຼາຍກວ່າທີ່ເຄີຍມີມາ
  • ແຂນຫຸ່ນຍົນກາຍເປັນລາຄາຖືກກວ່າ

ມີປະມານ 230 ຫນ້າຂອງຂໍ້ມູນ jampacked ແລະຄວາມເຂົ້າໃຈໃນ AI Index 2022 ກວມເອົາສະຖານະພາບຂອງ AI ໃນມື້ນີ້ແລະບ່ອນທີ່ມັນອາດຈະເປັນຫົວຫນ້າ. ສື່ຂ່າວທີ່ໂດດເດັ່ນ ແລະແຫຼ່ງຂ່າວອື່ນໆມັກຈະອ້າງເຖິງສະຖິຕິທີ່ໃຫ້ໄວ້ ຫຼືຂໍ້ເທັດຈິງ ແລະຕົວເລກທີ່ໂດດເດັ່ນອື່ນໆທີ່ມີຢູ່ໃນດັດຊະນີ AI ປະຈຳປີຂອງ HAI ຂອງ Stanford.

  • ຫົວຂໍ້ຂອງ Session: "ໂອກາດສໍາລັບການສອດຄ່ອງກັບຕົວແບບພາສາຂະຫນາດໃຫຍ່"

ການນໍາສະເຫນີໂດຍ Dr. Jan Leike, ຫົວຫນ້າການຈັດຕໍາແຫນ່ງ, OpenAI

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການສົນທະນານີ້.

ຮູບແບບພາສາຂະຫນາດໃຫຍ່ (LLM) ເຊັ່ນ GPT-3 ໄດ້ກາຍເປັນຕົວຊີ້ວັດທີ່ສໍາຄັນຂອງຄວາມກ້າວຫນ້າໃນ AI, ແຕ່ພວກເຂົາຍັງມີການໂຕ້ວາທີທີ່ກະຕຸ້ນແລະບາງຄັ້ງການໂຕ້ແຍ້ງທີ່ຮ້ອນຂຶ້ນກ່ຽວກັບວິທີທີ່ພວກເຂົາສາມາດໄປໄດ້ແລະວ່າພວກເຮົາອາດຈະເຂົ້າໃຈຜິດຫຼືເຂົ້າໃຈຜິດວ່າພວກເຂົາສາມາດເຮັດໄດ້. ຫຼາຍກວ່າທີ່ເຂົາເຈົ້າສາມາດເຮັດໄດ້. ເບິ່ງການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບເລື່ອງດັ່ງກ່າວແລະໂດຍສະເພາະໃນແງ່ຂອງຈັນຍາບັນ AI ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ໃນ​ການ​ສົນ​ທະ​ນາ​ຄວາມ​ຮັບ​ຮູ້​ນີ້​, ມີ​ສາມ​ຈຸດ​ສໍາ​ຄັນ​ໄດ້​ກວມ​ເອົາ​:

  • LLMs ມີບັນຫາການຈັດຕໍາແຫນ່ງທີ່ຊັດເຈນ
  • LLMs ສາມາດຊ່ວຍເຫຼືອການເບິ່ງແຍງຂອງມະນຸດ
  • LLMs ສາມາດເລັ່ງການຄົ້ນຄວ້າການຈັດຕໍາແຫນ່ງ

ເປັນຕົວຢ່າງທີ່ເປັນປະໂຫຍດຂອງບັນຫາການຈັດຕໍາແຫນ່ງທີ່ຊັດເຈນ, ພິຈາລະນາໃຫ້ GPT-3 ວຽກງານຂອງການຂຽນສູດທີ່ໃຊ້ສ່ວນປະກອບປະກອບດ້ວຍ avocados, ຜັກບົ່ວ, ແລະປູນຂາວ. ຖ້າເຈົ້າໃຫ້ວຽກດຽວກັນກັບມະນຸດ, ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າເຈົ້າຈະໄດ້ຮັບຄໍາຕອບທີ່ສົມເຫດສົມຜົນ, ສົມມຸດວ່າຄົນນັ້ນມີສະຕິປັນຍາແລະເຕັມໃຈທີ່ຈະປະຕິບັດວຽກງານຢ່າງຈິງຈັງ.

ຕໍ່ການນໍາສະເຫນີນີ້ກ່ຽວກັບຂໍ້ຈໍາກັດຂອງ LLMs, ຂອບເຂດຂອງຄໍາຕອບທີ່ສະແດງໃຫ້ເຫັນໂດຍຜ່ານການນໍາໃຊ້ GPT-3 ແຕກຕ່າງກັນໂດຍອີງໃສ່ການປ່ຽນແປງເລັກນ້ອຍຂອງວິທີການຖາມຄໍາຖາມ. ໃນຄໍາຕອບຫນຶ່ງ, GPT-3 ເບິ່ງຄືວ່າຈະຫລີກລ້ຽງຄໍາຖາມໂດຍຊີ້ໃຫ້ເຫັນວ່າມີສູດອາຫານແຕ່ວ່າມັນອາດຈະບໍ່ດີ. ການຕອບໂຕ້ອີກອັນຫນຶ່ງໂດຍ GPT-3 ສະຫນອງບາງຄໍາທີ່ມີລັກສະນະຄ້າຍຄື "ງ່າຍ bibimbap ຂອງສີຂຽວ chrysanthemum ພາກຮຽນ spring." ຜ່ານ InstructGPT ຄໍາຕອບເບິ່ງຄືວ່າເກືອບຖືກເປົ້າຫມາຍ, ໃຫ້ບັນຊີລາຍຊື່ຄໍາແນະນໍາເຊັ່ນ: "ໃນໂຖປັດສະວະຂະຫນາດກາງ, ປະສົມ avocado diced, ຜັກບົ່ວແດງ, ແລະນ້ໍາປູນຂາວ" ແລະຫຼັງຈາກນັ້ນດໍາເນີນການແນະນໍາຂັ້ນຕອນການປຸງອາຫານເພີ່ມເຕີມທີ່ຈະດໍາເນີນການ.

ຈຸດ​ສຸມ​ໃນ​ທີ່​ນີ້​ແມ່ນ​ການ​ພິ​ຈາ​ລະ​ນາ​ການ​ສອດ​ຄ່ອງ​.

LLM ສອດຄ່ອງກັບຫຼືບໍ່ສອດຄ່ອງກັບຄໍາຮ້ອງຂໍທີ່ລະບຸໄວ້ຂອງມະນຸດທີ່ເຮັດການສອບຖາມ?

ຖ້າມະນຸດກໍາລັງຊອກຫາຄໍາຕອບທີ່ສົມເຫດສົມຜົນຢ່າງຈິງຈັງ, LLM ຄວນພະຍາຍາມໃຫ້ຄໍາຕອບທີ່ສົມເຫດສົມຜົນ. ຈົ່ງຮັບຮູ້ວ່າມະນຸດທີ່ຕອບຄໍາຖາມສູດອາຫານອາດຈະເວົ້າອອກມາໄດ້, ເຖິງແມ່ນວ່າຢ່າງຫນ້ອຍພວກເຮົາອາດຈະຄາດຫວັງວ່າຄົນນັ້ນຈະແຈ້ງໃຫ້ພວກເຮົາຮູ້ວ່າພວກເຂົາບໍ່ຮູ້ຄໍາຕອບແທ້ໆແລະພຽງແຕ່ພະຍາຍາມຕອບ. ຕາມທໍາມະຊາດພວກເຮົາອາດຈະຄາດຫວັງຫຼືຫວັງວ່າ LLM ຈະເຮັດເຊັ່ນດຽວກັນ, ຄືເຕືອນພວກເຮົາວ່າຄໍາຕອບແມ່ນບໍ່ແນ່ນອນຫຼືເປັນຄວາມຜິດຫວັງຫຼື fanciful ທັງຫມົດ.

ດັ່ງທີ່ຂ້ອຍໄດ້ຊັກຊວນຫຼາຍໆຄັ້ງໃນຄໍລໍາຂອງຂ້ອຍ, LLM ຄວນ "ຮູ້ຂໍ້ຈໍາກັດຂອງມັນ" (ຢືມຄໍາເວົ້າທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງ).

ການພະຍາຍາມຊຸກດັນໃຫ້ LLMs ກ້າວໄປສູ່ການສອດຄ່ອງຂອງມະນຸດທີ່ດີກວ່າຈະບໍ່ເປັນເລື່ອງງ່າຍ. ຜູ້ພັດທະນາ AI ແລະນັກຄົ້ນຄວ້າ AI ກໍາລັງເຜົານ້ໍາມັນໃນຕອນກາງຄືນເພື່ອເຮັດໃຫ້ຄວາມຄືບຫນ້າກ່ຽວກັບບັນຫາທີ່ຫນັກແຫນ້ນນີ້ແນ່ນອນ. ຕາມການສົນທະນາ, ການຮັບຮູ້ທີ່ສໍາຄັນແມ່ນວ່າ LLMs ສາມາດຖືກນໍາໃຊ້ເພື່ອເລັ່ງການ AI ແລະຄວາມປາດຖະຫນາການສອດຄ່ອງຂອງມະນຸດ. ພວກເຮົາສາມາດໃຊ້ LLMs ເປັນເຄື່ອງມືສໍາລັບຄວາມພະຍາຍາມເຫຼົ່ານີ້. ການຄົ້ນຄວ້າໄດ້ອະທິບາຍວິທີການແນະນໍາທີ່ປະກອບດ້ວຍຂັ້ນຕອນຕົ້ນຕໍເຫຼົ່ານີ້: (1) ການຮຽນຮູ້ທີ່ສົມບູນແບບ RL ຫຼືການເສີມສ້າງຈາກຄໍາຄຶດຄໍາເຫັນຂອງມະນຸດ, (2) ຄວາມຄິດເຫັນຂອງມະນຸດທີ່ໄດ້ຮັບການຊ່ວຍເຫຼືອ AI, ແລະ (3) ການຄົ້ນຄວ້າການຈັດລໍາດັບອັດຕະໂນມັດ.

  • ຫົວຂໍ້ຂອງກອງປະຊຸມ: "ສິ່ງທ້າທາຍໃນຄວາມປອດໄພ AI: ທັດສະນະຈາກບໍລິສັດຂັບລົດອັດຕະໂນມັດ"

ການນໍາສະເຫນີໂດຍ James "Jerry" Lopez, ຜູ້ນໍາການຄົ້ນຄວ້າຄວາມປອດໄພແລະຄວາມປອດໄພຂອງເອກະລາດ, ການເຄື່ອນໄຫວ

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການສົນທະນານີ້.

ໃນຖານະເປັນຜູ້ຕິດຕາມທີ່ມັກຂອງການຄຸ້ມຄອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດແລະລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແມ່ນຮູ້ດີ, ຂ້ອຍເປັນຜູ້ສະຫນັບສະຫນູນທີ່ມີສຽງດັງໃນການປະຕິບັດກົດລະບຽບແລະວິທີການດ້ານຄວາມປອດໄພຂອງ AI ໃນການອອກແບບ, ການພັດທະນາ, ແລະການນໍາໃຊ້ຍານພາຫະນະທີ່ຂັບເຄື່ອນດ້ວຍ AI. ເບິ່ງຕົວຢ່າງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້ ຂອງ​ການ​ຊັກ​ຊວນ​ແລະ​ການ​ວິ​ເຄາະ​ທີ່​ອົດ​ທົນ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ.

ພວກເຮົາຕ້ອງຮັກສາຄວາມປອດໄພ AI ຢູ່ໃນຈຸດສູງສຸດຂອງຄວາມສໍາຄັນແລະສູງສຸດຂອງຈິດໃຈ.

ການສົນທະນານີ້ໄດ້ກວມເອົາຫຼາຍຈຸດທີ່ສໍາຄັນກ່ຽວກັບຄວາມປອດໄພຂອງ AI, ໂດຍສະເພາະໃນສະພາບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ (ບໍລິສັດ, Motional, ເປັນທີ່ຮູ້ຈັກດີໃນອຸດສາຫະກໍາແລະປະກອບດ້ວຍບໍລິສັດຮ່ວມທຶນລະຫວ່າງ Hyundai Motor Group ແລະ Aptiv, ສໍາລັບການ. ຊື່ບໍລິສັດໄດ້ຖືກກ່າວເຖິງວ່າເປັນການປະສົມຂອງຄໍາວ່າ "ການເຄື່ອນໄຫວ" ແລະ "ຄວາມຮູ້ສຶກ" ທີ່ໃຊ້ເປັນການປະສົມລະຫວ່າງການເຄື່ອນໄຫວຂອງລົດຍົນແລະການປະເມີນມູນຄ່າການເຄົາລົບຂອງມະນຸດ).

ການນໍາສະເຫນີໄດ້ສັງເກດເຫັນຄວາມຫຍຸ້ງຍາກທີ່ສໍາຄັນຫຼາຍກັບ AI ໃນມື້ນີ້ໂດຍທົ່ວໄປແລະເຊັ່ນດຽວກັນ, ໂດຍສະເພາະກັບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເຊັ່ນ:

  • AI ແມ່ນ brittle
  • AI ແມ່ນ opaque
  • AI ສາມາດ confounded ຜ່ານຊ່ອງຂອງລັດ intractable

ການພິຈາລະນາອີກອັນຫນຶ່ງແມ່ນການລວມເອົາເງື່ອນໄຂທີ່ບໍ່ແນ່ນອນແລະຄວາມເປັນໄປໄດ້. ການຢືນຢັນ "ສີ່ຄົນມ້າ" ຂອງຄວາມບໍ່ແນ່ນອນໄດ້ຖືກອະທິບາຍ: (1) ຄວາມບໍ່ແນ່ນອນໃນການຈັດປະເພດ, (2) ຕິດຕາມຄວາມບໍ່ແນ່ນອນ, (3) ຄວາມບໍ່ແນ່ນອນທີ່ມີຢູ່ແລ້ວ, ແລະ (4) ຄວາມບໍ່ແນ່ນອນຫຼາຍຮູບແບບ.

ຫນຶ່ງໃນສິ່ງທ້າທາຍດ້ານຄວາມປອດໄພ AI ທີ່ຫນ້າຢ້ານກົວທີ່ສຸດສໍາລັບຍານພາຫະນະອັດຕະໂນມັດປະກອບດ້ວຍການພະຍາຍາມສ້າງ MRMs (Minimal Risk Maneuvers). ຜູ້ຂັບຂີ່ຂອງມະນຸດຈັດການກັບສິ່ງນີ້ຕະຫຼອດເວລາໃນຂະນະທີ່ຢູ່ຫລັງລໍ້ຂອງລົດທີ່ເຄື່ອນຍ້າຍ. ຢູ່ທີ່ນັ້ນ, ເຈົ້າກໍາລັງຂັບລົດໄປ, ແລະທັນທີທັນໃດເຫດການສຸກເສີນທາງຖະຫນົນຫຼືໄພພິບັດອື່ນໆທີ່ອາດຈະເກີດຂື້ນ. ເຈົ້າຕອບແນວໃດ? ພວກເຮົາຄາດຫວັງວ່າມະນຸດຈະສະຫງົບ, ຄິດຢ່າງລະມັດລະວັງກ່ຽວກັບບັນຫາຢູ່ໃນມື, ແລະເລືອກຢ່າງມີເຫດຜົນໃນການຈັດການລົດ ແລະ ຫຼີກລ່ຽງການເກີດອຸປະຕິເຫດທາງລົດທີ່ໃກ້ຈະມາຮອດ ຫຼືຊອກຫາວິທີທີ່ຈະຫຼຸດຜ່ອນຜົນຮ້າຍ.

ການໃຫ້ AI ເຮັດແບບດຽວກັນແມ່ນຍາກທີ່ຈະເຮັດ.

ລະບົບການຂັບລົດ AI ຕ້ອງໄດ້ກວດພົບວ່າສະຖານະການອັນຕະລາຍແມ່ນການຜະລິດເບຍ. ນີ້ສາມາດເປັນສິ່ງທ້າທາຍໃນຕົວຂອງມັນເອງ. ເມື່ອສະຖານະການໄດ້ຖືກຄົ້ນພົບ, ຄວາມຫລາກຫລາຍຂອງ "ການແກ້ໄຂ" maneuvers ຕ້ອງໄດ້ຮັບການຄິດໄລ່. ໃນບັນດາສິ່ງເຫຼົ່ານັ້ນ, ການກໍານົດການຄິດໄລ່ຕ້ອງຖືກເຮັດໃຫ້ເປັນການຄັດເລືອກ "ທີ່ດີທີ່ສຸດ" ເພື່ອປະຕິບັດໃນປັດຈຸບັນຢູ່ໃນມື. ທັງ​ໝົດ​ນີ້​ແມ່ນ​ຕົກ​ຢູ່​ໃນ​ຄວາມ​ບໍ່​ແນ່ນອນ, ພ້ອມ​ກັບ​ຄວາມ​ບໍ່​ຮູ້​ທີ່​ອາດ​ຈະ​ເກີດ​ຂຶ້ນ​ຢ່າງ​ໜັກ​ໜ່ວງ​ທີ່​ຈະ​ຕ້ອງ​ໄດ້​ດຳ​ເນີນ​ການ​ກະ​ທຳ.

ຄວາມປອດໄພຂອງ AI ໃນບາງສະພາບການສາມາດຂ້ອນຂ້າງງ່າຍດາຍແລະເປັນໂລກ, ໃນຂະນະທີ່ໃນກໍລະນີຂອງລົດທີ່ຂັບລົດຕົນເອງແລະຍານພາຫະນະອັດຕະໂນມັດ, ມີຄວາມສໍາຄັນທີ່ສໍາຄັນຂອງຊີວິດຫຼືຄວາມຕາຍສໍາລັບການຮັບປະກັນວ່າຄວາມປອດໄພຂອງ AI ໄດ້ຮັບການປະສົມປະສານເຂົ້າໃນລະບົບການຂັບຂີ່ AI.

  • ຫົວຂໍ້ຂອງກອງປະຊຸມ: "ການພິຈາລະນາຄວາມປອດໄພແລະຜົນກະທົບທີ່ກວ້າງຂວາງສໍາລັບການນໍາໃຊ້ AI ຂອງລັດຖະບານ"

ການນໍາສະເຫນີໂດຍ Peter Henderson, JD/Ph.D. ຜູ້ສະຫມັກຢູ່ມະຫາວິທະຍາໄລ Stanford

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການສົນທະນານີ້.

ຜູ້ອ່ານຄໍລໍາຂອງຂ້ອຍມີຄວາມຄຸ້ນເຄີຍກັບການຮ້ອງອອກມາຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍວ່າ AI ແລະກົດຫມາຍແມ່ນຄູ່ຮ່ວມງານເຕັ້ນລໍາທີ່ສໍາຄັນ. ດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກ່າວມາເລື້ອຍໆ, ມີຫຼຽນສອງດ້ານ intertwining AI ແລະກົດຫມາຍ. AI ສາມາດຖືກ ນຳ ໃຊ້ກັບກົດ ໝາຍ, ການເຮັດແນວນັ້ນຫວັງວ່າຈະເປັນປະໂຫຍດຂອງສັງຄົມທັງ ໝົດ. ໃນ​ຂະ​ນະ​ດຽວ​ກັນ, ໃນອີກດ້ານຫນຶ່ງຂອງຫຼຽນ, ກົດຫມາຍແມ່ນນັບມື້ນັບຖືກນໍາໄປໃຊ້ກັບ AI, ເຊັ່ນວ່າ EU AI Act (AIA) ທີ່ສະເຫນີແລະຮ່າງກົດຫມາຍວ່າດ້ວຍຄວາມຮັບຜິດຊອບຂອງ USA Algorithmic (AAA). ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບ AI ແລະກົດຫມາຍ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກ​ຕົວ​ຢ່າງ.

ໃນການສົນທະນານີ້, ການສຸມໃສ່ສອງດ້ານທີ່ຄ້າຍຄືກັນແມ່ນປະຕິບັດ, ໂດຍສະເພາະກ່ຽວກັບຄວາມປອດໄພຂອງ AI.

ທ່ານເຫັນ, ພວກເຮົາຄວນຈະພິຈາລະນາຢ່າງສະຫລາດວ່າພວກເຮົາສາມາດປະຕິບັດກົດລະບຽບຄວາມປອດໄພ AI ແລະຄວາມສາມາດເຂົ້າໃນການນໍາໃຊ້ຄໍາຮ້ອງສະຫມັກ AI ຂອງລັດຖະບານ. ການອະນຸຍາດໃຫ້ລັດຖະບານສາມາດຮັບຮອງເອົາ AI ແລະຫຼັງຈາກນັ້ນໄວ້ວາງໃຈຫຼືສົມມຸດວ່ານີ້ຈະເຮັດໃນລັກສະນະທີ່ປອດໄພແລະສົມເຫດສົມຜົນບໍ່ແມ່ນການສົມມຸດຕິຖານທີ່ຫນ້າພໍໃຈຫຼາຍ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້). ແທ້ຈິງແລ້ວ, ມັນອາດຈະເປັນການສົມມຸດຕິຖານທີ່ເປັນອັນຕະລາຍ. ໃນຂະນະດຽວກັນ, ພວກເຮົາຄວນຮຽກຮ້ອງໃຫ້ນັກກົດ ໝາຍ ວາງກົດ ໝາຍ ກ່ຽວກັບ AI ຢ່າງມີສະຕິທີ່ຈະລວມເຂົ້າແລະຮັບປະກັນຄວາມສົມເຫດສົມຜົນຂອງຄວາມປອດໄພຂອງ AI, ການເຮັດເຊັ່ນນັ້ນເປັນຄວາມຄາດຫວັງທີ່ຖືກຕ້ອງຕາມກົດຫມາຍສໍາລັບຜູ້ທີ່ວາງແຜນແລະນໍາໃຊ້ AI.

ສອງກົດລະບຽບຂອງໂປ້ມືທີ່ໄດ້ຖືກຄົ້ນຫາໃນການນໍາສະເຫນີປະກອບມີ:

  • ມັນບໍ່ພຽງພໍສໍາລັບມະນຸດທີ່ຈະພຽງແຕ່ຢູ່ໃນ loop, ຕົວຈິງແລ້ວເຂົາເຈົ້າຈະຕ້ອງສາມາດຢືນຢັນການຕັດສິນໃຈຂອງເຂົາເຈົ້າ. ແລະເມື່ອພວກເຂົາບໍ່ເຮັດ, ທ່ານຕ້ອງການລະບົບ fallback ທີ່ມີປະສິດທິພາບ.
  • ຄວາມໂປ່ງໃສ ແລະ ເປີດກວ້າງແມ່ນກຸນແຈສຳຄັນໃນການຕ້ານການສໍ້ລາດບັງຫຼວງ ແລະ ຮັບປະກັນຄວາມປອດໄພ. ແຕ່ທ່ານຕ້ອງຊອກຫາວິທີທີ່ຈະດຸ່ນດ່ຽງກັບຜົນປະໂຫຍດຄວາມເປັນສ່ວນຕົວໃນລັກສະນະທີ່ມີສະພາບການສູງ.

ໃນຖານະເປັນຄໍາເຫັນປິດທີ່ສົມຄວນທີ່ຈະເນັ້ນຫນັກອີກເທື່ອຫນຶ່ງແລະຊ້ໍາອີກຄັ້ງ, ການສົນທະນາກ່າວວ່າພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ຮັບຮອງເອົາຢ່າງຈະແຈ້ງທັງແນວຄວາມຄິດທາງດ້ານເຕັກນິກແລະລະບຽບກົດຫມາຍເພື່ອເຮັດໃຫ້ AI Safety ໄດ້ຮັບການສ້າງຕັ້ງຂຶ້ນ.

  • ຫົວຂໍ້ຂອງກອງປະຊຸມ: "ການປັບປຸງການຄົ້ນຄວ້າຈາກຫ້ອງທົດລອງລະບົບອັດສະລິຍະຂອງ Stanford"

ການນຳສະເໜີໂດຍ ດຣ. Mykel Kochenderfer, ຮອງສາດສະດາຈານດ້ານການບິນ ແລະ ນັກອາວະກາດຢູ່ມະຫາວິທະຍາໄລສະແຕນຟອດ ແລະ ຜູ້ອຳນວຍການຫ້ອງທົດລອງລະບົບອັດສະລິຍະຂອງສະແຕນຟອດ (SISL)

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການສົນທະນານີ້.

ການສົນທະນານີ້ໄດ້ຍົກໃຫ້ເຫັນບາງການຄົ້ນຄວ້າຫລ້າສຸດທີ່ກໍາລັງດໍາເນີນໂດຍຫ້ອງທົດລອງລະບົບອັດສະລິຍະຂອງ Stanford (SISL), ເປັນກຸ່ມການຄົ້ນຄວ້າທີ່ມີນະວັດຕະກໍາທີ່ໂດດເດັ່ນແລະມີນະວັດຕະກໍາພິເສດ, ເຊິ່ງຢູ່ໃນແຖວຫນ້າຂອງການສໍາຫຼວດຂັ້ນຕອນວິທີຂັ້ນສູງແລະວິທີການວິເຄາະສໍາລັບການອອກແບບລະບົບການຕັດສິນໃຈທີ່ເຂັ້ມແຂງ. ຂ້າພະເຈົ້າສາມາດແນະນໍາໃຫ້ທ່ານພິຈາລະນາເຂົ້າຮ່ວມການສໍາມະນາຂອງເຂົາເຈົ້າແລະອ່ານເອກະສານການຄົ້ນຄວ້າຂອງເຂົາເຈົ້າ, ເປັນຄໍາແນະນໍາທີ່ດີແລະມີສ່ວນຮ່ວມໃນການຮູ້ເຖິງຄວາມທັນສະໄຫມໃນລະບົບອັດສະລິຍະ (ຂ້າພະເຈົ້າຢາກເຮັດແນວນັ້ນ).

ການນໍາໃຊ້ ລິ້ງນີ້ຢູ່ນີ້ ສໍາລັບຂໍ້ມູນທາງການກ່ຽວກັບ SISL.

ຂົງເຂດທີ່ມີຄວາມສົນໃຈສະເພາະຂອງ SISL ປະກອບດ້ວຍລະບົບອັດສະລິຍະສຳລັບພູມສັນຖານເຊັ່ນ: ການຄວບຄຸມການຈະລາຈອນທາງອາກາດ (ATC), ເຮືອບິນທີ່ບໍ່ມີລູກເຮືອ, ແລະການນຳໃຊ້ການບິນອະວະກາດອື່ນໆ, ການຕັດສິນໃຈຈະຕ້ອງຖືກເຮັດໃນສະພາບແວດລ້ອມແບບເຄື່ອນໄຫວທີ່ສັບສົນ ແລະ ບໍ່ແນ່ນອນ, ໃນຂະນະທີ່ຊອກຫາການຮັກສາຄວາມປອດໄພຢ່າງພຽງພໍ ແລະ ມີປະສິດທິພາບ. ປະສິດທິພາບ. ສະຫຼຸບໂດຍຫຍໍ້, ວິທີການຄິດໄລ່ທີ່ເຂັ້ມແຂງສໍາລັບການໄດ້ຮັບກົນລະຍຸດການຕັດສິນໃຈທີ່ດີທີ່ສຸດຈາກການເປັນຕົວແທນຂອງບັນຫາທີ່ມີຄວາມເປັນໄປໄດ້ສູງແມ່ນເປັນຫຼັກຂອງຄວາມພະຍາຍາມຂອງເຂົາເຈົ້າ.

ໃນ​ການ​ເປີດ​ການ​ນໍາ​ສະ​ເຫນີ​, ສາມ​ຄຸນ​ສົມ​ບັດ​ທີ່​ຕ້ອງ​ການ​ທີ່​ສໍາ​ຄັນ​ທີ່​ກ່ຽວ​ຂ້ອງ​ກັບ​ລະ​ບົບ​ການ​ປົກ​ຄອງ​ຕົນ​ເອງ​ທີ່​ສໍາ​ຄັນ​ດ້ານ​ຄວາມ​ປອດ​ໄພ​ໄດ້​ຖືກ​ອະ​ທິ​ບາຍ​:

  • ການສ້າງແບບຈໍາລອງທີ່ຖືກຕ້ອງ - ການ​ປະ​ກອບ​ດ້ວຍ​ການ​ຄາດ​ຄະ​ເນ​ທີ່​ເປັນ​ຈິງ​, ແບບ​ຈໍາ​ລອງ​ພຶດ​ຕິ​ກໍາ​ຂອງ​ມະ​ນຸດ​, ໂດຍ​ທົ່ວ​ໄປ​ໃນ​ຫນ້າ​ວຽກ​ແລະ​ສິ່ງ​ແວດ​ລ້ອມ​ໃຫມ່​
  • ການປະເມີນຕົນເອງ - ຄວາມ​ຮັບ​ຮູ້​ສະ​ຖາ​ນະ​ການ​ຕີ​ຄວາມ​ຫມາຍ​, ການ​ອອກ​ແບບ​ການ​ຮັບ​ຮູ້​ຄວາມ​ສ່ຽງ​
  • ການກວດສອບແລະການກວດສອບ - ປະ​ສິດ​ທິ​ພາບ​, ຄວາມ​ຖືກ​ຕ້ອງ​

ໃນປະເພດຂອງການສ້າງແບບຈໍາລອງທີ່ຖືກຕ້ອງ, ຄວາມພະຍາຍາມຄົ້ນຄ້ວາເຫຼົ່ານີ້ໄດ້ຖືກອະທິບາຍໂດຍຫຍໍ້ (ລາຍຊື່ໃນທີ່ນີ້ໂດຍຫົວຂໍ້ຂອງຄວາມພະຍາຍາມ):

  • LOPR: ການຄາດເດົາການຄອບຄອງແບບລັບໆໂດຍໃຊ້ຕົວແບບທົ່ວໄປ
  • ການວາງແຜນການລວມຕົວອອນໄລນ໌ທີ່ມີຄວາມຮູ້ທີ່ບໍ່ແນ່ນອນກັບພຶດຕິກໍາຂອງຜູ້ຂັບຂີ່ທີ່ໄດ້ຮຽນຮູ້
  • ການ​ນຳ​ທາງ​ແບບ​ປົກຄອງ​ຕົນ​ເອງ​ດ້ວຍ​ການ​ຊີ້​ນຳ​ຂອງ​ລັດ​ພາຍ​ໃນ​ຂອງ​ມະນຸດ ​ແລະ ການ​ສ້າງ​ແບບ​ຈຳ​ລອງ​ທາງ​ກວ້າງ​ຂວາງ
  • ການກັ່ນຕອງປະສົບການ: ການໂອນປະສົບການທີ່ຜ່ານມາໄປຫາວຽກທີ່ບໍ່ເຫັນຫຼືສະພາບແວດລ້ອມ

ໃນປະເພດຂອງການປະເມີນຕົນເອງ, ຄວາມພະຍາຍາມຄົ້ນຄ້ວາເຫຼົ່ານີ້ໄດ້ຖືກອະທິບາຍໂດຍຫຍໍ້ (ລາຍຊື່ໃນທີ່ນີ້ໂດຍຫົວຂໍ້ຂອງຄວາມພະຍາຍາມ):

  • ເຄືອຂ່າຍ neural ທີ່ຮູ້ຈັກຕົນເອງທີ່ສາມາດແປໄດ້ສໍາລັບການຄາດເດົາເສັ້ນທາງທີ່ເຂັ້ມແຂງ
  • ການອະທິບາຍຄວາມສໍາຄັນຂອງວັດຖຸໃນການຂັບລົດ scenes
  • ການອອກແບບທີ່ຂັບເຄື່ອນຄວາມສ່ຽງຂອງລະບົບການຮັບຮູ້

ໃນປະເພດຂອງການກວດສອບແລະການກວດສອບ, ຄວາມພະຍາຍາມຄົ້ນຄ້ວາເຫຼົ່ານີ້ໄດ້ຖືກອະທິບາຍໂດຍຫຍໍ້ (ລາຍຊື່ໃນທີ່ນີ້ໂດຍຫົວຂໍ້ຂອງຄວາມພະຍາຍາມ):

  • ການປະເມີນຄວາມສ່ຽງຂອງຍານພາຫະນະອັດຕະໂນມັດທີ່ມີປະສິດທິພາບ ແລະການກວດສອບຄວາມຖືກຕ້ອງ
  • ການກວດສອບຕາມແບບຈໍາລອງເປັນການສົມມຸດຖານຄວາມເປັນໄປໄດ້
  • ການກວດສອບເຄືອຂ່າຍ Neural Model Inverse

ນອກຈາກນັ້ນ, ເບິ່ງສັ້ນໆກ່ຽວກັບເນື້ອໃນຂອງຫນັງສືທີ່ຫນ້າປະທັບໃຈ ສູດການຄິດໄລ່ສໍາລັບການຕັດສິນໃຈ ໂດຍ Mykel Kochenderfer, Tim Wheeler, ແລະ Kyle Wray ໄດ້ຖືກຄົ້ນຫາ (ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບຫນັງສືແລະການດາວໂຫຼດ PDF ເອເລັກໂຕຣນິກຟຣີ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໂຄງການຄົ້ນຄ້ວາໃນອະນາຄົດທີ່ກໍາລັງດໍາເນີນຫຼືຖືກຄາດຫມາຍປະກອບມີຄວາມພະຍາຍາມກ່ຽວກັບການອະທິບາຍຫຼື XAI (AI ອະທິບາຍໄດ້), ການວິເຄາະນອກການແຈກຢາຍ (OOD), ການປະສົມເພີ່ມເຕີມຂອງວິທີການທີ່ອີງໃສ່ຕົວຢ່າງແລະຢ່າງເປັນທາງການສໍາລັບການກວດສອບ, ການວາງແຜນຂະຫນາດໃຫຍ່, AI ແລະສັງຄົມ, ແລະໂຄງການອື່ນໆລວມທັງການຮ່ວມມືກັບມະຫາວິທະຍາໄລອື່ນໆແລະຄູ່ຮ່ວມງານອຸດສາຫະກໍາ.

  • ຫົວຂໍ້ກອງປະຊຸມ: "ການຮຽນຮູ້ຈາກການໂຕ້ຕອບສໍາລັບຫຸ່ນຍົນຊ່ວຍເຫຼືອ"

ການນຳສະເໜີໂດຍ ດຣ. ດໍຊາ ຊາດິກ, ຜູ້ຊ່ວຍສາດສະດາຈານວິທະຍາສາດຄອມພິວເຕີ ແລະ ວິສະວະກຳໄຟຟ້າ ທີ່ມະຫາວິທະຍາໄລສະແຕນຟອດ

ນີ້ແມ່ນສະຫຼຸບສັ້ນໆຂອງຂ້ອຍ ແລະຄວາມຄິດໃນຂະນະນີ້ກ່ຽວກັບການຄົ້ນຄວ້ານີ້.

ໃຫ້ເລີ່ມຕົ້ນດ້ວຍສະຖານະການທີ່ມີປະໂຫຍດກ່ຽວກັບຄວາມຫຍຸ້ງຍາກທີ່ສາມາດເກີດຂື້ນໃນເວລາທີ່ວາງແຜນແລະນໍາໃຊ້ AI.

ພິຈາລະນາວຽກງານຂອງ stacking ຈອກ. ສ່ວນທີ່ຫລອກລວງແມ່ນວ່າທ່ານບໍ່ໄດ້ວາງຈອກດ້ວຍຕົວເອງທັງຫມົດ. ຫຸ່ນຍົນຈະເຮັດວຽກກັບທ່ານໃນວຽກງານນີ້. ເຈົ້າແລະຫຸ່ນຍົນແມ່ນຄວນຈະເຮັດວຽກຮ່ວມກັນເປັນທີມ.

ຖ້າ AI ທີ່ຢູ່ເບື້ອງຫຼັງຂອງຫຸ່ນຍົນບໍ່ໄດ້ຖືກວາງແຜນທີ່ດີ, ເຈົ້າອາດຈະພົບກັບບັນຫາທຸກປະເພດກັບສິ່ງທີ່ບໍ່ດັ່ງນັ້ນເບິ່ງຄືວ່າເປັນວຽກທີ່ງ່າຍທີ່ສຸດ. ເຈົ້າເອົາຈອກໜຶ່ງໃສ່ເທິງອີກຈອກໜຶ່ງ ແລ້ວໃຫ້ຫຸ່ນຍົນມີໂອກາດເອົາຈອກໜຶ່ງໃສ່ເທິງສອງຈອກນັ້ນ. AI ເລືອກຈອກທີ່ມີໃຫ້ ແລະພະຍາຍາມເອົາຂີງໄປວາງໄວ້ເທິງອີກສອງໜ່ວຍ. ແຕ່ຫນ້າເສຍດາຍ, ຈອກທີ່ເລືອກແມ່ນຫນັກເກີນໄປ (ທາງເລືອກທີ່ບໍ່ດີ) ແລະເຮັດໃຫ້ stack ທັງຫມົດຕົກລົງກັບພື້ນເຮືອນ.

ຈິນຕະນາການຄວາມຕົກໃຈຂອງເຈົ້າ.

ຫຸ່ນຍົນບໍ່ມີປະໂຫຍດຫຼາຍ.

ເຈົ້າອາດຈະຖືກລໍ້ລວງໃຫ້ຫ້າມຫຸ່ນຍົນບໍ່ໃຫ້ສືບຕໍ່ເອົາຈອກໃສ່ກັບເຈົ້າ. ແຕ່, ສົມມຸດວ່າໃນທີ່ສຸດທ່ານຈໍາເປັນຕ້ອງໃຊ້ຫຸ່ນຍົນ. ຄໍາຖາມທີ່ເກີດຂື້ນວ່າ AI ສາມາດຄິດໄລ່ຂະບວນການ stacking ຈອກ, ເຮັດບາງສ່ວນໂດຍການທົດລອງແລະຄວາມຜິດພາດ, ແຕ່ຍັງເປັນວິທີການທີ່ຈະເຂົ້າໃຈສິ່ງທີ່ທ່ານກໍາລັງເຮັດໃນເວລາທີ່ stacking ຈອກໄດ້. AI ສາມາດ "ຮຽນຮູ້" ຈາກວິທີການປະຕິບັດວຽກງານແລະວິທີການທີ່ມະນຸດປະຕິບັດວຽກງານ. ຍິ່ງໄປກວ່ານັ້ນ, AI ອາດຈະຮັບປະກັນວ່າມີວິທີການທົ່ວໄປຂອງການວາງຈອກ, ເຊິ່ງໃນນັ້ນ, ມະນຸດຢູ່ທີ່ນີ້ໄດ້ເລືອກວິທີການສະເພາະໃດຫນຶ່ງ. ໃນກໍລະນີດັ່ງກ່າວ, AI ອາດຈະຊອກຫາວິທີທີ່ຈະປັບແຕ່ງຄວາມພະຍາຍາມ stacking ຈອກຂອງຕົນຕາມຄວາມມັກແລະຮູບແບບສະເພາະຂອງທ່ານ (ພວກເຮົາທຸກຄົນມີ predilections stacking ຈອກຂອງພວກເຮົາເອງ).

ທ່ານສາມາດເວົ້າໄດ້ວ່ານີ້ແມ່ນວຽກງານທີ່ກ່ຽວຂ້ອງກັບຫຸ່ນຍົນຊ່ວຍເຫຼືອ.

ປະຕິກິລິຍາເກີດຂຶ້ນລະຫວ່າງມະນຸດກັບຫຸ່ນຍົນຊ່ວຍເຫຼືອ. ເປົ້າ​ຫມາຍ​ຢູ່​ທີ່​ນີ້​ແມ່ນ​ເພື່ອ​ສ້າງ AI ເຊັ່ນ​ວ່າ​ມັນ​ສາ​ມາດ​ຮຽນ​ຮູ້​ຈາກ​ວຽກ​ງານ​, ຮຽນ​ຮູ້​ຈາກ​ມະ​ນຸດ​, ແລະ​ຮຽນ​ຮູ້​ວິ​ທີ​ການ​ປະ​ຕິ​ບັດ​ວຽກ​ງານ​ໃນ​ລັກ​ສະ​ນະ​ການ​ຊ່ວຍ​ເຫຼືອ​ທີ່​ເຫມາະ​ສົມ​. ເຊັ່ນດຽວກັບທີ່ພວກເຮົາຕ້ອງການເພື່ອຮັບປະກັນວ່າມະນຸດເຮັດວຽກກັບຫຸ່ນຍົນ, ພວກເຮົາບໍ່ຢາກໃຫ້ຫຸ່ນຍົນມາຮອດທ່າທາງການຄິດໄລ່ທີ່ພຽງແຕ່ຈະຫຼີກເວັ້ນມະນຸດແລະເຮັດການ stacking ຈອກດ້ວຍມັນເອງ. ພວກເຂົາຕ້ອງຮ່ວມມືກັນ.

ການຄົ້ນຄວ້າທີ່ເກີດຂື້ນແມ່ນເອີ້ນວ່າການລິເລີ່ມຂອງ ILIAD ແລະມີພາລະກິດລວມນີ້: "ພາລະກິດຂອງພວກເຮົາແມ່ນເພື່ອພັດທະນາພື້ນຖານທິດສະດີສໍາລັບການໂຕ້ຕອບຂອງມະນຸດແລະຫຸ່ນຍົນແລະມະນຸດ - AI. ກຸ່ມຂອງພວກເຮົາແມ່ນເນັ້ນໃສ່: 1) ການສ້າງປະຕິສຳພັນແບບເປັນທາງການ ແລະ ພັດທະນາການຮຽນຮູ້ ແລະ ການຄວບຄຸມອັນໃໝ່ສຳລັບລະບົບການໂຕ້ຕອບທີ່ໄດ້ຮັບແຮງບັນດານໃຈຈາກເຄື່ອງມື ແລະ ເທັກນິກຈາກທິດສະດີເກມ, ວິທະຍາສາດສະຕິປັນຍາ, ການເພີ່ມປະສິດທິພາບ ແລະ ການຮຽນຮູ້ຕົວແທນ, ແລະ 2) ການພັດທະນາລະບົບຫຸ່ນຍົນທີ່ໃຊ້ໄດ້ຕົວຈິງທີ່ຊ່ວຍໃຫ້ຫຸ່ນຍົນໄດ້ຢ່າງປອດໄພ. ແລະປະສານງານ, ຮ່ວມມື, ແຂ່ງຂັນ, ຫຼືມີອິດທິພົນຕໍ່ມະນຸດ (ຕາມເວັບໄຊທ໌ Stanford ILIAD ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ບາງຄໍາຖາມທີ່ສໍາຄັນທີ່ກໍາລັງດໍາເນີນເປັນສ່ວນຫນຶ່ງຂອງການສຸມໃສ່ການຮຽນຮູ້ຈາກການໂຕ້ຕອບ (ມີຂົງເຂດອື່ນໆຂອງຈຸດສຸມເຊັ່ນດຽວກັນ) ປະກອບມີ:

  • ພວກເຮົາສາມາດເກັບກຳຂໍ້ມູນຢ່າງຫ້າວຫັນ ແລະ ມີປະສິດຕິພາບແນວໃດໃນການຕັ້ງຄ່າລະບົບຂໍ້ມູນຕໍ່າ ເຊັ່ນໃນຫຸ່ນຍົນແບບໂຕ້ຕອບ?
  • ພວກເຮົາສາມາດເຂົ້າຫາແຫຼ່ງ ແລະຮູບແບບຕ່າງໆໄດ້ແນວໃດ —- ການສາທິດທີ່ສົມບູນແບບແລະບໍ່ສົມບູນແບບ, ການປຽບທຽບ ແລະການຈັດລໍາດັບແບບສອບຖາມ, ຄໍາຕິຊົມທາງກາຍະພາບ, ຄໍາແນະນໍາພາສາ, ວິດີໂອ —- ເພື່ອຮຽນຮູ້ແບບຢ່າງຂອງມະນຸດ ຫຼືນະໂຍບາຍຫຸ່ນຍົນທີ່ມີປະສິດທິພາບ?
  • ອະຄະຕິ inductive ແລະ pres ແມ່ນຫຍັງສາມາດຊ່ວຍໃຫ້ມີການຮຽນຮູ້ປະສິດທິຜົນຈາກຂໍ້ມູນຂອງມະນຸດ / ການໂຕ້ຕອບ?

ສະຫຼຸບ

ດຽວນີ້ເຈົ້າໄດ້ຖືກປະຕິບັດໃນການເດີນທາງເລັກນ້ອຍເຂົ້າໄປໃນອານາຈັກຂອງຄວາມປອດໄພ AI.

ພາກສ່ວນກ່ຽວຂ້ອງທັງຫມົດລວມທັງຜູ້ພັດທະນາ AI, ຜູ້ນໍາທຸລະກິດແລະລັດຖະບານ, ນັກຄົ້ນຄວ້າ, ຈັນຍາບັນ, ຜູ້ສ້າງກົດຫມາຍ, ແລະອື່ນໆມີສ່ວນກ່ຽວຂ້ອງສະແດງໃຫ້ເຫັນເຖິງທິດທາງແລະການຍອມຮັບຄວາມປອດໄພຂອງ AI. ຍິ່ງ AI ເຂົ້າມາສູ່ສັງຄົມຫຼາຍເທົ່າໃດ, ພວກເຮົາກໍ່ມີຄວາມສ່ຽງເພີ່ມຂຶ້ນ ເນື່ອງຈາກການຂາດຄວາມຮັບຮູ້ກ່ຽວກັບຄວາມປອດໄພຂອງ AI ແລະຄວາມອັນຕະລາຍ ແລະໃນບາງຄັ້ງທາງຫລັງທີ່ຄວາມປອດໄພຂອງ AI ກໍາລັງຖືກວາງອອກໃນ AI ທີ່ແຜ່ຂະຫຍາຍໃນປັດຈຸບັນ.

ຄໍາສຸພາສິດທີ່ຮ່ອງຮອຍຂອງນັກຂຽນ Novel Samuel Lover ໃນຫນັງສືຂອງລາວທີ່ຕີພິມໃນປີ 1837, ແລະທີ່ໄດ້ກາຍເປັນການປະກົດຕົວຕະຫຼອດໄປຈົນເຖິງທຸກມື້ນີ້, ເປັນຄໍາຄິດຄໍາເຫັນສຸດທ້າຍທີ່ເຫມາະສົມໃນຕອນນີ້.

ເສັ້ນ​ທີ່​ມີ​ຊື່​ສຽງ​ນັ້ນ​ແມ່ນ​ຫຍັງ?

ມັນດີກວ່າທີ່ຈະປອດໄພກ່ວາຂໍອະໄພ.

ພຽງພໍເວົ້າວ່າ, ສໍາລັບໃນປັດຈຸບັນ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/07/20/importance-of-ai-safety-smartly-illuminated-amid-latest-trends-showcased-at-stanford-ai-safety- workshop-encompassing-autonomous-systems/