ຈັນຍາບັນ AI ສົງໄສກ່ຽວກັບການສ້າງຕັ້ງອັນທີ່ເອີ້ນວ່າ ທຸງແດງ AI ກົດຫມາຍສໍາລັບການເອີ້ນອອກ algorithms ລໍາອຽງໃນລະບົບ AI ປົກຄອງຕົນເອງ

ໃຫ້ເວົ້າກ່ຽວກັບກົດຫມາຍທຸງແດງ.

ທ່ານແນ່ນອນຮູ້ວ່າແນວຄວາມຄິດຂອງກົດຫມາຍທຸງແດງໄດ້ຖືກປົກຄຸມຢ່າງກວ້າງຂວາງໃນຂ່າວບໍ່ດົນມານີ້. ຫົວຂໍ້ທີ່ກວມເອົາຫົວຂໍ້ແມ່ນອຸດົມສົມບູນ. ຄວາມຫຼົງໄຫຼ ແລະການໂຕ້ວາທີທີ່ຫຼົງໄຫຼໃນເລື່ອງດັ່ງກ່າວ ແມ່ນຢູ່ໃນຈຸດສູງສຸດຂອງຈິດໃຈ ທີ່ເປັນຄວາມກັງວົນຂອງສັງຄົມ ແລະເຮັດໃຫ້ກົດໝາຍປືນທຸງແດງປະກົດຂຶ້ນໃນຍຸກປັດຈຸບັນ ແລະຢ່າງວ່ອງໄວ.

ຂ້າພະເຈົ້າກ້າເວົ້າເຖິງແມ່ນວ່າທ່ານອາດຈະບໍ່ຄຸ້ນເຄີຍກັບກົດຫມາຍທຸງແດງອື່ນໆທີ່ປະກາດໃຊ້ໃນທ້າຍຊຸມປີ 1800 ທີ່ກ່ຽວຂ້ອງກັບຍານພາຫະນະແລະລົດຍົນທີ່ທັນສະໄຫມຂອງມື້ນີ້. ແມ່ນແລ້ວ, ນັ້ນແມ່ນ, ກົດຫມາຍທຸງແດງກັບຄືນສູ່ປະຫວັດສາດ, ເຖິງແມ່ນວ່າກວມເອົາຫົວຂໍ້ອື່ນໆໃນການປຽບທຽບກັບຈຸດສຸມໃນປະຈຸບັນຂອງມື້ນີ້. ໂດຍທົ່ວໄປແລ້ວສິ່ງເຫຼົ່ານີ້ເອີ້ນວ່າກົດໝາຍຈະລາຈອນທຸງແດງ.

ກົດໝາຍເຫຼົ່ານີ້ທີ່ມີອາຍຸຫຼາຍສະຕະວັດ ແລະໝົດອາຍຸທັງໝົດໄດ້ກຳນົດໃຫ້ລົດບັນທຸກ ຫຼືເຄື່ອງຈັກທີ່ຂັບເຄື່ອນດ້ວຍອາຍນ້ຳໃນເວລານັ້ນ ຕ້ອງມີຜູ້ໃຫຍ່ນຳໜ້າພາຫະນະ ແລະຖືທຸງສີແດງເພື່ອຈຸດປະສົງເຕືອນໄພ. ແນວຄວາມຄິດແມ່ນວ່າສັດລ້ຽງອາດຈະຕົກໃຈຈາກສຽງລົບກວນແລະທໍ່ cantankerous ເຫຼົ່ານັ້ນທີ່ barreled ຊ້າແລະບໍ່ສະເຫມີລົງໃນຝຸ່ນຫຼືຖະຫນົນຫົນທາງປູພື້ນເລັກນ້ອຍ, ດັ່ງນັ້ນການມີບາງຄົນຍ່າງຢູ່ທາງຫນ້າຂອງ contrivance ໃນຂະນະທີ່ waving ທຸງສີແດງຢ່າງແຂງແຮງສາມາດຫວັງວ່າຈະຫຼີກເວັ້ນໄພພິບັດທີ່ເກີດຂຶ້ນ. ໃນກໍລະນີທີ່ເຈົ້າສົງໄສ, ເສັ້ນທາງລົດໄຟແລະລົດໄຟຖືກພິຈາລະນາຖືກຍົກເວັ້ນຈາກກົດຫມາຍດຽວກັນຍ້ອນວ່າພວກເຂົາເປັນຍານພາຫະນະທີ່ຜູກມັດກັບທາງລົດໄຟແລະມີກົດຫມາຍອື່ນໆທີ່ກວມເອົາການກະທໍາຂອງພວກເຂົາ.

ຈິນຕະນາການວ່າຕ້ອງໂບກທຸງສີແດງໃນມື້ນີ້ເປັນເງື່ອນໄຂສໍາລັບລົດທຸກຄັນໃນເສັ້ນທາງສາທາລະນະຂອງພວກເຮົາ.

ຕົວຢ່າງ, ຄົນຂັບລົດຈັກທຳມະດາທີ່ລົງມາຕາມຖະໜົນໃກ້ບ້ານຂອງເຈົ້າຈະຕ້ອງຮັບປະກັນວ່າມີຜູ້ໃຫຍ່ໂບກທຸງສີແດງຢູ່ໜ້າລົດຄັນດັ່ງກ່າວ. ອັນນີ້ຈະຕ້ອງເກີດຂຶ້ນກັບແຕ່ລະພາຫະນະທີ່ຜ່ານຖະໜົນຂອງເຈົ້າ. ບາງທີຄົນອາດຈະກາຍເປັນຄົນງານທຸງສີແດງທີ່ຈ້າງຄົນຂັບລົດທີ່ຜ່ານໄປ, ຖ້າບໍ່ດັ່ງນັ້ນບໍ່ມີຫມູ່ເພື່ອນຫຼືຍາດພີ່ນ້ອງທີ່ສາມາດໄປຂ້າງຫນ້າພວກເຂົາແລະດໍາເນີນການໂບກຕາມທີ່ໄດ້ກໍານົດໄວ້.

ພວກເຮົາປະຈຸບັນມີແນວໂນ້ມທີ່ຈະເຊື່ອມໂຍງທຸງສີແດງທີ່ກ່ຽວຂ້ອງກັບທາງຫຼວງທີ່ໂບກມືກັບສະຖານທີ່ກໍ່ສ້າງທາງ. ເມື່ອເຈົ້າໄປໃກ້ຖະໜົນທີ່ຂຸດຂຶ້ນ, ຄົນງານຈະຖືທຸງສີແດງເພື່ອດຶງຄວາມສົນໃຈຂອງເຈົ້າ. ອັນນີ້ບອກໃຫ້ເຈົ້າຊ້າລົງ ແລະເຕືອນສະຕິ. ອາດ​ຈະ​ມີ bulldozer ທີ່​ຈະ​ເຂົ້າ​ໄປ​ໃນ​ເສັ້ນ​ທາງ​ຂອງ​ທ່ານ. ຂຸມຍັກອາດຈະຢູ່ຂ້າງໜ້າ ແລະເຈົ້າຈະຕ້ອງໄດ້ຍ່າງຜ່ານມັນຢ່າງລະມັດລະວັງ.

ແຕ່ຂໍໃຫ້ກັບຄືນສູ່ການໃຊ້ທຸງສີແດງໃນຊຸມປີ 1800.

ເຊື່ອຫຼືບໍ່, ທຸງສີແດງທີ່ເລື່ອນໄດ້ຄາດວ່າຈະມີຢ່າງຫນ້ອຍຫນຶ່ງສ່ວນແປດຂອງກິໂລແມັດລ່ວງຫນ້າຂອງເຄື່ອງຈັກທີ່ຈະມາເຖິງ. ມັນເບິ່ງຄືວ່າເປັນໄລຍະທາງທີ່ຂ້ອນຂ້າງຍາວ. ຫນຶ່ງສົມມຸດວ່ານີ້ເຮັດໃຫ້ຄວາມຮູ້ສຶກອຸດົມສົມບູນໃນສະໄຫມນັ້ນ. ສຽງດັງແຮງຂອງເຄື່ອງຈັກ ແລະບາງທີການແນມເບິ່ງຍານພາຫະນະອາດຈະພຽງພໍທີ່ຈະເຮັດໃຫ້ສັດບໍ່ສະບາຍໃຈ. ກົດໝາຍທຸງແດງບາງສະບັບໃນຍຸກນັ້ນໄດ້ກຳນົດໃຫ້ຖືໄຟສີແດງທີ່ສ່ອງສະຫວ່າງຂຶ້ນໃນຍາມກາງຄືນ ເພື່ອໃຫ້ມີການເຕືອນໄພລ່ວງໜ້າສີແດງທີ່ເຫັນໄດ້ຊັດເຈນຈາກໄລຍະທີ່ມືດ.

ໂດຍທົ່ວໄປ, ຂ້າພະເຈົ້າຄິດວ່າມັນເປັນການຍຸຕິທໍາທີ່ຈະຢືນຢັນວ່າພວກເຮົາໃນສັງຄົມມີແນວໂນ້ມທີ່ຈະເຊື່ອມໂຍງທຸງສີແດງເປັນປະເພດຂອງສັນຍານຫຼືເຄື່ອງຫມາຍວ່າບາງສິ່ງບາງຢ່າງອາດຈະຂາດຫາຍໄປຫຼືຢ່າງຫນ້ອຍຕ້ອງການຄວາມສົນໃຈຂອງພວກເຮົາ.

ກຽມພ້ອມສໍາລັບການບິດເລັກນ້ອຍກ່ຽວກັບປະກົດການທຸງສີແດງນີ້.

ມີການໂຕ້ຖຽງກັນແບບເລື່ອນລອຍວ່າພວກເຮົາຄວນຮຽກຮ້ອງໃຫ້ມີການໃຫ້ທຸງສີແດງເມື່ອເວົ້າເຖິງປັນຍາປະດິດ (AI).

ນັ້ນແມ່ນຄວາມແປກໃຈເລັກນ້ອຍແລະເປັນແນວຄວາມຄິດທີ່ຫນ້າປະຫລາດໃຈທີ່ເຮັດໃຫ້ຫົວຫຼາຍ scratched. ທ່ານ​ອາດ​ຈະ​ງົງ​ວ່າ​ເປັນ​ແນວ​ໃດ​ຫຼື​ເປັນ​ຫຍັງ​ຈຶ່ງ​ຄວນ​ຈະ​ມີ​ອັນ​ທີ່​ເອີ້ນ​ວ່າ​ ກົດໝາຍວ່າດ້ວຍ AI ທຸງແດງ. ກະລຸນາຮັບຊາບວ່າຂ້ອຍກໍາລັງຕິດປ້າຍນີ້ເປັນກົດໝາຍ AI ທຸງແດງເພື່ອແຍກຄວາມແຕກຕ່າງຈາກກົດໝາຍຈະລາຈອນທຸງແດງ (ເຊັ່ນ: ທ້າຍຊຸມປີ 1800) ແລະເພື່ອກຳນົດພວກມັນໃຫ້ແຕກຕ່າງຈາກກົດໝາຍປືນທຸງແດງອື່ນໆທີ່ແຜ່ຫຼາຍໃນປັດຈຸບັນ.

ພວກເຮົາຕ້ອງການກົດຫມາຍ AI ທຸງສີແດງທີ່ຊັດເຈນແລະເນັ້ນໃສ່ພຽງແຕ່ເລື່ອງ AI ບໍ?

ຜູ້ທີ່ມັກວິທີການທີ່ສະເຫນີຈະຮຽກຮ້ອງໃຫ້ພວກເຮົາຢ່າງແທ້ຈິງຕ້ອງການຂໍ້ກໍານົດທາງດ້ານກົດຫມາຍທີ່ຈະຊ່ວຍໃນການຂັດຂວາງ AI ທີ່ມີອະຄະຕິທີ່ບໍ່ສົມຄວນແລະການກະທໍາໃນວິທີການຈໍາແນກ. ໃນປັດຈຸບັນ, ການກໍ່ສ້າງແລະການນໍາໃຊ້ AI ແມ່ນຄ້າຍຄືກັນກັບສະຖານະການທໍາມະຊາດຕາເວັນຕົກ. ຄວາມພະຍາຍາມເພື່ອຄວບຄຸມ AI ທີ່ບໍ່ດີໃນປັດຈຸບັນແມ່ນຂຶ້ນກັບການສ້າງແລະການຮັບຮອງເອົາຂໍ້ແນະນໍາດ້ານຈັນຍາບັນຂອງ AI. ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ກົດຫມາຍທີ່ຢູ່ໃນກ່ອງ AI ທີ່ບໍ່ດີແມ່ນໄດ້ຖືກສ້າງຂື້ນຢ່າງຊ້າໆແລະຖືກປະກາດໃຊ້, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ບາງຄົນກັງວົນວ່າສະມາຊິກສະພາບໍ່ໄວພໍ. ມັນເບິ່ງຄືວ່າປະຕູນໍ້າຖ້ວມຂອງການອະນຸຍາດໃຫ້ AI ທີ່ມີຄວາມລໍາອຽງໄດ້ຮັບການສະຫນັບສະຫນູນຢູ່ໃນໂລກແມ່ນເປີດກວ້າງຢ່າງກວ້າງຂວາງໃນປັດຈຸບັນ. Hand-wringing ເວົ້າວ່າໃນເວລາທີ່ກົດຫມາຍໃຫມ່ເຂົ້າໄປໃນຫນັງສື, genie ຊົ່ວຮ້າຍຈະອອກຈາກຂວດແລ້ວ.

ບໍ່ໄວ, ການໂຕ້ຖຽງໄປ. ຄວາມກັງວົນແມ່ນວ່າຖ້າກົດຫມາຍຖືກວາງໄວເກີນໄປພວກເຮົາຈະຂ້າ goose ທອງ, ຄືກັບວ່າຄວາມພະຍາຍາມຂອງ AI ຈະແຫ້ງແລ້ງແລະພວກເຮົາຈະບໍ່ໄດ້ຮັບຜົນປະໂຫຍດທາງດ້ານສັງຄົມຂອງລະບົບ AI ໃຫມ່. ຜູ້ພັດທະນາ AI ແລະບໍລິສັດທີ່ຢາກໃຊ້ AI ອາດຈະຕົກຕະລຶງຖ້າບັນດາກົດ ໝາຍ ໃໝ່ ທີ່ຄວບຄຸມ AI ໄດ້ຖືກ ນຳ ໃຊ້ຢ່າງກະທັນຫັນໃນລະດັບລັດຖະບານກາງ, ລັດ, ແລະທ້ອງຖິ່ນ, ບໍ່ໄດ້ກ່າວເຖິງກົດ ໝາຍ ສາກົນທີ່ກ່ຽວຂ້ອງກັບ AI ທີ່ກ້າວໄປຂ້າງ ໜ້າ ເຊັ່ນກັນ.

ເຂົ້າໄປໃນເລື່ອງທີ່ສັບສົນນີ້ມີການຮຽກຮ້ອງສໍາລັບກົດຫມາຍ AI ທຸງແດງ.

ກ່ອນທີ່ຈະເຂົ້າໄປໃນບາງຊີ້ນແລະມັນຕົ້ນເພີ່ມເຕີມກ່ຽວກັບການພິຈາລະນາຂອງທໍາມະຊາດແລະຂົນສັດທີ່ຕິດພັນກັບກົດຫມາຍວ່າດ້ວຍ AI ທຸງແດງ, ໃຫ້ພວກເຮົາສ້າງບາງພື້ນຖານເພີ່ມເຕີມກ່ຽວກັບຫົວຂໍ້ທີ່ສໍາຄັນຢ່າງເລິກເຊິ່ງ. ພວກເຮົາຈໍາເປັນຕ້ອງໃຊ້ເວລາສັ້ນໆເຂົ້າໄປໃນຈັນຍາບັນ AI ແລະໂດຍສະເພາະແມ່ນການມາຮອດຂອງ Machine Learning (ML) ແລະ Deep Learning (DL).

ທ່ານອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່າສຽງດັງທີ່ສຸດໃນປະຈຸບັນນີ້ຢູ່ໃນພາກສະຫນາມ AI ແລະເຖິງແມ່ນວ່າຢູ່ນອກພາກສະຫນາມຂອງ AI ປະກອບດ້ວຍການຮ້ອງອອກມາສໍາລັບລັກສະນະທີ່ໃຫຍ່ກວ່າຂອງ AI ດ້ານຈັນຍາບັນ. ລອງພິຈາລະນາເບິ່ງວ່າມັນຫມາຍຄວາມວ່າແນວໃດກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI. ນອກຈາກນັ້ນ, ພວກເຮົາຈະຄົ້ນຫາສິ່ງທີ່ຂ້ອຍຫມາຍເຖິງເມື່ອຂ້ອຍເວົ້າກ່ຽວກັບ Machine Learning ແລະ Deep Learning.

ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.

ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະສາມາດກວດສອບໄດ້, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ໃຫ້ກັບຄືນໄປຫາຈຸດສຸມຂອງພວກເຮົາກ່ຽວກັບກົດຫມາຍ AI ທຸງແດງ.

ແນວຄວາມຄິດພື້ນຖານແມ່ນວ່າປະຊາຊົນຈະສາມາດຍົກທຸງສີແດງທຸກຄັ້ງທີ່ພວກເຂົາເຊື່ອວ່າລະບົບ AI ເຮັດວຽກຢູ່ໃນແບບທີ່ບໍ່ລໍາອຽງຫຼືຈໍາແນກທີ່ບໍ່ເຫມາະສົມ. ເຈົ້າຈະບໍ່ຍົກທຸງຂຶ້ນ, ແລະແທນທີ່ຈະໃຊ້ວິທີທາງອີເລັກໂທຣນິກເພື່ອເຮັດໃຫ້ຄວາມກັງວົນຂອງເຈົ້າຮູ້. ພາກສ່ວນທຸງສີແດງຂອງແຜນການຫຼືວິທີການແມ່ນເປັນຄໍາປຽບທຽບຫຼາຍກ່ວາລັກສະນະທາງດ້ານຮ່າງກາຍ.

ທຳທ່າວ່າເຈົ້າກຳລັງຂໍເງິນກູ້ບ້ານ. ທ່ານເລືອກທີ່ຈະໃຊ້ບໍລິການທະນາຄານອອນໄລນ໌ເພື່ອສະຫມັກຂໍເງິນກູ້. ຫຼັງຈາກປ້ອນຂໍ້ມູນສ່ວນຕົວບາງອັນ, ເຈົ້າລໍຖ້າຈັກໜ້ອຍໜຶ່ງສຳລັບລະບົບ AI ທີ່ກຳລັງໃຊ້ເພື່ອຕັດສິນໃຈວ່າເຈົ້າເໝາະສົມກັບເງິນກູ້ຫຼືບໍ່. AI ບອກທ່ານວ່າທ່ານໄດ້ຖືກປະຕິເສດສໍາລັບການກູ້ຢືມເງິນ. ເມື່ອຮ້ອງຂໍຄໍາອະທິບາຍວ່າເປັນຫຍັງທ່ານຈຶ່ງຖືກປະຕິເສດ, ການບັນຍາຍຂໍ້ຄວາມເບິ່ງຄືວ່າຈະແນະນໍາທ່ານວ່າ AI ກໍາລັງໃຊ້ປັດໃຈທີ່ມີຄວາມລໍາອຽງທີ່ບໍ່ສົມຄວນເປັນສ່ວນຫນຶ່ງຂອງວິທີການຕັດສິນໃຈ.

ເວລາທີ່ຈະຍົກທຸງແດງກ່ຽວກັບ AI.

ທຸງສີແດງນີ້ຈະໂບກໄປໃສແທ້?

ນັ້ນແມ່ນຄໍາຖາມລ້ານໂດລາ.

ທັດສະນະຫນຶ່ງແມ່ນວ່າພວກເຮົາຄວນຈະຕັ້ງຖານຂໍ້ມູນທົ່ວປະເທດທີ່ຈະຊ່ວຍໃຫ້ປະຊາຊົນສາມາດຫມາຍທຸງສີແດງທີ່ກ່ຽວຂ້ອງກັບ AI ຂອງເຂົາເຈົ້າ. ບາງຄົນເວົ້າວ່ານີ້ຄວນຈະຖືກຄວບຄຸມໂດຍລັດຖະບານກາງ. ອົງການຂອງລັດຖະບານກາງຈະຮັບຜິດຊອບໃນການກວດສອບທຸງສີແດງແລະການຊ່ວຍເຫຼືອຂອງປະຊາຊົນທົ່ວໄປກ່ຽວກັບຄວາມຖືກຕ້ອງແລະການຈັດການກັບ "AI ທີ່ບໍ່ດີ" ທີ່ເຮັດໃຫ້ເກີດການລາຍງານຕົວເລກຂອງທຸງສີແດງ.

ກົດໝາຍ AI ທຸງແດງແຫ່ງຊາດ ເບິ່ງຄືວ່າຈະໄດ້ຮັບການສ້າງຕັ້ງຂຶ້ນໂດຍສະພາ. ກົດໝາຍຈະສະກົດອອກວ່າທຸງສີແດງທີ່ກ່ຽວຂ້ອງກັບ AI ແມ່ນຫຍັງ. ກົດໝາຍຈະພັນລະນາວ່າ AI ເຫຼົ່ານີ້ຈະຍົກທຸງສີແດງແນວໃດ. ແລະອື່ນໆ. ມັນຍັງອາດຈະເປັນກໍລະນີທີ່ລັດສ່ວນບຸກຄົນອາດຈະເລືອກທີ່ຈະສ້າງກົດຫມາຍ AI ທຸງແດງຂອງຕົນເອງ. ບາງທີເຂົາເຈົ້າເຮັດແນວນັ້ນແທນທີ່ຈະເປັນຂໍ້ລິເລີ່ມແຫ່ງຊາດ, ຫຼືເຂົາເຈົ້າເຮັດແນວນັ້ນເພື່ອຂະຫຍາຍຈຸດພິເສດທີ່ດຶງດູດສະເພາະລັດຂອງເຂົາເຈົ້າ.

ນັກວິຈານລັດຖະບານກາງຫຼືໂຄງການ AI ທຸງແດງທີ່ສະຫນັບສະຫນູນໂດຍລັດຖະບານຈະໂຕ້ຖຽງວ່ານີ້ແມ່ນບາງສິ່ງບາງຢ່າງທີ່ອຸດສາຫະກໍາເອກະຊົນສາມາດເຮັດໄດ້ແລະພວກເຮົາບໍ່ຕ້ອງການອ້າຍໃຫຍ່ມານໍາ. ອຸດສາຫະກໍາສາມາດສ້າງຕັ້ງຄັງເກັບອອນໄລນ໌ທີ່ປະຊາຊົນສາມາດລົງທະບຽນທຸງສີແດງກ່ຽວກັບລະບົບ AI. ການກະ ທຳ ຕຳ ຫຼວດຕົນເອງໂດຍອຸດສາຫະ ກຳ ພຽງພໍທີ່ຈະຈັດການກັບບັນຫາເຫຼົ່ານີ້.

A qualm ກ່ຽວ​ກັບ​ວິ​ທີ​ການ​ອຸດ​ສາ​ຫະ​ກໍາ purported ແມ່ນ​ວ່າ​ມັນ​ເບິ່ງ​ຄື​ວ່າ smack ຂອງ cronyism​. ບໍລິສັດຈະເຕັມໃຈທີ່ຈະປະຕິບັດຕາມບາງຖານຂໍ້ມູນ AI ​​ທຸງແດງທີ່ເປັນເອກະຊົນບໍ? ບໍລິສັດຈໍານວນຫຼາຍມີທ່າແຮງທີ່ຈະບໍ່ສົນໃຈກັບທຸງສີແດງທີ່ມີເຄື່ອງຫມາຍກ່ຽວກັບ AI ຂອງພວກເຂົາ. ຈະບໍ່ມີແຂ້ວແຫຼມໄປຫາບໍລິສັດເພື່ອຈັດການກັບທຸງສີແດງທີ່ເຂົ້າມາ.

Hey, ຜູ້ສະຫນັບສະຫນູນຂອງພາກເອກະຊົນວິທີການປິດສຽງ, ນີ້ຈະຄ້າຍຄືກັບການບໍລິການແຫ່ງຊາດ Yelp. ຜູ້ບໍລິໂພກສາມາດເບິ່ງທຸງສີແດງແລະຕັດສິນໃຈດ້ວຍຕົນເອງວ່າພວກເຂົາຕ້ອງການເຮັດທຸລະກິດກັບບໍລິສັດທີ່ໄດ້ລວບລວມທຸງສີແດງທີ່ເນັ້ນໃສ່ AI. ທະນາຄານທີ່ໄດ້ຮັບທຸງສີແດງຫຼາຍໂຕນກ່ຽວກັບ AI ຂອງພວກເຂົາຈະຕ້ອງເອົາໃຈໃສ່ແລະປັບປຸງລະບົບ AI ຂອງພວກເຂົາ, ດັ່ງນັ້ນເຫດຜົນຈະໄປ, ຜູ້ບໍລິໂພກອື່ນໆຈະຫລີກລ້ຽງບໍລິສັດເຊັ່ນ: ໂລກລະບາດ.

ບໍ່ວ່າຈະເປັນວິທີການທັງຫມົດນີ້ແມ່ນດໍາເນີນໂດຍລັດຖະບານຫຼືໂດຍອຸດສາຫະກໍາແມ່ນພຽງແຕ່ປາຍຂອງກ້ອນຫີນໃນຄໍາຖາມທີ່ມີ thorny ປະເຊີນກັບກົດຫມາຍວ່າດ້ວຍທຸງແດງ AI ສະເຫນີ.

ເອົາຕົວທ່ານເອງເຂົ້າໄປໃນເກີບຂອງບໍລິສັດທີ່ພັດທະນາຫຼືກໍາລັງໃຊ້ AI. ມັນອາດຈະເປັນທີ່ຜູ້ບໍລິໂພກຈະຍົກທຸງສີແດງເຖິງແມ່ນວ່າບໍ່ມີພື້ນຖານທີ່ເປັນໄປໄດ້ສໍາລັບການເຮັດເຊັ່ນນັ້ນ. ຖ້າຜູ້ຄົນສາມາດປະກາດທຸງສີແດງກ່ຽວກັບ AI ໄດ້ຢ່າງເສລີ, ພວກເຂົາອາດຈະຖືກລໍ້ລວງໃຫ້ເຮັດແນວນັ້ນດ້ວຍຄວາມກະຕືລືລົ້ນ, ຫຼືອາດຈະເປັນການແກ້ແຄ້ນຕໍ່ບໍລິສັດທີ່ບໍ່ໄດ້ເຮັດຫຍັງຜິດຕໍ່ຜູ້ບໍລິໂພກ.

ໃນສັ້ນ, ມັນອາດຈະມີຫຼາຍທຸງສີແດງທີ່ບໍ່ຖືກຕ້ອງກ່ຽວກັບ AI.

ການພິຈາລະນາອີກອັນຫນຶ່ງແມ່ນຂະຫນາດຫຼືຂະຫນາດໃຫຍ່ຂອງທຸງສີແດງທີ່ໄດ້ຮັບຜົນ. ມັນສາມາດມີທຸງສີແດງນັບລ້ານໆຍົກຂຶ້ນມາໄດ້ຢ່າງງ່າຍດາຍ. ໃຜຈະຕິດຕາມກ່ຽວກັບທຸງສີແດງທັງຫມົດເຫຼົ່ານັ້ນ? ຄ່າໃຊ້ຈ່າຍແມ່ນຫຍັງທີ່ຈະເຮັດແນວນັ້ນ? ໃຜຈະຈ່າຍເງິນສໍາລັບຄວາມພະຍາຍາມຕິດຕາມທຸງສີແດງ? ເປັນຕົ້ນ.

ຖ້າທ່ານເວົ້າວ່າຜູ້ໃດທີ່ລົງທະບຽນຫຼືລາຍງານທຸງສີແດງກ່ຽວກັບ AI ຕ້ອງຈ່າຍຄ່າທໍານຽມ, ທ່ານໄດ້ເຂົ້າໄປໃນອານາຈັກທີ່ຂີ້ຮ້າຍແລະຂີ້ຮ້າຍ. ຄວາມກັງວົນແມ່ນມີພຽງແຕ່ຄົນຮັ່ງມີເທົ່ານັ້ນທີ່ຈະສາມາດຍົກທຸງສີແດງໄດ້. ນີ້ ໝາຍ ຄວາມວ່າຜູ້ທຸກຍາກຈະບໍ່ສາມາດມີສ່ວນຮ່ວມຢ່າງເທົ່າທຽມກັນໃນກິດຈະ ກຳ ທຸງສີແດງແລະໂດຍພື້ນຖານແລ້ວແມ່ນບໍ່ມີສະຖານທີ່ເຕືອນໄພກ່ຽວກັບ AI ທີ່ບໍ່ດີ.

ພຽງແຕ່ການບິດເພີ່ມເຕີມອີກອັນຫນຶ່ງສໍາລັບໃນປັດຈຸບັນ, ຄືວ່າປະເພດຂອງກົດຫມາຍທຸງສີແດງນີ້ຫຼືຄໍາແນະນໍາກ່ຽວກັບ AI ເບິ່ງຄືວ່າເປັນຄວາມຈິງແທນທີ່ຈະເປັນຄໍາເຕືອນລ່ວງຫນ້າ.

ກັບຄືນສູ່ກົດໝາຍຈະລາຈອນຂອງທຸງແດງ, ການເນັ້ນໃສ່ທຸງສີແດງແມ່ນເພື່ອຫຼີກລ່ຽງການເກີດໄພຂົ່ມຂູ່ທີ່ຈະເລີ່ມຕົ້ນດ້ວຍ. ທຸງສີແດງທີ່ຫຼົ່ນລົງແມ່ນຄາດວ່າຈະເປັນທາງກ່ອນຂອງລົດທີ່ຈະມາເຖິງ. ​ໂດຍ​ການ​ລ່ວງ​ໜ້າ​ລົດ, ສັດລ້ຽງ​ຈະ​ໄດ້​ຮັບ​ການ​ແຈ້ງ​ເຕືອນ ​ແລະ ຜູ້​ທີ່​ເຝົ້າ​ຮັກສາ​ສັດ​ຈະ​ຮູ້​ວ່າ​ຄວນ​ມີ​ຄວາມ​ລະມັດລະວັງ ​ເນື່ອງ​ຈາກ​ແຫຼ່ງກຳລັງ​ທີ່​ຈະ​ມາ​ເຖິງ​ບໍ່​ດົນ.

ຖ້າຫາກວ່າປະຊາຊົນພຽງແຕ່ສາມາດຍົກທຸງສີແດງກ່ຽວກັບ AI ທີ່ເບິ່ງຄືວ່າເປັນອັນຕະລາຍຫຼື undercut ສິດຂອງເຂົາເຈົ້າ, ມ້າ proverbial ໄດ້ອອກຈາກ barn ໄດ້. ທັງໝົດນີ້ເບິ່ງຄືວ່າຈະສຳເລັດແມ່ນຫວັງວ່າຄົນອື່ນໆທີ່ມາພ້ອມຈະຮູ້ວ່າຈະລະວັງລະບົບ AI ນັ້ນ. ຂະນະ​ດຽວ​ກັນ​ຜູ້​ຖືກ​ກ່າວ​ຫາ​ກໍ່​ໄດ້​ຮັບ​ຄວາມ​ເສຍ​ຫາຍ​ແລ້ວ.

ບາງຄົນແນະນໍາວ່າບາງທີພວກເຮົາສາມາດອະນຸຍາດໃຫ້ປະຊາຊົນຍົກທຸງສີແດງກ່ຽວກັບ AI ວ່າພວກເຂົາ ສົງໃສ ອາດຈະມີຄວາມລໍາອຽງ, ເຖິງແມ່ນວ່າພວກເຂົາບໍ່ໄດ້ໃຊ້ AI ແລະບໍ່ໄດ້ຮັບຜົນກະທົບໂດຍກົງຈາກ AI. ດັ່ງນັ້ນ, ທຸງສີແດງໄດ້ຮັບການໂບກກ່ອນທີ່ຄວາມເສຍຫາຍຈະເຮັດ.

ແມ່ນແລ້ວ, ເປັນການຕອບໂຕ້, ເຈົ້າຈະເຮັດໃຫ້ທຸງສີແດງທີ່ຮັບມືກັບ AI ກາຍເປັນເລື່ອງທີ່ບໍ່ສາມາດຈັດການໄດ້ ແລະມີຄວາມວຸ່ນວາຍແທ້ໆ. ຖ້າຜູ້ໃດດ້ວຍເຫດຜົນໃດກໍ່ຕາມສາມາດຍົກທຸງສີແດງກ່ຽວກັບລະບົບ AI, ເຖິງແມ່ນວ່າບໍ່ໄດ້ເຮັດຫຍັງເລີຍກັບ AI ນັ້ນ, ເຈົ້າຈະກາຍເປັນທຸງສີແດງ. ຮ້າຍ​ກວ່າ​ນັ້ນ​ອີກ, ເຈົ້າ​ຈະ​ບໍ່​ສາມາດ​ແນມ​ເຫັນ​ເຂົ້າສາລີ​ຈາກ​ຂີ້ຕົມ. ວິທີການທຸງສີແດງທັງຫມົດຈະພັງລົງພາຍໃຕ້ນ້ໍາຫນັກຂອງຕົນເອງ, ເອົາຄວາມດີຂອງຄວາມຄິດໂດຍການປ່ອຍໃຫ້ flotsam ແລະ riffraff ຈົມເຮືອທັງຫມົດ.

ວິນຫົວ ແລະສັບສົນ.

ໃນຊ່ວງເວລາຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້ອຍຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງຫົວຂໍ້ນີ້. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດອັນໜຶ່ງກ່ຽວກັບກົດໝາຍ AI ທຸງແດງ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນຫຍັງ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະກົດໝາຍ AI ທຸງແດງ

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້າ​ພະ​ເຈົ້າ​ຫວັງ​ວ່າ​ມັນ​ຈະ​ສະ​ຫນອງ​ໃຫ້​ເປັນ​ພຽງ​ພໍ​ຂອງ​ຄໍາ​ແນະ​ນໍາ​ທີ່​ຈະ underlie ສິ່ງ​ທີ່​ຂ້າ​ພະ​ເຈົ້າ​ກໍາ​ລັງ​ຈະ​ກ່ຽວ​ຂ້ອງ​.

ຂໍໃຫ້ພິຈາລະນາສະຖານະການທີ່ອາດຈະໃຊ້ກົດຫມາຍ AI ທຸງແດງ.

ທ່ານເຂົ້າໄປໃນລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ແລະປາດຖະຫນາທີ່ຈະໃຫ້ຍານພາຫະນະອັດຕະໂນມັດຂັບທ່ານໄປຮ້ານຂາຍເຄື່ອງແຫ້ງທ້ອງຖິ່ນຂອງທ່ານ. ໃນ​ລະ​ຫວ່າງ​ການ​ເດີນ​ທາງ​ທີ່​ຂ້ອນ​ຂ້າງ​ສັ້ນ, AI ໄດ້​ໃຊ້​ເວ​ລາ​ເສັ້ນ​ທາງ​ທີ່​ເບິ່ງ​ຄື​ວ່າ​ທ່ານ​ຈະ​ບໍ່​ມີ​ບາງ​ຢ່າງ. ແທນທີ່ຈະໄປໃນທາງທີ່ກົງທີ່ສຸດ, AI ຈະນໍາທາງໄປຫາຖະຫນົນນອກທາງທີ່ເຮັດໃຫ້ເວລາຂັບຂີ່ສູງກວ່າປົກກະຕິ.

ສິ່ງທີ່ກໍາລັງເກີດຂຶ້ນ?

ສົມມຸດວ່າທ່ານກໍາລັງຈ່າຍເງິນສໍາລັບການນໍາໃຊ້ລົດຂັບລົດດ້ວຍຕົນເອງ, ທ່ານອາດຈະສົງໃສວ່າ AI ໄດ້ຖືກດໍາເນີນໂຄງການເພື່ອຂັບລົດເສັ້ນທາງທີ່ຍາວກວ່າເພື່ອພະຍາຍາມແລະເພີ່ມຄ່າໂດຍສານຫຼືຄ່າໃຊ້ຈ່າຍໃນການເດີນທາງ. ໃຜກໍ່ຕາມທີ່ເຄີຍເອົາລົດກະບະທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດທໍາມະດາຮູ້ເຖິງຄວາມຫລອກລວງທີ່ສາມາດເອົາໄປໄດ້ຫຼາຍຂື້ນໃນແມັດ. ແນ່ນອນ, ກັບຄົນທີ່ມີ GPS ໃນໂທລະສັບສະຫຼາດຂອງເຂົາເຈົ້າໃນຂະນະທີ່ຂີ່ຢູ່ໃນລົດກະບະຫຼືທຽບເທົ່າ, ທ່ານສາມາດຈັບຄົນຂັບລົດຂອງມະນຸດທີ່ເບິ່ງຄືວ່າຈະເຂົ້າໄປໃນເສັ້ນທາງຍາວທີ່ບໍ່ຈໍາເປັນ.

ປະກົດວ່າທ່ານມີຄວາມກັງວົນອີກຢ່າງຫນຶ່ງກ່ຽວກັບທາງເລືອກເສັ້ນທາງ, ບາງສິ່ງບາງຢ່າງທີ່ຂີ້ຕົວະເຈົ້າແທ້ໆ.

ສົມ​ມຸດ​ວ່າ​ການ​ເດີນ​ທາງ​ໄດ້​ຖືກ​ເຮັດ​ເພື່ອ​ຫຼີກ​ເວັ້ນ​ບາງ​ສ່ວນ​ຂອງ​ຕົວ​ເມືອງ​ເນື່ອງ​ຈາກ​ດ້ານ​ເຊື້ອ​ຊາດ. ມີເອກະສານກໍລະນີຂອງຜູ້ຂັບຂີ່ຂອງມະນຸດທີ່ຖືກຈັບໄດ້ເຮັດໃຫ້ທາງເລືອກເຫຼົ່ານັ້ນ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ບາງທີ AI ໄດ້ຖືກຕັ້ງໂຄງການໃນທາງລົບຂອງມັນ.

ເຈົ້າຕັດສິນໃຈຍົກທຸງສີແດງ.

ຂໍໃຫ້ສົມມຸດເພື່ອຜົນປະໂຫຍດຂອງການສົນທະນາວ່າກົດຫມາຍວ່າດ້ວຍ AI ທຸງແດງໄດ້ຖືກປະກາດໃຊ້ທີ່ກວມເອົາສິດອໍານາດຂອງທ່ານ. ມັນອາດຈະເປັນກົດໝາຍທ້ອງຖິ່ນ, ກົດໝາຍຂອງລັດ, ລັດຖະບານກາງ ຫຼືກົດໝາຍສາກົນ. ສໍາລັບການວິເຄາະທີ່ຂ້າພະເຈົ້າຂຽນຮ່ວມກັນກັບ Harvard's Autonomous Vehicle Policy Initiative (AVPI) ກ່ຽວກັບຄວາມສໍາຄັນທີ່ເພີ່ມຂຶ້ນຂອງການນໍາພາທ້ອງຖິ່ນໃນເວລາທີ່ຊຸມຊົນຮັບຮອງເອົາການນໍາໃຊ້ລົດຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ດັ່ງນັ້ນ, ທ່ານໄປຫາຖານຂໍ້ມູນ AI ​​ທຸງສີແດງ. ໃນຖານຂໍ້ມູນເຫດການ, ທ່ານໃສ່ຂໍ້ມູນກ່ຽວກັບການເດີນທາງຂອງລົດຕົນເອງຂັບລົດ. ນີ້ຮວມເຖິງວັນທີ ແລະເວລາຂອງການເດີນທາງຂັບຂີ່, ພ້ອມກັບຍີ່ຫໍ້ ແລະຮູບແບບຂອງລົດທີ່ຂັບລົດຕົນເອງ. ຫຼັງຈາກນັ້ນ, ທ່ານເຂົ້າໄປໃນເສັ້ນທາງການນໍາທາງທີ່ເບິ່ງຄືວ່າມີຄວາມສົງໃສ, ແລະທ່ານກໍາລັງແນະນໍາຫຼືອາດຈະອ້າງວ່າ AI ໄດ້ຖືກສ້າງຂື້ນດ້ວຍຄວາມຕັ້ງໃຈແລະຄວາມສາມາດທີ່ມີຄວາມລໍາອຽງຫຼືຈໍາແນກ.

ພວກເຮົາຕ້ອງຄາດຄະເນກ່ຽວກັບຈຸດພິເສດອື່ນໆຂອງກົດຫມາຍ AI ທຸງແດງກ່ຽວກັບສິ່ງທີ່ຈະເກີດຂຶ້ນຕໍ່ໄປໃນສະຖານະການສະເພາະນີ້. ໃນທາງທິດສະດີ, ຈະມີການສະຫນອງສໍາລັບຜູ້ໃດຜູ້ຫນຶ່ງທີ່ຈະທົບທວນຄືນທຸງສີແດງ. ພວກເຂົາເຈົ້າອາດຈະຊອກຫາເພື່ອໃຫ້ຜູ້ຜະລິດລົດໃຫຍ່ຫຼືບໍລິສັດເຕັກໂນໂລຢີຂັບລົດດ້ວຍຕົນເອງເພື່ອອະທິບາຍທັດສະນະຂອງເຂົາເຈົ້າກ່ຽວກັບທຸງສີແດງທີ່ຖືກບັນທຶກ. ມີທຸງສີແດງອື່ນໃດທີ່ໄດ້ລົງທະບຽນແລ້ວ? ທຸງສີແດງເຫຼົ່ານັ້ນໄດ້ຜົນຫຍັງແດ່?

ແລະອື່ນໆມັນຈະໄປ.

ສະຫຼຸບ

Preposterous, ບໍ່ຄ່ອຍເຊື່ອງ່າຍໆຊັກຊວນ.

ພວກເຮົາບໍ່ຕ້ອງການກົດໝາຍ AI ທຸງແດງ, ພວກເຂົາອອກແຮງຢ່າງເຄັ່ງຄັດ. ການ​ເຮັດ​ສິ່ງ​ໃດ​ກໍ​ຕາມ​ຈະ​ເຮັດ​ໃຫ້​ວຽກ​ງານ​ມີ​ຜົນ​ດີ​ຂຶ້ນ​ເມື່ອ​ມາ​ເຖິງ​ຈັງຫວະ​ແລະ​ຄວາມ​ກ້າວໜ້າ​ຂອງ AI. ກົດໝາຍ​ດັ່ງກ່າວ​ຈະ​ບໍ່​ເປັນ​ລະບຽບ. ເຈົ້າຈະສ້າງບັນຫາທີ່ບໍ່ໄດ້ແກ້ໄຂບັນຫາ. ມີວິທີອື່ນເພື່ອຈັດການກັບ AI ທີ່ບໍ່ດີ. ຢ່າຈັບເຟືອງຕາບອດເພື່ອຮັບມືກັບ AI ທີ່ມີອະຄະຕິ.

ການປ່ຽນເຄື່ອງມື, ພວກເຮົາທຸກຄົນຮູ້ວ່າ bullfighters ໃຊ້ capes ສີແດງເພື່ອດຶງດູດຄວາມສົນໃຈຂອງ bull ໃຈຮ້າຍ. ເຖິງແມ່ນວ່າສີແດງແມ່ນສີທີ່ພວກເຮົາເຊື່ອມໂຍງກັບການປະຕິບັດນີ້ຫຼາຍທີ່ສຸດ, ທ່ານອາດຈະຕົກຕະລຶງທີ່ຮູ້ວ່ານັກວິທະຍາສາດເວົ້າວ່າ bulls ບໍ່ໄດ້ຮັບຮູ້ສີແດງຂອງ muleta (ພວກມັນເປັນສີຕາບອດເປັນສີແດງ). ການສະແດງທີ່ນິຍົມ MythBusters ໄດ້ມີການກວດກາທີ່ມ່ວນຊື່ນກ່ຽວກັບເລື່ອງນີ້. ການເຄື່ອນໄຫວຂອງ cape ແມ່ນອົງປະກອບທີ່ສໍາຄັນແທນທີ່ຈະເປັນສີທີ່ເລືອກ.

ສໍາລັບຜູ້ທີ່ປະຖິ້ມຄວາມຕ້ອງການສໍາລັບ Red Flag AI Laws, ການໂຕ້ຖຽງແມ່ນວ່າພວກເຮົາຕ້ອງການບາງສິ່ງບາງຢ່າງທີ່ມີລັກສະນະການສັ່ນສະເທືອນທີ່ຫນ້າອັດສະຈັນແລະບໍ່ສາມາດເຂົ້າໃຈໄດ້ເພື່ອໃຫ້ແນ່ໃຈວ່າຜູ້ພັດທະນາ AI ແລະບໍລິສັດທີ່ນໍາໃຊ້ AI ຈະຊີ້ນໍາ AI ທີ່ບໍ່ລໍາອຽງຫຼືບໍ່ດີ. ຖ້າບໍ່ແມ່ນສໍາລັບທຸງສີແດງ, ບາງທີ cape fluttering ຫຼືໂດຍພື້ນຖານແລ້ວປະເພດຂອງວິທີການເຕືອນໄພອາດຈະຢູ່ໃນຂອບເຂດຂອງການໄດ້ຮັບການພິຈາລະນາອັນເນື່ອງມາຈາກ.

ພວກເຮົາຮູ້ຢ່າງແນ່ນອນວ່າ AI ທີ່ບໍ່ດີມີຢູ່ແລະ AI ທີ່ບໍ່ດີຫຼາຍແມ່ນຈະເຂົ້າໄປໃນທິດທາງຂອງພວກເຮົາ. ຊອກຫາວິທີປ້ອງກັນຕົວເຮົາເອງຈາກ AI ທີ່ບໍ່ດີແມ່ນສໍາຄັນ. ເຊັ່ນດຽວກັນ, ການຕັ້ງຄ່າ guardrails ເພື່ອພະຍາຍາມແລະຢຸດ AI ທີ່ບໍ່ດີຈາກການເຂົ້າໄປໃນໂລກແມ່ນມີຄວາມສໍາຄັນເທົ່າທຽມກັນ.

Ernest Hemingway ກ່າວຢ່າງມີຊື່ສຽງວ່າບໍ່ມີໃຜເຄີຍມີຊີວິດຂອງເຂົາເຈົ້າຕະຫຼອດໄປຍົກເວັ້ນນັກຕໍ່ສູ້ງົວ. ພວກເຮົາຈໍາເປັນຕ້ອງໃຫ້ແນ່ໃຈວ່າມະນຸດສາມາດດໍາລົງຊີວິດຂອງເຂົາເຈົ້າຕະຫຼອດຊີວິດ, ເຖິງແມ່ນວ່າສິ່ງທີ່ບໍ່ດີຫຼືຄວາມບ້າ AI ຈະຖືກປະກາດໃຫ້ພວກເຮົາ.

ແຫຼ່ງຂໍ້ມູນ: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- biased-algorithms-in-autonomous-ai-systems/