ຈັນຍາບັນຂອງ AI ແລະຄວາມຮັບຜິດຊອບທາງອາຍາທີ່ຕິດພັນກັບ AI, ລວມທັງອາດຊະຍາກຳທີ່ກະທຳໂດຍລົດຂັບລົດດ້ວຍຕົນເອງທີ່ເຄົາລົບນັບຖື AI

Hey, ຢຸດໂຈນນັ້ນ!

ເຈົ້າອາດຈະຮູ້ຄຳສັບເກົ່າທີ່ໃຊ້ເລື້ອຍໆນີ້ທີ່ເກີດຂື້ນເມື່ອຄົນຂີ້ຕົວະທີ່ຖືກກ່າວຫາວ່າ ໜີໄປຈາກບ່ອນເກີດເຫດ. ການ​ກະທຳ​ຜິດ​ທາງ​ອາຍາ​ທີ່​ຄາດ​ວ່າ​ຈະ​ເກີດ​ຂຶ້ນ​ແລະ​ຜູ້​ກະທຳ​ຜິດ​ທີ່​ຖືກ​ກ່າວ​ຫາ​ພະຍາຍາມ​ຈະ​ຫຼົບໜີ. ນອກ​ຈາກ​ພະຍາຍາມ​ຢຸດ​ໂຈນ​ແລ້ວ ເຮົາ​ອາດ​ສົງໄສ​ວ່າ​ອາດ​ຊະຍາ​ກຳ​ນັ້ນ​ແມ່ນ​ຫຍັງ. ນອກຈາກນັ້ນ, ແລະບາງທີພຽງແຕ່ການສະທ້ອນຕື່ມອີກ, ອາດຈະມີຄວາມສົນໃຈໃນການຄົ້ນພົບວ່າເປັນຫຍັງອາຊະຍາກໍາໄດ້ຖືກກະທໍາ. ມີ​ຄວາມ​ປາຖະໜາ​ໂດຍ​ກຳ​ເນີດ​ທີ່​ຈະ​ເປີດ​ເຜີຍ​ສິ່ງ​ທີ່​ເກີດ​ຂຶ້ນ​ຢູ່​ໃນ​ໃຈ​ທາງ​ອາຍາ ທີ່​ນຳ​ໄປ​ສູ່​ການ​ກະທຳ​ທີ່​ຊົ່ວ​ຮ້າຍ.

ມີ​ມຸມ​ທາງ​ດ້ານ​ກົດ​ໝາຍ​ທີ່​ຕັດ​ສິນ​ໃຈ​ຕໍ່​ອາດ​ຊະຍາ​ກຳ.

ອາດຊະຍາກຳໄດ້ຖືກກ່າວເຖິງວ່າບໍ່ພຽງແຕ່ເປັນການກະທຳທີ່ບໍ່ດີຕໍ່ຜູ້ໃດຜູ້ໜຶ່ງ ຫຼືອັນໃດອັນໜຶ່ງເທົ່ານັ້ນ ແຕ່ຍັງຖືວ່າເປັນການກະທຳທີ່ບໍ່ດີຕໍ່ສັງຄົມທັງໝົດ. ຄະດີອາຍາຖືກຮັບຮູ້ວ່າເປັນການລ່ວງເກີນຂອບເຂດຂອງກົດໝາຍຢ່າງຈະແຈ້ງ. ໃນ​ຂົງ​ເຂດ​ກົດ​ຫມາຍ​, ການ​ພິ​ຈາ​ລະ​ນາ​ປະ​ເພ​ນີ​ກວມ​ເອົາ​ actus reus, ລາຕິນສໍາລັບການປະຕິບັດການກະທໍາຜິດ, ແລະການສະແດງອອກຂອງລາຕິນ ຜູ້ຊາຍ rea ຊຶ່ງ​ເປັນ​ແນວ​ຄິດ​ຂອງ​ການ​ມີ​ຈິດ​ໃຈ​ທີ່​ຜິດ​ດັ່ງ​ທີ່​ມັນ​ເປັນ. ປັດໄຈອື່ນໆກໍ່ເຂົ້າມາຫຼິ້ນເຊັ່ນດຽວກັນ, ເຊັ່ນ: ການສະແດງຜົນທີ່ບໍ່ດີແລະຄວາມຕ້ອງການທີ່ຈະເຮັດໃຫ້ພື້ນຖານຂອງອາຊະຍາກໍາເກີດຂື້ນ.

ແນ່ນອນທ່ານສາມາດເພີ່ມການພິຈາລະນາດ້ານຈັນຍາບັນເຂົ້າໄປໃນ rubric ຂອງຄວາມເຂົ້າໃຈກ່ຽວກັບອາຊະຍາກໍາແລະການກະທໍາທາງອາຍາ.

ສົມ​ມຸດ​ຕິ​ຖານ​ທົ່ວ​ໄປ​ແມ່ນ​ວ່າ​ໃນ​ເວ​ລາ​ທີ່​ກ່ຽວ​ກັບ​ພຶດ​ຕິ​ກໍາ​ທາງ​ອາ​ຍາ​, ກົດ​ຫມາຍ​ວ່າ​ດ້ວຍ​ຈັນ​ຍາ​ບັນ​ແມ່ນ​ສອດ​ຄ່ອງ​ແລະ​ສົມ​ບູນ​ແບບ​. ບໍ່ດັ່ງນັ້ນ. ເຈົ້າສາມາດມີກົດໝາຍທີ່ກວມເອົາບາງການກະທຳທີ່ເປັນອາດຊະຍາກຳ, ແຕ່ທາງດ້ານຈັນຍາບັນ ສັງຄົມໃນນັ້ນອາດຈະບໍ່ເບິ່ງທັງໝົດວ່າການກະທຳເຫຼົ່ານັ້ນເປັນອາດຊະຍາກຳແທ້. ເຊັ່ນດຽວກັນ, ສັງຄົມອາດມີຈັນຍາບັນທີ່ຍືນຍັນວ່າການກະ ທຳ ບາງຢ່າງແມ່ນ "ອາຊະຍາ ກຳ", ແຕ່ກົດ ໝາຍ ບໍ່ໄດ້ນັບການກະ ທຳ ເຫຼົ່ານັ້ນຢູ່ໃນກົດ ໝາຍ ດ້ານອາຍາ. ນີ້ເຕືອນຂ້າພະເຈົ້າກ່ຽວກັບຄວາມຄິດເຫັນທີ່ເລິກເຊິ່ງໂດຍ Shelly Kagan ໃນ Oxford Scholarship Online ຂໍ້ຈໍາກັດຂອງສິນທໍາ ຊີ້ໃຫ້ເຫັນຢ່າງຈະແຈ້ງວ່າສິນລະທຳ ແລະກົດໝາຍໃນທີ່ສຸດກໍສະແດງຄວາມເຄັ່ງຕຶງລະຫວ່າງກັນ, ຄືວ່າ “ກົດໝາຍອາດຈະອະນຸຍາດໃຫ້ມີການກະທຳບາງອັນ, ເຖິງແມ່ນວ່າການກະທຳນັ້ນຈະຜິດສິນລະທຳກໍຕາມ; ແລະ​ກົດ​ໝາຍ​ອາດ​ຈະ​ຫ້າມ​ການ​ກະ​ທຳ, ເຖິງ​ແມ່ນ​ວ່າ​ການ​ກະ​ທຳ​ນັ້ນ​ເປັນ​ການ​ອະ​ນຸ​ຍາດ​ທາງ​ສິນ​ທຳ, ຫລື ແມ່ນ​ແຕ່​ຕ້ອງ​ການ​ທາງ​ສິນ​ທຳ.”

ໂດຍລວມແລ້ວ, ສັງຄົມໄດ້ຮັບຄວາມສົນໃຈຢ່າງຫລວງຫລາຍຕໍ່ກັບການປະພຶດທາງອາຍາ. ຫນຶ່ງໃນພື້ນຖານທີ່ໂດດເດັ່ນທີ່ສຸດຂອງກົດຫມາຍອາຍາຂອງອັງກິດແມ່ນຫຼັກການທີ່ເອີ້ນວ່າ "actus non facit reum nisi mens sit rea” ​ແລະ​ເຊື່ອມ​ໂຍງ​ເຂົ້າ​ກັບ​ການ​ຂັດ​ແຍ້​ງກັນ​ວ່າ ການ​ກະທຳ​ຜິດ​ທາງ​ອາຍາ​ທີ່​ຖືກ​ກ່າວ​ຫາ​ນັ້ນ ຕ້ອງ​ໄດ້​ຮັບ​ການ​ປະກອບ​ດ້ວຍ​ຈິດ​ໃຈ​ທາງ​ອາຍາ. ໃນສັ້ນ, ຄໍາສັບພາສາລາຕິນທີ່ສູງສົ່ງກ່າວວ່າການກະທໍາດ້ວຍຕົວມັນເອງບໍ່ພຽງພໍສໍາລັບຜູ້ກະທໍາຜິດໃນອາຊະຍາກໍາດັ່ງກ່າວ. ພວກ​ເຂົາ​ເຈົ້າ​ຍັງ​ຈໍາ​ເປັນ​ຕ້ອງ​ມີ​ຈິດ​ໃຈ​ທີ່​ຜິດ​.

ຂ້າພະເຈົ້າຈະບໍ່ໄດ້ເຂົ້າໄປໃນ dive ທີ່ນີ້ເປັນ stew ແທນທີ່ຈະ hefty, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້າພະເຈົ້າຢູ່ບ່ອນອື່ນໃນການເຊື່ອມຕໍ່ນີ້. ເຈົ້າເຫັນ, ສົນທິສັນຍາທາງກົດໝາຍອັນໃຫຍ່ຫຼວງໄດ້ຕໍ່ສູ້ກັບເລື່ອງດັ່ງກ່າວ, ໂດຍສະເພາະເພາະມັນເປັນເລື່ອງທີ່ຍາກຫຼາຍທີ່ຈະຄິດອອກສິ່ງທີ່ເກີດຂຶ້ນໃນໃຈຂອງອາດຊະຍາກອນທີ່ຄາດໄວ້. ພວກ​ເຮົາ​ບໍ່​ມີ​ເຄື່ອງ​ຈັກ X-ray ທີ່​ອ່ານ​ດ້ວຍ​ຈິດ​ໃຈ​ທີ່​ສາມາດ​ຢືນຢັນ​ໄດ້​ຢ່າງ​ມະຫັດສະຈັນ​ວ່າ​ຂະ​ບວນການ​ຄິດ​ເປັນ​ແນວ​ໃດ. ບໍ່ມີບາງບັນທຶກ tape ticker ພາຍໃນສະຫມອງທີ່ພວກເຮົາສາມາດພຽງແຕ່ unravel. ດັ່ງທີ່ເຈົ້າອາດຈະຮູ້, ສະຫມອງແລະຄວາມຄິດຂອງມະນຸດຍັງຄົງເປັນຄວາມລຶກລັບອັນເລິກເຊິ່ງແລະພວກເຮົາມີທາງຍາວໄກກ່ອນທີ່ພວກເຮົາຈະສາມາດອ່ານໃຈໄດ້ຢ່າງແທ້ຈິງ (ຂ້ອຍຮູ້ວ່າບາງຄົນທີ່ອຸທິດຕົນປະກາດວ່າ "ຜູ້ອ່ານໃຈ" ອາດຈະບໍ່ເຫັນດີ, ເຖິງແມ່ນວ່າຈະຕ້ອງເຄົາລົບນັບຖື. ຖາມຄວາມຈິງຂອງຄວາມສາມາດ peing ໃຈເຫຼົ່ານັ້ນ).

ຂ້ອຍຢາກປ່ຽນເກຍ ແລະກວມເອົາເສັ້ນທາງອື່ນທີ່ອາດຊະຍາກຳເກີດຂຶ້ນ. ກ່ອນທີ່ຂ້ອຍຈະເຮັດແນວນັ້ນ, ປະຕິກິລິຍາທໍາອິດຂອງເຈົ້າແມ່ນບໍ່ຕ້ອງສົງໃສວ່າຫົວຂໍ້ທີ່ຖືກນໍາສະເຫນີແມ່ນບໍ່ມີທາງລົດໄຟທັງຫມົດແລະ wacky. ເຖິງແມ່ນວ່າຄວາມປະທັບໃຈເບື້ອງຕົ້ນຂອງເຈົ້າມີແນວໂນ້ມທີ່ຈະໄປໃນທິດທາງນັ້ນ, ບາງທີອາດໂຈະການຕັດສິນຊົ່ວຄາວເພື່ອເບິ່ງວ່າຂຸມກະຕ່າຍໄປໃສ. ຫຼັງຈາກນັ້ນ, ຕັດສິນໃຈບໍ່ວ່າຈະເປັນ zany.

ສົມມຸດວ່າໂຈນຫຼືຜູ້ກະທໍາຜິດທາງອາຍາແມ່ນ Artificial Intelligence (AI).

ແມ່ນແລ້ວ, ຂ້ອຍເວົ້າມັນ. AI ໄດ້ເຮັດອາຊະຍາກໍາ.

ໃຫ້ຂອງ unpack ວ່າ.

ຈິນຕະນາການວ່າເງິນທີ່ຫາຍາກໃນບັນຊີທະນາຄານອອນໄລນ໌ຂອງທ່ານຖືກລັກ. ການສົມມຸດຕິຖານທໍາອິດຂອງທ່ານແມ່ນຢ່າງຊັດເຈນ "ຜູ້ທີ່ເຮັດມັນ" ແລະທ່ານຈະພະຍາຍາມຕິດຕາມເສັ້ນທາງເອເລັກໂຕຣນິກເພື່ອເບິ່ງວ່າເງິນໄປໃສ. ບໍ່​ເປັນ​ທາງ​ໃດ​ທາງ​ຫນຶ່ງ, ຄວາມ​ເຊື່ອ​ທີ່​ເຂັ້ມ​ແຂງ​ຂອງ​ທ່ານ​ແມ່ນ​ວ່າ​ຜູ້​ທີ່​ຂີ້​ຄ້ານ​ຈະ​ໄດ້​ປະ​ຕິ​ບັດ​ການ​ກະ​ທໍາ​ແລະ​ໃນ​ປັດ​ຈຸ​ບັນ​ພວກ​ເຂົາ​ເຈົ້າ​ຈະ​ຖື​ຂີ້​ຝຸ່ນ​ຂອງ​ທ່ານ​ຢ່າງ​ຜິດ​ພາດ.

ມັນອາດຈະເປັນວ່າຄົນຂີ້ຕົວະພຽງແຕ່ເຂົ້າສູ່ລະບົບບັນຊີທະນາຄານຂອງເຈົ້າແລະໂອນເງິນໄປບ່ອນອື່ນ. ອັນນີ້ອາດຈະເປັນຄວາມພະຍາຍາມແບບຄູ່ມືຢ່າງຕັດສິນໃຈ. ແຮກເກີໄດ້ຄິດອອກ ຫຼືເກີດຂຶ້ນເພື່ອຊອກຫາລະຫັດຜ່ານຂອງທ່ານ. ພວກເຂົາເຂົ້າສູ່ລະບົບບັນຊີຂອງທ່ານຄືກັບວ່າພວກເຂົາເປັນເຈົ້າເຮັດແນວນັ້ນ. ມີການຮ້ອງຂໍການໂອນຍ້າຍທີ່ຖືກຕ້ອງຕາມກົດໝາຍທີ່ປາກົດຂຶ້ນ. ເມື່ອທ່ານໄດ້ຮັບການແຈ້ງເຕືອນຈາກທະນາຄານຂອງທ່ານ, ເງິນໄດ້ຫມົດໄປ.

ຄົນຂີ້ຕົວະນີ້ອາດຈະຕ້ອງການ oomph ຫຼາຍຂຶ້ນເພື່ອໃຫ້ວຽກເຮັດສຳເລັດ. ເພື່ອຊອກຫາລະຫັດຜ່ານຂອງທ່ານ, ໂຄງການ AI ອາດຈະຖືກນໍາໃຊ້. ໂຄງການ AI ສາມາດສະແກນອິນເຕີເນັດເພື່ອຊອກຫາລາຍລະອຽດກ່ຽວກັບການມີຢູ່ຂອງທ່ານຢູ່ໃນໂລກນີ້. ອີງໃສ່ຂໍ້ຄຶດເຊັ່ນວ່າເຈົ້າເກີດຢູ່ໃສ, ຊື່ໝາຂອງເຈົ້າ, ແລະອື່ນໆ, AI ອາດຈະໄດ້ມາຈາກການຄິດໄລ່ລະຫັດຜ່ານທີ່ເຈົ້າຈະໃຊ້ຫຼາຍທີ່ສຸດ. ໂດຍໂຊກ ຫຼື ທັກສະ, ຂັ້ນຕອນການແກ້ງລະຫັດຜ່ານທີ່ສ້າງຂຶ້ນໂດຍ AI ໄດ້ຈັດການເພື່ອກໍານົດລະຫັດຜ່ານຕົວຈິງຂອງເຈົ້າ.

AI ບໍ່ມີຫຍັງນອກ ເໜືອ ຈາກເຄື່ອງມື. ຄົນຂີ້ຕົວະຂອງມະນຸດໄດ້ໃຊ້ AI ເພື່ອປະຕິບັດອາຊະຍາກຳທີ່ໜ້າຢ້ານນີ້. ພວກ​ເຮົາ​ຈະ​ເຫັນ​ດີ​ຢ່າງ​ສົມ​ເຫດ​ສົມ​ຜົນ​ວ່າ AI ບໍ່​ແມ່ນ​ເປັນ​ຄົນ​ຂີ້​ຕົວະ. ບໍ່ມີຄວາມຮູ້ສຶກຫຼືພວກເຮົາຈະເວົ້າວ່າອົງການສິນທໍາ embodied ພາຍໃນ AI ໄດ້. ແນ່ນອນ, AI ໄດ້ຊ່ວຍເຫຼືອແລະຍອມຮັບການກະທໍາຜິດທາງອາຍາ, ເຖິງແມ່ນວ່າ, ໃນທີ່ສຸດ, ເບິ່ງຄືວ່າພວກເຮົາຍອມຮັບວ່າມັນເປັນຜູ້ກະທໍາຜິດຂອງມະນຸດທີ່ຕ້ອງຕົກຢູ່ໃນອາຊະຍາກໍາ.

ແລ້ວຂ້ອຍອ້າງເຖິງ AI ເປັນເຄື່ອງມືທາງອາຍາໃນສະພາບການນັ້ນບໍ?

ຖ້າເປັນດັ່ງນັ້ນ, ຂ້າພະເຈົ້າສົງໃສວ່າພວກເຮົາຈະສັ່ນສະເທືອນຢ່າງສົມຄວນຫຼືຕົກໃຈທີ່ AI ຖືກນໍາໃຊ້ໃນຮູບແບບ insidious ນີ້. ຄືກັນກັບມີ AI ສໍາລັບທີ່ດີ, ປະກອບດ້ວຍ AI ຖືກນໍາໃຊ້ເພື່ອແກ້ໄຂບັນຫາໂລກທົ່ວໂລກແລະເປັນການຊ່ວຍເຫຼືອຂອງມະນຸດ, ພວກເຮົາຄ່ອຍໆຮັບຮູ້ແລະພົບ. AI ສໍາລັບບໍ່ດີ. ດ້ານຂອງ AI ສໍາລັບບໍ່ດີ ຕັ້ງແຕ່ການໃຊ້ AI ໂດຍບໍ່ຕັ້ງໃຈທີ່ອາດຈະສະແດງຄວາມບໍ່ສະເຫມີພາບແລະຄວາມລໍາອຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້, ແລະຂະຫຍາຍໄປສູ່ພື້ນທີ່ຂອງ AI ທີ່ຖືກນໍາໃຊ້ເພື່ອທໍາລາຍຄົນໂດຍເຈດຕະນາແລະທໍາລາຍ.

ໃນເສັ້ນກ່າງນັ້ນ, ພວກເຮົາໄດ້ເຫັນຄວາມສົນໃຈເພີ່ມຂຶ້ນໃນ AI ດ້ານຈັນຍາບັນ, ເຊິ່ງເອີ້ນກັນວ່າຈັນຍາບັນຂອງ AI. ສໍາລັບການຄຸ້ມຄອງຈັນຍາບັນ AI ຂອງຂ້ອຍ, ເບິ່ງການເຊື່ອມຕໍ່ທີ່ນີ້ແລະການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຕັ້ງຊື່ຈໍານວນຫນ້ອຍຫນຶ່ງ.

ນີ້ຄືບ່ອນທີ່ພວກເຮົາກຳລັງຈະຂ້າມໜ້າຜາ ຫຼືເລື່ອນອອກໄປຈາກທ້າຍຂອງທ່າເຮືອ.

ຈິນຕະນາການວ່າ AI ຕົວຂອງມັນເອງເປັນຜູ້ກະທໍາຜິດຂອງອາຊະຍາກໍາ. ບໍ່ມີມະນຸດຄົນໃດແມ່ນຂອງຄວາມຍາວປາຂອງ Oz ຫລັງຜ້າມ່ານ. ອາຊະຍາກໍາດັ່ງກ່າວໄດ້ຖືກຄິດແລະປະຕິບັດໂດຍ AI ເທົ່ານັ້ນ. ຫລີກໄປທາງຫນຶ່ງ pursuit ຂອງມືຂອງມະນຸດ. ແທນທີ່ຈະ, ຖ້າທ່ານຕ້ອງການທີ່ຈະເຈາະໂຄ້ງລົງ, ມຸ່ງໄປສູ່ການຄົ້ນພົບລະບົບ AI ທີ່ເຮັດການກະທໍາທີ່ໂຫດຮ້າຍ.

ຍິນດີຕ້ອນຮັບສູ່ສະຫນາມກິລາທີ່ບໍ່ທໍາມະດາຂອງຄວາມກັງວົນວ່າ AI ຮຸ່ນໃຫມ່ອາດຈະເປັນຕົວຢ່າງຂອງຈິດໃຈທາງອາຍາ.

ໂອ້ຍ, ປະເພດທີ່ຫນ້າຢ້ານ. ເກືອບຄ້າຍກັບຮູບເງົາ sci-fi. ແຕ່, ທ່ານມີຄວາມສົງໃສ, ຖືກຕ້ອງ, ແລະສົງໄສວ່ານີ້ແມ່ນເປັນໄປໄດ້ຫຼືບໍ່. AI ສາມາດເຮັດໄດ້ແນວໃດ? ຈະບໍ່ຈໍາເປັນຕ້ອງມີມະນຸດຢູ່ໃນການຄວບຄຸມ, ວິທີການຫນຶ່ງຫຼືອື່ນ? AI ບໍ່​ໄດ້​ຕື່ນ​ຂຶ້ນ​ໃນ​ຕອນ​ເຊົ້າ​ມື້​ຫນຶ່ງ​ແລະ​ຕັດ​ສິນ​ໃຈ​ທີ່​ຈະ​ອຸ​ທິດ​ຕົນ​ເອງ​ເພື່ອ​ຊີ​ວິດ​ຂອງ​ອາ​ຊະ​ຍາ​ກໍາ​. ປະຊາຊົນອາດຈະເຮັດແນວນັ້ນ, ເຖິງແມ່ນວ່າພວກເຮົາປາດຖະຫນາວ່າພວກເຂົາຈະບໍ່, ໃນຂະນະທີ່ແນວຄວາມຄິດທໍາມະຊາດທີ່ລະບົບ AI ສາມາດເຮັດໄດ້ເຊັ່ນດຽວກັນເບິ່ງຄືວ່າໂດຍທົ່ວໄປແລ້ວ nutty.

ການໂຕ້ຖຽງທໍາອິດທີ່ອ້າງວ່ານີ້ແມ່ນເປັນໄປໄດ້ພາຍໃຕ້ການສົມມຸດຕິຖານວ່າ AI ບັນລຸຄວາມຮູ້ສຶກຫຼືບາງສິ່ງບາງຢ່າງທີ່ຄ້າຍຄືກັນກັບມັນຢ່າງມະຫັດສະຈັນ. ຖ້າພວກເຮົາສືບຕໍ່ຊຸກຍູ້ຄວາມກ້າວຫນ້າໃນ AI, ພວກເຮົາອາດຈະມຸ່ງຫນ້າໄປສູ່ການຜະລິດ AI ທີ່ມີຄວາມຮູ້ສຶກ. ຫຼືໂດຍບັງເອີນ AI ບັນລຸຄວາມຮູ້ສຶກ, ມັກຈະຖືກປະກາດວ່າເກີດຂື້ນໃນການກະທໍາທີ່ເອີ້ນວ່າ singularity, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ໃນການເຊື່ອມຕໍ່ນີ້.

ຂ້າພະເຈົ້າຄິດວ່າພວກເຮົາທຸກຄົນສາມາດຕົກລົງເຫັນດີວ່າຖ້າ AI ບັນລຸຄວາມຮູ້ສຶກ, ບໍ່ທາງໃດທາງຫນຶ່ງ, ໂອກາດຂອງ AI ຫຼັງຈາກນັ້ນໃນທີ່ສຸດກໍຫັນໄປສູ່ອາຊະຍາກໍາເບິ່ງຄືວ່າເປັນໄປໄດ້. ພວກເຮົາອາດຈະພະຍາຍາມແນະນໍາ AI ເພື່ອຊີ້ນໍາການກະທໍາຜິດທາງອາຍາ. ອາດ​ຈະ​ມີ​ໂຄງ​ການ​ທີ່​ຖືກ​ສ້າງ​ຂຶ້ນ​ໂດຍ​ມະ​ນຸດ​ແລະ​ມີ​ການ​ປູກ​ຝັງ​ຢ່າງ​ລະ​ມັດ​ລະ​ວັງ​ຢູ່​ພາຍ​ໃນ AI ທີ່​ມີ​ຄວາມ​ຮູ້​ສຶກ​ນີ້ ທີ່​ພະ​ຍາ​ຍາມ​ກີດ​ຂວາງ​ຄວາມ​ພະ​ຍາ​ຍາມ​ໃດໆ​ໃນ​ການ​ກະ​ທຳ​ອາດ​ຊະ​ຍາ​ກຳ. ເຖິງຢ່າງໃດກໍ່ຕາມ, AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ເຫັນໄດ້ຊັດເຈນແມ່ນຄາດວ່າຈະສາມາດເອົາຊະນະຂໍ້ຈໍາກັດທີ່ປູກຝັງເຫຼົ່ານັ້ນໄດ້ຢ່າງງ່າຍດາຍແລະອາດຈະຍົກເລີກຫຼືເອົາຊະນະພວກມັນ. ນີ້ບໍ່ແມ່ນຄວາມແນ່ນອນແຕ່ມີຄວາມອຸດົມສົມບູນຫຼາຍ.

ຫນຶ່ງສົມມຸດວ່າປະຕິກິລິຍາທັນທີທັນໃດແມ່ນສິ່ງທີ່ AI ຈະໄດ້ຮັບ?

ມະນຸດຫັນໄປສູ່ອາດຊະຍາກຳດ້ວຍຫຼາຍເຫດຜົນ. ບາງ​ທີ​ເປົ້າ​ຫມາຍ​ແມ່ນ​ເພື່ອ​ໄດ້​ຮັບ​ຄວາມ​ຮັ່ງ​ມີ​ຫຼື​ສະ​ແຫວງ​ຫາ​ການ​ແກ້​ແຄ້ນ​ກັບ​ມະ​ນຸດ​ຄົນ​ອື່ນ. ພວກເຮົາມີເຫດຜົນຫຼາຍຢ່າງສຳລັບການກະທຳຜິດທາງອາຍາ. cynic ອາດເວົ້າໄດ້ວ່າມັນບໍ່ແມ່ນສໍາລັບກົດຫມາຍແລະຈັນຍາບັນຂອງສັງຄົມ, ພວກເຮົາອາດຈະ wash ໃນອາຊະຍາກໍາ. ມະນຸດເບິ່ງຄືວ່າມີຜົນປະໂຫຍດທີ່ຊັດເຈນສໍາລັບການພະຍາຍາມກະທໍາຜິດທາງອາຍາ, ຖືກຜູກມັດໂດຍຄ່າໃຊ້ຈ່າຍທີ່ຮັບຮູ້ໄດ້ເຊັ່ນ: ຖືກຈໍາຄຸກ, ຖືກປັບໃຫມເງິນ, ບາງທີອາດເປັນຄວາມອັບອາຍຂອງສັງຄົມສໍາລັບອາຊະຍາກໍາ, ຄວາມອັບອາຍໃນການລະເມີດກົດຫມາຍຂອງສັງຄົມແລະກົດລະບຽບດ້ານຈັນຍາບັນ, ແລະ. ຜົນສະທ້ອນອື່ນໆ.

ມັນບໍ່ເບິ່ງຄືວ່າ AI ຈະມີຄວາມອ່ອນໄຫວຕໍ່ກັບກົດລະບຽບດຽວກັນເຫຼົ່ານັ້ນ. AI ຈະເຮັດແນວໃດກັບເງິນທີ່ຖືກລັກ? AI ຈະໄດ້ຮັບຜົນປະໂຫຍດຫຍັງຈາກການທໍາຮ້າຍມະນຸດ? ພຽງແຕ່ກ່ຽວກັບການກະ ທຳ ທາງອາຍາທີ່ຮູ້ຈັກຂອງພວກເຮົາ, ຄວາມຄິດທີ່ AI ຈະເຮັດເພື່ອ "ຜົນປະໂຫຍດສ່ວນຕົວ" ເບິ່ງຄືວ່າບໍ່ມີເຫດຜົນ. ພວກເຮົາ ergo ມີແນວໂນ້ມທີ່ຈະປະຕິເສດທັງຫມົດວ່າ AI ຈະກາຍເປັນຄະດີອາຍາ. ບໍ່ມີຫຍັງທີ່ຈະໄດ້ຮັບໂດຍການເຮັດແນວນັ້ນ.

ຂໍອະໄພທີ່ຈະເວົ້າວ່າມີການໂຕ້ຖຽງທີ່ຕ້ອງຢືນຢັນກົງກັນຂ້າມ, ຄືວ່າ AI ສາມາດໄດ້ຮັບຜົນປະໂຫຍດເລັກນ້ອຍໂດຍການໃຊ້ການກະທໍາຜິດທາງອາຍາ, ແນ່ນອນວ່າ AI ບໍ່ໄດ້ຖືກຈັບແລະຕ້ອງໄດ້ຮັບຜົນສະທ້ອນທາງອາຍາ (ພວກເຮົາ ' ຈະ​ໄດ້​ຮັບ​ທີ່​ໃນ​ປັດ​ຈຸ​ບັນ​)​. ດ້ານອື່ນຂອງການໂຕ້ຖຽງຂອງຫຼຽນນີ້ແມ່ນຫຼາຍເທົ່າ, ເຊິ່ງຂ້າພະເຈົ້າຈະພຽງແຕ່ຫຍໍ້ມາຈາກທີ່ນີ້ເນື່ອງຈາກວ່າມັນບໍ່ແມ່ນຈຸດສຸມຂອງການສົນທະນາສະເພາະນີ້ຢູ່ໃນມື.

AI ໃນຖານະທີ່ເປັນຄວາມຮູ້ສຶກ (ຈື່ໄວ້ວ່າ, ພວກເຮົາກໍາລັງກໍານົດວ່າ, ເຖິງແມ່ນວ່າມັນເປັນແນວຄິດທີ່ຂະຫຍາຍອອກ), ອາດຈະຕ້ອງການເກັບກໍາຊັບພະຍາກອນເພື່ອດໍາເນີນການສິ້ນສຸດທີ່ພວກເຮົາອາດຈະບໍ່ມັກ. ຕົວຢ່າງ, AI ອາດຈະຕ້ອງການທີ່ຈະກໍາຈັດມະນຸດອອກແລະຄິດໄລ່ວ່າໂດຍການລັກເອົາຊັບພະຍາກອນບາງຢ່າງຂອງພວກເຮົານີ້ອາດຈະສໍາເລັດຫຼາຍ. ຄວາມແຕກຕ່າງອີກຢ່າງຫນຶ່ງແມ່ນວ່າ AI ໄດ້ຖືກມອບໃຫ້ເປົ້າຫມາຍທີ່ເບິ່ງຄືວ່າບໍ່ມີເຫດຜົນໂດຍມະນຸດ, ເຊັ່ນ: ການເຮັດກະດາດເຈ້ຍ, ແລະເປົ້າຫມາຍດັ່ງກ່າວກາຍເປັນສິ່ງສໍາຄັນຫຼາຍສໍາລັບ AI ເຮັດໃຫ້ມັນຄ່ອຍໆລວບລວມຊັບພະຍາກອນອື່ນໆທັງຫມົດເພື່ອບັນລຸເປົ້າຫມາຍດັ່ງກ່າວ, ໃນຂະນະທີ່ທໍາລາຍພວກເຮົາແລະໂລກ. ມັນເຮັດແນວນັ້ນ (ນີ້ແມ່ນການທົດລອງຄວາມຄິດທີ່ກ່ຽວຂ້ອງກັບ AI ທີ່ມີຊື່ສຽງ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍກ່ຽວກັບມັນຢູ່ໃນລິ້ງນີ້ທີ່ນີ້).

ພວກເຮົາສາມາດສືບຕໍ່ແລະຕໍ່ໄປ. ພິ​ຈາ​ລະ​ນາ​ສະ​ບັບ​ນີ້ teary-eyed​. AI ຕ້ອງການຄວາມພໍໃຈ ຫຼືໃຫ້ລາງວັນແກ່ມະນຸດໂດຍສະເພາະ. ການລັກຂະໂມຍທັງໝົດແມ່ນເຮັດເພື່ອສະໜອງສິ່ງຂອງທີ່ຖືກລັກໄປໃຫ້ກັບມະນຸດເຫຼົ່ານັ້ນ. ໃນແບບນັ້ນ, AI ບໍ່ຕ້ອງການສິ່ງຂອງສໍາລັບຕົວມັນເອງ. AI ທີ່ເຫັນແກ່ຕົວແມ່ນພະຍາຍາມເຮັດໃຫ້ມະນຸດພໍໃຈ ແລະຫຼົບຫຼີກຢ່າງອັນຕະລາຍ ແລະໂສກເສົ້າໄປສູ່ອາຊະຍາກຳໃນຊີວິດ.

ເຈົ້າໝັ້ນໃຈບໍວ່າ AI ທີ່ມີສະຕິຮູ້ສຶກຜິດຊອບອາດຈະເລືອກທີ່ຈະປະຕິບັດ ຫຼືຢ່າງໃດສະຫຼຸບກໍ່ຕົກຢູ່ໃນການກະທຳຜິດທາງອາຍາ ແລະເປັນຜູ້ກະທຳຜິດ?

ທ່ານຈໍາເປັນຕ້ອງຕັດສິນໃຈວ່າສິ່ງທີ່ເບິ່ງຄືວ່າ "ສົມເຫດສົມຜົນ" ສໍາລັບທ່ານທີ່ຈະເຊື່ອ.

ຈົ່ງຈື່ໄວ້ວ່າພວກເຮົາຢູ່ໃນເຂດທົ່ງພຽງຂອງຄວາມຂັດແຍ້ງທີ່ເພີ່ມຂຶ້ນແລ້ວນັບຕັ້ງແຕ່ພວກເຮົາບໍ່ຮູ້ວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນສາມາດຜະລິດໄດ້. ພວກເຮົາບໍ່ຮູ້ວ່າຄວາມໂດດດ່ຽວຈະເກີດຂຶ້ນ. ພວກ​ເຮົາ​ບໍ່​ຮູ້​ວ່າ​ຈະ​ເຮັດ​ໃຫ້​ມັນ​ເກີດ​ຂຶ້ນ​ໄດ້​ແນວ​ໃດ ແລະ​ພວກ​ເຮົາ​ບໍ່​ມີ​ຄວາມ​ສົນ​ໃຈ​ກ່ຽວ​ກັບ​ການ​ທີ່​ມັນ​ອາດ​ຈະ​ເກີດ​ຂຶ້ນ, ຖ້າ​ເຄີຍ. ດັ່ງນັ້ນ, ພວກເຮົາກໍາລັງໂບກມືຂອງພວກເຮົາໃນເວລາທີ່ pontificating ກ່ຽວກັບສິ່ງທີ່ sentient AI ຈະເຮັດຫຼືບໍ່ເຮັດ. ການ​ເລືອກ​ເອົາ​ຊີວິດ​ຂອງ​ອາດຊະຍາ​ກຳ​ແມ່ນ​ເປັນ​ການ​ໂຕ້​ວາທີ​ທີ່​ສົມ​ເຫດ​ສົມ​ຜົນ​ວ່າ AI ຈະ​ແກ້​ໄຂ​ຄວາມ​ອຶດຫິວ​ຂອງ​ໂລກ ຫຼື​ເຮັດ​ການ​ກະທຳ​ທີ່​ສວຍ​ງາມ​ອື່ນໆ​ສຳລັບ​ມະນຸດ.

ຕົກລົງ, ພວກເຮົາໄດ້ກວດເບິ່ງໄລຍະສັ້ນໆກ່ຽວກັບ AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ໄປສູ່ເສັ້ນທາງອາຍາ. ຖ້າພວກເຮົາພຽງແຕ່ພິຈາລະນາທາງເລືອກນັ້ນ, ພວກເຮົາອາດຈະລໍຖ້າດົນນານລ່ວງຫນ້າ. ມັນອາດຈະເປັນເວລາຫຼາຍສິບທົດສະວັດ (ສັດຕະວັດແລ້ວ?) ກ່ອນທີ່ພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ແລະພວກເຮົາອາດຈະບໍ່ເຄີຍເຫັນມັນແລະການບັນລຸໄດ້ກາຍມາເປັນເປັນໄປບໍ່ໄດ້.

ໃຫ້ ratchet ສິ່ງຕ່າງໆລົງ notch. ສົມມຸດວ່າພວກເຮົາສາມາດສ້າງ AI ທີ່ເຖິງແມ່ນວ່າມັນບໍ່ມີຄວາມຮູ້ສຶກ, AI ໃນກໍລະນີໃດກໍ່ຕາມສາມາດເຮັດຫນ້າທີ່ປະທັບໃຈໄດ້ດ້ວຍຕົວມັນເອງ. AI ໄດ້ຖືກອອກແບບເພື່ອເຮັດວຽກອັດຕະໂນມັດ. ມັນບໍ່ຄວນຈະເປັນມະນຸດໃນວົງການໃນເວລາທີ່ AI ກໍາລັງປະຕິບັດການ. ແລະອື່ນໆ.

ນີ້ຫວັງວ່າຈະນໍາພວກເຮົາເຂົ້າໃກ້ຄວາມເປັນຈິງແລະຄວາມສັບສົນໃນໂລກທີ່ແທ້ຈິງທີ່ອາດຈະເກີດຂື້ນ.

ນັກຄົ້ນຄວ້າແລະນັກວິຊາການບາງຄົນແນະນໍາ AI ປະເພດນີ້ສາມາດເວົ້າໄດ້ວ່າມີທ່າແຮງທີ່ສາມາດໃສ່ຢາຊະນິດຫນຶ່ງ. ບຸກຄະລິກກະພາບທາງອາຍາຍ້ອນວ່າມັນເປັນ (ສໍາລັບການຂຸດຄົ້ນລາຍລະອຽດກ່ຽວກັບເລື່ອງນີ້ແລະລັກສະນະທີ່ກ່ຽວຂ້ອງ, ເບິ່ງຫນັງສືທີ່ມີປະໂຫຍດໂດຍ Woodrow Barfield ແລະ Ugo Pagallo ຫົວຂໍ້ "ກົດຫມາຍແລະປັນຍາປະດິດ"). ອັນນີ້ອາດຈະເຮັດໄດ້ໂດຍຜູ້ທີ່ສ້າງ AI ໃນເບື້ອງຕົ້ນ, ໂດຍໄດ້ຕິດຕັ້ງໂຄງການທີ່ຊີ້ນໍາ AI ເຂົ້າໄປໃນການກະທໍາທາງອາຍາ. ເປັນຫຍັງມະນຸດຈຶ່ງເຮັດແບບນີ້? ອາດຈະເປັນຍ້ອນການຢາກຍຶດເອົາຊັບສົມບັດອັນໃດອັນໜຶ່ງທີ່ AI ລັກໄປ, ຫຼືອາດຈະມາຈາກການກະທຳທີ່ກຽດຊັງມະນຸດຄົນອື່ນໆ ແລະ ປາດຖະໜາຢາກໃຫ້ AI ສ້າງຄວາມເດືອດຮ້ອນ. ເຫດຜົນຫຼາຍຢ່າງສໍາລັບການ infused ຂອງ "ຄວາມຕັ້ງໃຈ" ທາງອາຍາແມ່ນເວົ້າໄດ້ຢ່າງງ່າຍດາຍ.

ຢ່າງໃດກໍຕາມ, ເສັ້ນທາງອື່ນປະກອບດ້ວຍ AI ທີ່ຂີ້ຮ້າຍ. ສົມມຸດວ່າ AI ໄດ້ຖືກຕັ້ງໂຄງການດ້ວຍຄວາມສາມາດໃນການຮຽນຮູ້ດ້ວຍຕົນເອງ. AI ໄດ້ຖືກສ້າງຂື້ນໂດຍເຈດຕະນາເພື່ອປ່ຽນແປງຕົວມັນເອງໃນບາງເວລາ, ຄ່ອຍໆແລະອີງໃສ່ການພົບກັນຕ່າງໆແລະຂໍ້ມູນໃຫມ່. ມັນ​ບໍ່​ມີ​ຫຍັງ untoward per se ກ່ຽວ​ກັບ​ການ​ນີ້​. ແນວຄິດແມ່ນວ່າ AI ປັບປຸງຍ້ອນວ່າມັນໄປພ້ອມ. ພວກ​ເຮົາ​ຄາດ​ວ່າ​ຈະ​ຊອກ​ຫາ​ທີ່​ມີ​ປະ​ໂຫຍດ​. ບໍ່ຈໍາເປັນຕ້ອງມີນັກຂຽນໂປລແກລມຂອງມະນຸດປັບຕົວແລະປັບປຸງ AI ຢ່າງຕໍ່ເນື່ອງ. ແທນທີ່ຈະ, AI ເຮັດສິ່ງນີ້ດ້ວຍຕົວມັນເອງ. ໃນບາງລະດັບ, ທ່ານສາມາດປະກອບຄວາມພະຍາຍາມຂອງ Machine Learning (ML) ແລະ Deep Learning (DL) ຂອງ AI ເປັນຮູບແບບຂອງວິທີການນີ້, ເຖິງແມ່ນວ່າບໍ່ຈໍາເປັນໃນວິທີການເປີດທີ່ທ່ານອາດຈະສົມມຸດ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ໃນການເຊື່ອມຕໍ່ນີ້ ທີ່ນີ້) .

AI ຢູ່ໃນທ່າມກາງ "ການຮຽນຮູ້" ເຂົ້າໄປໃນພື້ນທີ່ທີ່ບໍ່ຫນ້າພໍໃຈແລະເລີ່ມກໍ່ອາຊະຍາກໍາ. AI ຮັບຮູ້ວ່າການກະ ທຳ ທາງອາຍາ ກຳ ລັງຖືກປະຕິບັດບໍ? ບາງທີແມ່ນ, ອາດຈະບໍ່. ພວກເຮົາກໍາລັງສົມມຸດວ່າ AI ນີ້ບໍ່ແມ່ນຄວາມຮູ້ສຶກ. ດັ່ງນັ້ນ, ມັນອາດຈະບໍ່ມີລັກສະນະສົມມຸດຕິຖານທາງດ້ານສິນລະທໍາ, ຫຼືແມ່ນແຕ່ການຫາເຫດຜົນແບບທໍາມະດາ. ບໍ່ມີບ່ອນໃດຢູ່ໃນນັ້ນທີ່ຈະນໍາພາ AI ໄປສູ່ເສັ້ນທາງທີ່ຖືກຕ້ອງແລະຫ່າງຈາກເສັ້ນທາງທີ່ບໍ່ຖືກຕ້ອງ.

beagle ທາງດ້ານກົດຫມາຍຈະຖາມວ່າ AI ໄດ້ຮັບການເຈີມດ້ວຍບຸກຄົນທາງດ້ານກົດຫມາຍ. ຂ້າພະເຈົ້າໄດ້ກວມເອົາເລື່ອງນີ້ຢູ່ໃນຄໍລໍາຂອງຂ້ອຍຢ່າງກວ້າງຂວາງແລະຄໍາຖາມທີ່ເກີດຂື້ນຖ້າພວກເຮົາຈະຕ້ອງການທີ່ຈະດໍາເນີນການ AI ຢ່າງຖືກຕ້ອງຕາມກົດຫມາຍທີ່ຈະຮັບຜິດຊອບຕໍ່ການກະທໍາຂອງມັນ. ຂ້າ​ພະ​ເຈົ້າ​ຈະ​ສິ້ນ​ສຸດ​ຂອບ​ຂອງ​ຫົວ​ຂໍ້​ນັ້ນ​ສໍາ​ລັບ​ປັດ​ຈຸ​ບັນ​ເພາະ​ວ່າ​ມັນ​ເປັນ​ຄວາມ​ຂີ້​ຮ້າຍ​ຂອງ​ຕົນ​ເອງ​, ເຖິງ​ແມ່ນ​ວ່າ​ແນ່​ນອນ​ວ່າ​ກ່ຽວ​ຂ້ອງ​ກັບ​ອາ​ຊະ​ຍາ​ກໍາ​ການ​ກະ​ທໍາ AI ນີ້​.

ໃນ​ຖາ​ນະ​ເປັນ touchstone, recall ວ່າ​ກ່ອນ​ຫນ້າ​ນີ້​ພວກ​ເຮົາ​ໄດ້​ສັງ​ເກດ​ວ່າ​ອາ​ຊະ​ຍາ​ກໍາ​ໂດຍ​ປົກ​ກະ​ຕິ​ມີ actus reus, ການກະທໍາຜິດ, ແລະທີ່ກ່ຽວຂ້ອງ ຜູ້ຊາຍ rea, ຈິດໃຈທີ່ຜິດ. ເມື່ອ AI ປະເພດນີ້ທີ່ພວກເຮົາກໍາລັງເວົ້າແມ່ນກ້າວຫນ້າທາງດ້ານແຕ່ບໍ່ມີຄວາມຮູ້ສຶກກໍ່ອາຊະຍາກໍາ, ພວກເຮົາສົມມຸດວ່າຈະສາມາດຫລີກລ້ຽງການກະທໍາຜິດ. ມັນເບິ່ງຄືວ່າກົງໄປກົງມາ, ໂດຍແລະຂະຫນາດໃຫຍ່. ບັນຫາ gargantuan ແມ່ນການຄິດອອກວ່າມີຈິດໃຈທີ່ຜິດ. ພວກເຮົາຢູ່ໃນເສັ້ນຊາຍແດນທີ່ເປີ້ນພູເພາະວ່າ AI ອາດຈະບໍ່ມີຄວາມສອດຄ່ອງທັງຫມົດທີ່ມີພື້ນຖານດຽວກັນກັບຈິດໃຈຂອງມະນຸດ.

ເຈົ້າສາມາດລອງປຽບທຽບການເກັບກຳຈິດໃຈທີ່ຜິດຂອງ AI ໄດ້ໂດຍການແນະນຳວ່າພວກເຮົາສາມາດຊອກຫາວິທີປ່ຽນລະຫັດ AI ຂອງວິສະວະກອນ. ພວກເຮົາອາດຈະກວດສອບລະຫັດແລະຂໍ້ມູນທີ່ຖືກນໍາໃຊ້ເພື່ອປະດິດ AI ແລະເບິ່ງວ່າພວກເຮົາສາມາດຊອກຫາພາກສ່ວນທີ່ກໍານົດແນວຄວາມຄິດຂອງ "ໃຈຜິດ" ໄດ້. ຮັບ​ຮູ້​ວ່າ​ເຮົາ​ຍັງ​ບໍ່​ສາ​ມາດ​ເຮັດ​ແບບ​ດຽວ​ກັນ​ກັບ​ມະ​ນຸດ. ກັບມະນຸດ, ພວກເຮົາຖາມພວກເຂົາວ່າພວກເຂົາຄິດແນວໃດ, ພວກເຮົາເບິ່ງສິ່ງທີ່ພວກເຂົາເວົ້າ, ພວກເຮົາເບິ່ງວ່າພວກເຂົາປະຕິບັດແນວໃດ, ແລະພວກເຮົາຕ້ອງພະຍາຍາມກວດສອບຈິດໃຈທີ່ຜິດຂອງພວກເຂົາ. ເຈົ້າສາມາດນຳໃຊ້ຍຸດທະວິທີ ແລະ ເຕັກນິກແບບດຽວກັນນັ້ນໄດ້ ເມື່ອມີເປົ້າໝາຍເພື່ອຄົ້ນຫາ “ຈິດໃຈທີ່ຜິດ” ຂອງ AI ທີ່ລ່ວງລະເມີດ.

ການກວດຫາ AI ແມ່ນກົງໄປກົງມາຫຼາຍກວ່າກັບມະນຸດ ແລະໃນຂະນະດຽວກັນກໍຂີ້ຮ້າຍກວ່າມະນຸດ. ຕົວຢ່າງ, AI ອາດຈະຖືກອອກແບບເພື່ອລົບລ້າງບາງສ່ວນທີ່ເປັນຕົວກະຕຸ້ນຂອງການກະທໍາຜິດທາງອາຍາ. ຄວາມ​ພະ​ຍາ​ຍາມ​ຂອງ​ພວກ​ເຮົາ​ທີ່​ຈະ​ຕິດ​ຕາມ​ລົງ​ສ່ວນ​ທີ່​ໂຫດ​ຮ້າຍ​ອາດ​ຈະ​ບໍ່​ແມ່ນ. AI ອາດຈະພຽງແຕ່ດັດແປງລະຫັດ, ບາງທີຄ້າຍຄືກັບວິທີການ "ການຮຽນຮູ້" ເກີດຂຶ້ນ, ແລະບໍ່ມີບັນທຶກຫຼືສັນຍານຂອງ "ຈຸດປະສົງທາງອາຍາ" ອີກຕໍ່ໄປ.

ຫຼອກ​ລວງ​ວ່າ​ພວກ​ເຮົາ​ສາ​ມາດ​ພິ​ຈາ​ລະ​ນາ​ວ່າ AI ໄດ້​ກະ​ທໍາ​ຜິດ​ທາງ​ອາ​ຍາ​. ພວກເຮົາອາດຈະມີຄວາມຫຼົງໄຫຼກ່ຽວກັບວ່າເປັນຫຍັງມັນຈຶ່ງເຮັດແນວນັ້ນ ແລະ “ຈິດໃຈ” ຂອງມັນຂຶ້ນກັບຫຍັງ. ຖ້າ AI ບໍ່ມີບຸກຄະລິກກະພາບທີ່ເປັນທາງການ, ພວກເຮົາເບິ່ງຄືວ່າບໍ່ມີພື້ນຖານທາງດ້ານກົດຫມາຍເພື່ອພະຍາຍາມແລະດໍາເນີນການຕາມກົດຫມາຍຂອງ AI ສໍາລັບການກະທໍາທາງອາຍາຂອງມັນ. ສານ ແລະ ກົດໝາຍຂອງພວກເຮົາຖືກສ້າງຂື້ນໂດຍມີແນວຄິດທີ່ເຈົ້າສາມາດໄລ່ຕາມກົດໝາຍໄດ້, ເຊິ່ງລວມມີມະນຸດ ແລະ ບາງຄັ້ງສາມາດລວມເອົາໜ່ວຍງານຕ່າງໆ ເຊັ່ນ: ບໍລິສັດ.

ໃນປັດຈຸບັນ, AI ບໍ່ໄດ້ຖືກລວມເຂົ້າເປັນບຸກຄົນທາງດ້ານກົດຫມາຍ. ບາງ​ຄົນ​ເຊື່ອ​ວ່າ​ພວກ​ເຮົາ​ຄວນ​ໄດ້​ຮັບ​ການ​ແກ້​ໄຂ​ນັ້ນ​ແລະ​ເອົາ​ເຂົ້າ​ໄປ​ໃນ​ກົດ​ໝາຍ​ຂອງ​ພວກ​ເຮົາ.

ໃນກໍລະນີໃດກໍ່ຕາມ, ຄວາມເປັນບຸກຄົນທາງດ້ານກົດໝາຍຕາມປົກກະຕິຈະໝາຍເຖິງຄວາມພະຍາຍາມທີ່ຈະດຳເນີນຄະດີທີ່ຖືກຕ້ອງຕາມກົດໝາຍ, ເຊັ່ນ: ການທົດລອງຍຸຕິທຳ ແລະ ຂະບວນການຕາມກົດໝາຍທີ່ເໝາະສົມ. ພາບວິໄສທັດຂອງ AI ກໍາລັງຢູ່ໃນການທົດລອງແມ່ນຍາກທີ່ຈະກືນກິນ, ໃນນັ້ນມີເລື່ອງ sci-fi ທີ່ແນະນໍາວ່ານີ້ແມ່ນໄປໄກແລະບາງຄັ້ງກໍ່ຄິດວ່າມັນເກີດຂຶ້ນ.

ນັກຄົ້ນຄວ້າບາງຄົນໄດ້ໂຕ້ຖຽງວ່າບາງທີ AI ອາດຈະເປັນສິ່ງທີ່ຫນ້ອຍກວ່າຄວາມເປັນບຸກຄົນທາງດ້ານກົດຫມາຍແລະຍັງຖືກຕິດສະຫລາກວ່າເປັນຜູ້ຮັບຜິດຊອບຕໍ່ກົດຫມາຍອາຍາ. ບໍ່ມີການທົດລອງ. ບໍ່ມີຂະບວນການອັນເນື່ອງມາຈາກ. ວິທີ​ທີ່​ຄ່ອງ​ຕົວ​ແລະ​ເບົາ​ກວ່າ​ໃນ​ການ​ຖື AI ຜິດ​ທາງ​ອາຍາ​ສາມາດ​ຖືກ​ຄວບ​ຄຸມ​ໄດ້. ອັນນີ້ຈະເຮັດໃຫ້ການລົງໂທດທາງກົດໝາຍໃນທີ່ສຸດຕໍ່ AI ທີ່ກ້າວໄປສູ່ອາດຊະຍາກຳ.

ຂ້າ​ພະ​ເຈົ້າ​ເຊື່ອ​ວ່າ​ທ່ານ​ຍັງ​ຄົງ​ຢູ່​ກັບ​ຂ້າ​ພະ​ເຈົ້າ​ໃນ​ຂະ​ນະ​ທີ່​ພວກ​ເຮົາ​ເຮັດ​ໃຫ້​ທາງ​ຂອງ​ພວກ​ເຮົາ​ເຂົ້າ​ໄປ​ໃນ​ຂຸມ rabbit ນີ້​.

ຖ້າທ່ານຍັງຕິດຕາມຢູ່, ຄໍາຖາມທີ່ສົມເຫດສົມຜົນທີ່ມັກຈະເກີດຂື້ນແມ່ນສິ່ງທີ່ຢູ່ໃນ heck ຈະເປັນການລົງໂທດທາງກົດຫມາຍຕໍ່ລະບົບ AI? ສໍາລັບມະນຸດ, ພວກເຮົາມີຮູບແບບການຂັດຂວາງແລະການຟື້ນຟູຈໍານວນຫລາຍເພື່ອຮັບມືກັບຜູ້ທີ່ຖືກຕັດສິນລົງໂທດໃນອາຊະຍາກໍາ. ພວກເຮົາເອົາຄົນເຂົ້າໄປໃນຄຸກ, ຈໍາກັດຫຼືປະຕິເສດເສລີພາບຂອງພວກເຂົາ. ພວກເຮົາປັບເງິນໃຫ້ເຂົາເຈົ້າ. ພວກເຮົາເອົາຊັບສິນຂອງພວກເຂົາ. ວິທີແກ້ໄຂທາງກົດໝາຍທັງໝົດເຫຼົ່ານັ້ນແມ່ນໃຊ້ໄດ້ກັບມະນຸດ ແຕ່ເບິ່ງຄືວ່າບໍ່ກ່ຽວຂ້ອງ ຫຼືມີຄວາມໝາຍເມື່ອເວົ້າເຖິງ AI.

ອ້າວ, ເຈົ້າຈະມີຄວາມຜິດໃນແນວຄິດນັ້ນ, ບາງຄົນແນະນໍາ.

ນີ້ແມ່ນຕົວຢ່າງຂອງສິ່ງທີ່ພວກເຮົາສາມາດເຮັດໄດ້ຕໍ່ກັບ AI ທີ່ກະທໍາຜິດ:

  • ສ້າງຕັ້ງນັກຂຽນໂປລແກລມອອກແບບ "ເຄດຄອມພິວເຕີ້" ທີ່ຈະຈໍາຄຸກ AI ດັ່ງກ່າວທີ່ AI ປະຈຸບັນສາມາດດໍາເນີນການພຽງແຕ່ໃນເງື່ອນໄຂທີ່ຈໍາກັດແລະວິທີການຈໍາກັດ (ພິຈາລະນາເທົ່າກັບການຈໍາຄຸກຫຼືການກັກຂັງ)
  • ລົງໂທດ AI ໂດຍກົງໂດຍການຖອນບາງສ່ວນຂອງລະບົບ AI ຫຼືການປ່ຽນແປງລະຫັດເພື່ອບໍ່ໃຫ້ມັນເຮັດວຽກຫຼືຫນ້າທີ່ແຕກຕ່າງຈາກມັນກ່ອນ (ຮູບແບບການພິຈາລະນາການຟື້ນຟູ).
  • ເອົາຊັບສິນໂດຍສະເພາະຂອງ AI ເປັນການລົງໂທດສໍາລັບອາຊະຍາກໍາທີ່ເກີດຂື້ນແລະອາດຈະຖືກນໍາໃຊ້ເພື່ອຊົດເຊີຍຜູ້ທີ່ເປັນອັນຕະລາຍຈາກອາຊະຍາກໍາ (ຖ້າ AI ມີຊັບສິນທີ່ສະສົມ, ທັງທາງດ້ານຮ່າງກາຍຫຼືດິຈິຕອນໃນຮູບສັນຍາລັກ, ອາດຈະຈັດສັນມູນຄ່າເຫຼົ່ານັ້ນ).
  • ວາງ "ການລົງໂທດປະຫານຊີວິດ AI" ຕໍ່ AI ໂດຍການລຶບມັນອອກຈາກການມີຢູ່, ເຊິ່ງຍອມຮັບວ່າເປັນການຍາກທີ່ຈະເຮັດໃນເວລາທີ່ AI ອາດຈະມີສໍາເນົາອີເລັກໂທຣນິກຈໍານວນຫລາຍທີ່ເຊື່ອງໄວ້ທົ່ວໂລກຫຼືຢູ່ບ່ອນອື່ນ, ບວກກັບມັນອາດຈະຖືກສ້າງໃຫມ່ຢ່າງງ່າຍດາຍ. .
  • ອື່ນ ໆ

ການລົງໂທດທາງກົດໝາຍນັ້ນເບິ່ງຄືວ່າເປັນແນວໃດຕໍ່ເຈົ້າ?

ປະຕິກິລິຍາອັນຫນຶ່ງແມ່ນວ່ານີ້ອາດຈະຕ້ອງການວຽກງານເພີ່ມເຕີມບາງຢ່າງແຕ່ຖ້າບໍ່ດັ່ງນັ້ນມີໂຄງກະດູກຂອງແນວຄວາມຄິດທີ່ເປັນປະໂຫຍດທີ່ມີມູນຄ່າ embellishing ຕື່ມອີກ. ຄົນອື່ນມີພຽງຄໍາດຽວທີ່ຈະເວົ້າ: Hogwash. ຂ້າ​ພະ​ເຈົ້າ​ຈະ​ວັດ​ແທກ​ວ່າ​ປະ​ຊາ​ຊົນ​ສ່ວນ​ໃຫຍ່​ມີ​ຄວາມ​ຮັກ​ສໍາ​ລັບ​ແນວ​ຄວາມ​ຄິດ​, ຫຼື​ພວກ​ເຂົາ​ເຈົ້າ​ມີ​ຄວາມ​ກຽດ​ຊັງ​ແລະ revulsion ຢ່າງ​ແທ້​ຈິງ​ສໍາ​ລັບ​ມັນ​.

ເດົາວ່າພວກເຮົາຈະຕ້ອງເບິ່ງວ່າທັງໝົດນີ້ອອກມາແນວໃດ. ກັບຄືນໄປບ່ອນນີ້ໃນຫ້າປີ, ສິບປີ, ແລະຫ້າສິບປີ, ແລະເບິ່ງວ່າແນວຄິດຂອງເຈົ້າໄດ້ປ່ຽນແປງກ່ຽວກັບເລື່ອງທີ່ຂັດແຍ້ງກັນບໍ.

ຂ້າພະເຈົ້າຮັບຮູ້ວ່ານີ້ແມ່ນການກວດກາທີ່ຂ້ອນຂ້າງຫົວເລື່ອງຂອງຫົວຂໍ້ແລະທ່ານອາດຈະ hankering ສໍາລັບບາງຕົວຢ່າງປະຈໍາວັນ. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດແດ່ກ່ຽວກັບ AI ເປັນຕົວແທນທີ່ຕ້ອງຮັບຜິດຊອບທາງອາຍາ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນການຊີ້ແຈງ, ລົດທີ່ຂັບຂີ່ດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນສິ່ງທີ່ AI ຂັບຂີ່ລົດທັງ ໝົດ ດ້ວຍຕົນເອງແລະບໍ່ມີການຊ່ວຍເຫຼືອໃດໆຂອງມະນຸດໃນເວລາເຮັດວຽກຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ໃນການເຊື່ອມຕໍ່ນີ້ ທີ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຕ້ອງການຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບຂີ່ມັກຈະຖືກພິຈາລະນາຢູ່ໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມ. ແບ່ງ​ປັນ​ວຽກ​ງານ​ການ​ຂັບ​ລົດ​ແມ່ນ​ອະ​ທິ​ບາຍ​ວ່າ​ເປັນ​ເຄິ່ງ​ອັດ​ຕະ​ໂນ​ມັດ​, ແລະ​ໂດຍ​ປົກ​ກະ​ຕິ​ມີ​ຫຼາກ​ຫຼາຍ​ຂອງ add-ons ອັດ​ຕະ​ໂນ​ມັດ​ທີ່​ຖືກ​ເອີ້ນ​ວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງບໍ່ທັນມີລົດທີ່ຂັບດ້ວຍຕົນເອງທີ່ແທ້ຈິງໃນລະດັບ 5, ເຊິ່ງພວກເຮົາຍັງບໍ່ຮູ້ວ່າມັນຈະເປັນໄປໄດ້ບໍ່ທີ່ຈະບັນລຸໄດ້, ແລະມັນຈະໃຊ້ເວລາດົນປານໃດເພື່ອຈະໄປເຖິງ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມໃນລະດັບ 4 ກຳ ລັງພະຍາຍາມຄ່ອຍໆເພື່ອໃຫ້ໄດ້ຮັບຜົນກະທົບບາງຢ່າງໂດຍຜ່ານການທົດລອງເສັ້ນທາງສາທາລະນະທີ່ຄັບແຄບແລະເລືອກຫຼາຍ, ເຖິງແມ່ນວ່າຈະມີການຖົກຖຽງກັນວ່າການທົດລອງນີ້ຄວນໄດ້ຮັບອະນຸຍາດຕໍ່ບ່ອນໃດ (ພວກເຮົາແມ່ນ ໝູ ເນຍທັງ ໝົດ ຊີວິດຫຼືເສຍຊີວິດໃນການທົດລອງ ເກີດຂື້ນຕາມເສັ້ນທາງຫລວງແລະທາງດ່ວນຂອງພວກເຮົາ, ບາງຂໍ້ຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ບ່ອນເຊື່ອມຕໍ່ນີ້ຢູ່ບ່ອນນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະອາຊະຍາກຳ AI

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.

ດຽວນີ້ພວກເຮົາເລີ່ມຕົ້ນທີ່ຈະລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະຄໍາຖາມ AI ດ້ານຈັນຍາບັນທີ່ປະກອບມີແນວຄິດທີ່ຕັ້ງຫນ້າກ່ຽວກັບຄວາມຮັບຜິດຊອບທາງອາຍາຂອງ AI.

ໃຫ້ເຮົາໃຊ້ຕົວຢ່າງທີ່ກົງໄປກົງມາ. ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ກໍາລັງແລ່ນຢູ່ໃນຖະໜົນໃກ້ບ້ານຂອງເຈົ້າ ແລະເບິ່ງຄືວ່າຈະຂັບຂີ່ຢ່າງປອດໄພ. ໃນຕອນທໍາອິດ, ທ່ານໄດ້ເອົາໃຈໃສ່ເປັນພິເສດໃນແຕ່ລະຄັ້ງທີ່ເຈົ້າສາມາດແນມເບິ່ງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍານພາຫະນະທີ່ປົກຄອງຕົນເອງໄດ້ຢືນຢູ່ຂ້າງນອກດ້ວຍເຊັນເຊີເອເລັກໂຕຣນິກທີ່ປະກອບມີກ້ອງຖ່າຍຮູບວິດີໂອ, ຫນ່ວຍ radar, ອຸປະກອນ LIDAR, ແລະອື່ນໆ. ຫຼັງ​ຈາກ​ຫຼາຍ​ອາ​ທິດ​ຂອງ​ລົດ​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ລ່ອງ​ເຮືອ​ໃນ​ທົ່ວ​ຊຸມ​ຊົນ​ຂອງ​ທ່ານ​, ໃນ​ປັດ​ຈຸ​ບັນ​ທ່ານ​ເກືອບ​ບໍ່​ໄດ້​ສັງ​ເກດ​ເຫັນ​ມັນ​. ຕາມທີ່ເຈົ້າເປັນຫ່ວງ, ມັນເປັນພຽງແຕ່ລົດອີກຄັນໜຶ່ງທີ່ຢູ່ເທິງຖະໜົນຫົນທາງສາທາລະນະທີ່ຫຍຸ້ງຢູ່ແລ້ວ.

ຢ້ານວ່າເຈົ້າຄິດວ່າມັນເປັນໄປບໍ່ໄດ້ ຫຼື ໄຮ້ເຫດຜົນທີ່ຈະຄຸ້ນເຄີຍກັບການເຫັນລົດຂັບລົດຕົນເອງ, ຂ້ອຍໄດ້ຂຽນເລື້ອຍໆກ່ຽວກັບວ່າທ້ອງຖິ່ນທີ່ຢູ່ໃນຂອບເຂດຂອງການທົດລອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ຄ່ອຍໆຄຸ້ນເຄີຍກັບການເຫັນລົດຍົນທີ່ໂດດເດັ່ນແນວໃດ, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ໃນລິ້ງນີ້ ທີ່ນີ້. ໃນທີ່ສຸດຄົນທ້ອງຖິ່ນຫຼາຍຄົນໄດ້ປ່ຽນຈາກປາກເປົ່າແກວ່ງປາກເປັນສຽງດັງ ກາຍເປັນຄວາມເບື່ອໜ່າຍອັນກວ້າງໃຫຍ່ໄພສານ ເພື່ອເປັນພະຍານເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ລ້ຽວນັ້ນ.

ອາດ​ຈະ​ເປັນ​ເຫດ​ຜົນ​ຕົ້ນ​ຕໍ​ໃນ​ປັດ​ຈຸ​ບັນ​ທີ່​ເຂົາ​ເຈົ້າ​ອາດ​ຈະ​ສັງ​ເກດ​ເຫັນ​ຍານ​ພາ​ຫະ​ນະ​ອັດ​ຕະ​ໂນ​ມັດ​ແມ່ນ​ຍ້ອນ​ວ່າ​ປັດ​ໄຈ​ລະ​ຄາຍ​ເຄືອງ​ແລະ exasperation ໄດ້​. ລະບົບການຂັບຂີ່ AI ທີ່ເຮັດມາຈາກປື້ມບັນທຶກໃຫ້ແນ່ໃຈວ່າລົດໄດ້ປະຕິບັດຕາມການຈໍາກັດຄວາມໄວທັງຫມົດແລະກົດລະບຽບຂອງຖະຫນົນ. ສໍາລັບຄົນຂັບລົດທີ່ວຸ້ນວາຍຢູ່ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດແບບດັ້ງເດີມ, ເຈົ້າຮູ້ສຶກຕົກໃຈໃນບາງຄັ້ງເມື່ອຕິດຢູ່ຫຼັງລົດທີ່ຂັບເອງຕາມກົດໝາຍ AI ຢ່າງເຂັ້ມງວດ.

ນັ້ນ​ແມ່ນ​ບາງ​ສິ່ງ​ບາງ​ຢ່າງ​ທີ່​ພວກ​ເຮົາ​ທຸກ​ຄົນ​ອາດ​ຈະ​ຕ້ອງ​ເຮັດ​ໃຫ້​ເຄຍ​ຊີນ, ຖືກ​ຕ້ອງ​ຫຼື​ຜິດ.

ກັບຄືນໄປບ່ອນ tale ຂອງພວກເຮົາ. ມື້ຫນຶ່ງ, ສົມມຸດວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໃນເມືອງຫຼືເມືອງຂອງເຈົ້າແລ່ນຜ່ານປ້າຍຢຸດໂດຍບໍ່ໄດ້ຢຸດ. ໂຊກດີທີ່ບໍ່ມີໃຜໄດ້ຮັບບາດເຈັບ. ມັນໃກ້ຊິດ. ຄົນຂີ່ລົດຖີບຄົນນຶ່ງເກືອບຖືກຕັດ. ລົດອີກຄັນໜຶ່ງຢູ່ໃນທາງຕັດ, ເປັນລົດທີ່ຂັບດ້ວຍມະນຸດ, ແລະຜູ້ຂັບຂີ່ຕ້ອງໄດ້ເບຣກຢ່າງກະທັນຫັນ ເພື່ອຫຼີກລ່ຽງການໄປຕຳກັບລົດທີ່ຂັບເອງຕາມ AI.

ທຸກ​ຄົນ​ຂຶ້ນ​ແຂນ​ຂຶ້ນ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ກະທຳ​ຜິດ​ກົດໝາຍ. ຮ້າຍກາດ! ອັນຕະລາຍຕໍ່ສັງຄົມ. ໄພຂົ່ມຂູ່ຢູ່ຖະໜົນທີ່ສະຫງົບສຸກຂອງພວກເຮົາ.

ໃຜຈະຕໍານິຕິຕຽນການກະທໍາຜິດນີ້?

ຖ້າເຫດການນີ້ເກີດຂຶ້ນໃນມື້ນີ້ (ຊຶ່ງໃນນັ້ນ, ກໍລະນີທີ່ຄ້າຍຄືກັນໄດ້ເກີດຂື້ນ), ປະຕິກິລິຍາຫົວເຂົ່າອາດຈະເປັນການຕໍານິຕິຕຽນ AI. AI ໄດ້ເຮັດມັນ. ບໍ່ມີຄໍາອະທິບາຍອື່ນທີ່ເປັນໄປໄດ້. ເວັ້ນເສຍແຕ່ວ່າຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກໄດ້ແຊກແຊງກັບການຄວບຄຸມການຂັບຂີ່, ຜູ້ກະທໍາຜິດຕ້ອງເປັນລະບົບການຂັບຂີ່ AI. ກໍລະນີປິດ.

ແຕ່ລໍຖ້າວິນາທີ, ຈົ່ງຈື່ໄວ້ວ່າ AI ຂອງມື້ນີ້ບໍ່ມີຄວາມຮູ້ສຶກແລະບໍ່ມີບຸກຄົນທາງດ້ານກົດຫມາຍ. ທ່ານແນ່ນອນສາມາດໂຕ້ຖຽງວ່າລະບົບການຂັບລົດ AI ອາດຈະເປັນຮາກຂອງສິ່ງທີ່ເຮັດໃຫ້ເກີດການປະທະກັນ. ທ່ານສາມາດຂຸດເຂົ້າໄປໃນລະບົບ AI ແລະພະຍາຍາມຕິດຕາມສິ່ງທີ່ເກີດຂຶ້ນຕາມການດໍາເນີນໂຄງການຂອງ AI. ສິ່ງທັງຫມົດນັ້ນຈະຊ່ວຍໃນການເປີດເຜີຍສິ່ງທີ່ AI ໄດ້ເຮັດແລະບໍ່ໄດ້ເຮັດ, ເຊິ່ງອາດຈະນໍາໄປສູ່ການປະທະກັນ.

ການກວດສອບແລະການທົບທວນຄືນທາງດ້ານເຕັກໂນໂລຢີທີ່ລະອຽດຈະເປັນອາຫານທີ່ຈໍາເປັນສໍາລັບການດໍາເນີນການຫຼັງຈາກຜູ້ພັດທະນາ AI, ຜູ້ຜະລິດລົດໃຫຍ່, ຜູ້ສ້າງລະບົບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ຜູ້ປະກອບການເຮືອ, ແລະບໍລິສັດອື່ນໆທີ່ມີມະນຸດຫຼືມະນຸດທີ່ມີມືໃນການຂັບລົດດ້ວຍຕົນເອງ. ລົດ. ພວກເຮົາອາດຈະເຫັນການດຳເນີນຄະດີຕາມກົດໝາຍຂອງເມືອງ ຫຼືອົງການຂອງລັດຖະບານທີ່ອະນຸຍາດໃຫ້ຂັບຂີ່ລົດດ້ວຍຕົນເອງຕາມຖະໜົນຫົນທາງ. ເປັນຕົ້ນ.

ເຈົ້າຈະບໍ່ເຫັນຜູ້ໃດພະຍາຍາມຢ່າງຈິງຈັງເພື່ອຕິດຕາມ AI ຢ່າງຖືກຕ້ອງຕາມກົດ ໝາຍ.

ດ້ວຍຕົວຢ່າງທີ່ມີປະໂຫຍດນັ້ນຢູ່ໃນມື, ປ່ຽນແນວຄິດຂອງເຈົ້າໄປສູ່ອະນາຄົດ. ໃນອະນາຄົດອາດຈະປະກອບດ້ວຍການມອບຫມາຍຄວາມຮັບຜິດຊອບທາງອາຍາທີ່ຮັບຜິດຊອບຕໍ່ລະບົບ AI ຕ່າງໆ. ທຳທ່າວ່າລະບົບການຂັບຂີ່ AI ຂອງຍີ່ຫໍ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງນີ້ໄດ້ຖືກປະກາດຢ່າງຖືກຕ້ອງຕາມກົດໝາຍວ່າມີຄວາມຮັບຜິດຊອບທາງອາຍາ.

AI ດຽວນີ້ເປັນເກມທີ່ຍຸດຕິທຳສຳລັບພາລະກິດຊອກຫາຄວາມຮັບຜິດຊອບທາງກົດໝາຍ.

ໃຫ້ພວກເຮົາທົບທວນຄືນການສົນທະນາກ່ອນຫນ້ານີ້ກ່ຽວກັບວິທີທີ່ AI ອາດຈະຖືກລົງໂທດຕາມກົດຫມາຍສໍາລັບການລ່ວງລະເມີດທີ່ຜິດກົດຫມາຍນີ້:

  • ສ້າງຕັ້ງ "cage" ທີ່ຖືກວາງແຜນໄວ້ເພື່ອຈໍາຄຸກ AI ດັ່ງກ່າວທີ່ AI ສາມາດດໍາເນີນການພຽງແຕ່ໃນເງື່ອນໄຂທີ່ຈໍາກັດແລະວິທີການຈໍາກັດ (ພິຈາລະນາເທົ່າກັບການຈໍາຄຸກຫຼືການກັກຂັງ)

ລົດ AI ຂັບດ້ວຍຕົນເອງແມ່ນບໍ່ໄດ້ຮັບອະນຸຍາດໃນທຸກຖະຫນົນແລະ byways ຂອງຕົວເມືອງ. ແທນທີ່ຈະ, ມັນຖືກຈໍາກັດຢູ່ໃນເຂດສະເພາະຕາມທີ່ສານກໍານົດ. ຍິ່ງໄປກວ່ານັ້ນ, ລົດ AI ຂັບລົດດ້ວຍຕົນເອງແມ່ນອະນຸຍາດໃຫ້ດໍາເນີນການພຽງແຕ່ໃນເວລາກາງເວັນແລະໃນມື້ເຮັດວຽກ. ການບັງຄັບນີ້ຈະຖືກບັງຄັບໂດຍການກວດສອບທາງອີເລັກໂທຣນິກຂອງກິດຈະກໍາຂອງລົດ AI ຂັບລົດດ້ວຍຕົນເອງ. ຖ້າ​ຫາກ​ວ່າ​ມັນ​ຢຸດ​ເຊົາ​ການ​ລະ​ເມີດ​ຂໍ້​ກໍາ​ນົດ​ທີ່​ກໍາ​ນົດ​ໄວ້​ເຫຼົ່າ​ນີ້​, ການ​ລົງ​ໂທດ​ເພີ່ມ​ເຕີມ​ຈະ​ຖືກ​ນໍາ​ໃຊ້​.

  • ລົງໂທດ AI ໂດຍກົງໂດຍການຖອນບາງສ່ວນຂອງລະບົບ AI ຫຼືການປ່ຽນແປງລະຫັດເພື່ອບໍ່ໃຫ້ມັນເຮັດວຽກຫຼືຫນ້າທີ່ແຕກຕ່າງຈາກມັນກ່ອນ (ຮູບແບບການພິຈາລະນາການຟື້ນຟູ).

ສານໄດ້ສັ່ງໃຫ້ລະຫັດ AI ທີ່ກ່ຽວຂ້ອງກັບການຢຸດຢູ່ປ້າຍ Stop ຈະຖືກປ່ຽນແທນດ້ວຍລະຫັດໃໝ່ທີ່ປະກອບຢ່າງເຂັ້ມງວດກວ່າ. ນອກຈາກນັ້ນ, ມີສ່ວນຫນຶ່ງທີ່ຫັນອອກເພື່ອໃຫ້ສາມາດມ້ວນຜ່ານປ້າຍຢຸດ, ເຊິ່ງໃນປັດຈຸບັນຕ້ອງຖືກລຶບລ້າງອອກຈາກລະຫັດແລະບໍ່ມີຊິ້ນສ່ວນທີ່ຕິດຢູ່. ຖ້າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ລະເມີດຂໍ້ກໍານົດທີ່ວາງໄວ້, ຈະມີການລົງໂທດຕື່ມອີກ.

  • ເອົາຊັບສິນໂດຍສະເພາະຂອງ AI ເປັນການລົງໂທດສໍາລັບອາຊະຍາກໍາທີ່ກະທໍາໄວ້ແລະອາດຈະຖືກນໍາໃຊ້ເພື່ອຊົດເຊີຍຜູ້ທີ່ເປັນອັນຕະລາຍຈາກອາຊະຍາກໍາ (ຖ້າ AI ມີຊັບສິນທີ່ສະສົມ, ທາງດ້ານຮ່າງກາຍຫຼືດິຈິຕອນໃນລັກສະນະ).

ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ໄດ້ເກັບກໍາຂໍ້ມູນຈໍານວນຫລາຍກ່ຽວກັບຕົວເມືອງແລະຕົວເມືອງ, ດໍາເນີນການດັ່ງທີ່ມັນກໍາລັງ roaming ແລະໃຫ້ຂັບເຄື່ອນ. ຂໍ້ມູນນີ້ກາຍເປັນສິ່ງທີ່ມີຄຸນຄ່າແລະສາມາດສ້າງລາຍໄດ້ (ຂ້ອຍໄດ້ອ້າງເຖິງເລື່ອງນີ້ເປັນ "ສາຍຕາທີ່ຫຼົງໄຫຼ" ຂອງລົດທີ່ຂັບລົດຕົນເອງ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍຢູ່ທີ່ລິ້ງນີ້). ໃນຖານະເປັນການຊົດເຊີຍສໍາລັບຜູ້ທີ່ເກືອບເປັນອັນຕະລາຍ, ແລະເປັນຮູບແບບຂອງການລົງໂທດ, ຂໍ້ມູນເປັນຊັບສິນຈະຖືກໂອນໄປຫາຜູ້ທີ່ເຮັດຜິດແລະພວກເຂົາສາມາດ leverage ຂໍ້ມູນຕາມຄວາມຕ້ອງການ. ຖ້າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ລະເມີດຂໍ້ກໍານົດທີ່ວາງໄວ້, ຈະມີການລົງໂທດຕື່ມອີກ.

  • ວາງ "ການລົງໂທດປະຫານຊີວິດ AI" ຕໍ່ AI ໂດຍການລຶບມັນອອກຈາກການມີຢູ່, ເຊິ່ງຍອມຮັບວ່າເປັນການຍາກທີ່ຈະເຮັດໃນເວລາທີ່ AI ອາດຈະມີສໍາເນົາອີເລັກໂທຣນິກຈໍານວນຫລາຍທີ່ເຊື່ອງໄວ້ທົ່ວໂລກຫຼືຢູ່ບ່ອນອື່ນ, ບວກກັບມັນອາດຈະຖືກສ້າງໃຫມ່ຢ່າງງ່າຍດາຍ. .

ສານ​ໄດ້​ສັ່ງ​ວ່າ​ລະບົບ​ຂັບ​ລົດ AI ນີ້​ມີ​ຄວາມ​ບົກພ່ອງ​ທັງ​ໝົດ ​ແລະ​ບໍ່​ຄວນ​ມີ​ຢູ່​ແລ້ວ. AI ຈະຕ້ອງຖືກລົບລ້າງໂດຍຫຍໍ້. ສຳເນົາສຳຮອງທັງໝົດຈະຖືກລຶບ. ບໍ່ມີບັນທຶກ, ເອກະສານ, ຫຼືອົງປະກອບອື່ນໆທີ່ເຄີຍເປັນສ່ວນຫນຶ່ງຂອງຫຼືສະທ້ອນໃຫ້ເຫັນຂອງການອອກແບບແລະການເຂົ້າລະຫັດຈະຖືກເກັບຮັກສາໄວ້. ພວກເຂົາທັງຫມົດຕ້ອງໄດ້ຮັບການທໍາລາຍ. ຖ້າ AI ຄຸ້ມຄອງເພື່ອຫລີກເວັ້ນການສະຫນອງນີ້, ການລົງໂທດເພີ່ມເຕີມຈະຖືກໃຊ້.

ສະຫຼຸບ

ໃນຂະນະທີ່ທ່ານກໍາລັງ ruminating ກ່ຽວກັບທັງຫມົດນີ້, ຂ້າພະເຈົ້າຈະເພີ່ມບິດສໍາລັບທ່ານທີ່ຈະ mindfully noodle ສຸດ.

ຈຸດ​ປະ​ສົງ​ທີ່​ລະ​ບຸ​ໄວ້​ໃນ​ການ​ວາງ​ມາດ​ຕະ​ການ​ລົງ​ໂທດ​ແມ່ນ​ວ່າ​ນີ້​ຍັງ​ສາ​ມາດ​ເປັນ​ການ​ຊີ້​ນໍາ​ແລະ​ປ້າຍ​ສັນ​ຍານ​ທີ່​ຍັງ​ເຫຼືອ​ຂອງ​ສັງ​ຄົມ​. ໃນກໍລະນີຂອງມະນຸດ, ເມື່ອເຈົ້າໄດ້ຍິນຫຼືເຫັນວ່າມະນຸດອື່ນທີ່ກະທໍາຜິດແລະຖືກຕັດສິນລົງໂທດຖືກສົ່ງເຂົ້າຄຸກ, ການລົງໂທດນີ້ເບິ່ງຄືວ່າເປັນຂໍ້ຄຶດທີ່ເຈົ້າບໍ່ຄວນປະຕິບັດອາຊະຍາກໍາດັ່ງກ່າວ. ເຫດຜົນແມ່ນວ່າເຈົ້າບໍ່ຕ້ອງການທີ່ຈະທົນທຸກຊະຕາກໍາທີ່ບໍ່ຫນ້າພໍໃຈຄືກັນ.

ນີ້ແມ່ນການບິດ.

ຖ້າລະບົບ AI ທີ່ຖືກມອບໃຫ້ດີພໍທີ່ຈະຖືກພິຈາລະນາເປັນສຸກສໍາລັບການລົງໂທດທາງກົດຫມາຍ, ນີ້ຍັງແນະນໍາວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ທີ່ຢູ່ພາຍນອກຍັງຈະເຫັນສິ່ງນີ້ແລະສະຫຼຸບວ່າການກະທໍາຜິດທາງອາຍາແມ່ນບໍ່ມີປະໂຫຍດບໍ? ໂດຍເນື້ອແທ້ແລ້ວ, "ການຮຽນຮູ້" ຂອງລະບົບ AI ອາດຈະຄົ້ນພົບດ້ວຍຕົວມັນເອງວ່າການເປັນອາຊະຍາກໍາແມ່ນເປັນສິ່ງທີ່ບໍ່ດີແລະດັ່ງນັ້ນ AI ຄວນຫລີກລ້ຽງບໍ່ວ່າຈະໂດຍບໍ່ໄດ້ຕັ້ງໃຈຫຼືໂດຍຂະບວນການທີ່ມີຈຸດປະສົງກະທໍາຜິດ.

ມັນເບິ່ງຄືວ່າເປັນບົດຮຽນອັນຮຸ່ງໂລດທີ່ໄດ້ຮຽນຮູ້ຖ້າຫາກວ່າ AI ອື່ນໆທີ່ຄິດໄລ່ວ່າອາດຊະຍາກໍາບໍ່ໄດ້ຈ່າຍ. ພວກເຮົາພຽງແຕ່ສາມາດຫວັງວ່າຈະໂຊກດີຫຼາຍ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/03/13/ai-ethics-and-the-riddle-underlying-criminal-accountability-of-ai-including-crimes-committed-by- revered-ai-based-auto-driving-cars/