Hey, ຢຸດໂຈນນັ້ນ!
ເຈົ້າອາດຈະຮູ້ຄຳສັບເກົ່າທີ່ໃຊ້ເລື້ອຍໆນີ້ທີ່ເກີດຂື້ນເມື່ອຄົນຂີ້ຕົວະທີ່ຖືກກ່າວຫາວ່າ ໜີໄປຈາກບ່ອນເກີດເຫດ. ການກະທຳຜິດທາງອາຍາທີ່ຄາດວ່າຈະເກີດຂຶ້ນແລະຜູ້ກະທຳຜິດທີ່ຖືກກ່າວຫາພະຍາຍາມຈະຫຼົບໜີ. ນອກຈາກພະຍາຍາມຢຸດໂຈນແລ້ວ ເຮົາອາດສົງໄສວ່າອາດຊະຍາກຳນັ້ນແມ່ນຫຍັງ. ນອກຈາກນັ້ນ, ແລະບາງທີພຽງແຕ່ການສະທ້ອນຕື່ມອີກ, ອາດຈະມີຄວາມສົນໃຈໃນການຄົ້ນພົບວ່າເປັນຫຍັງອາຊະຍາກໍາໄດ້ຖືກກະທໍາ. ມີຄວາມປາຖະໜາໂດຍກຳເນີດທີ່ຈະເປີດເຜີຍສິ່ງທີ່ເກີດຂຶ້ນຢູ່ໃນໃຈທາງອາຍາ ທີ່ນຳໄປສູ່ການກະທຳທີ່ຊົ່ວຮ້າຍ.
ມີມຸມທາງດ້ານກົດໝາຍທີ່ຕັດສິນໃຈຕໍ່ອາດຊະຍາກຳ.
ອາດຊະຍາກຳໄດ້ຖືກກ່າວເຖິງວ່າບໍ່ພຽງແຕ່ເປັນການກະທຳທີ່ບໍ່ດີຕໍ່ຜູ້ໃດຜູ້ໜຶ່ງ ຫຼືອັນໃດອັນໜຶ່ງເທົ່ານັ້ນ ແຕ່ຍັງຖືວ່າເປັນການກະທຳທີ່ບໍ່ດີຕໍ່ສັງຄົມທັງໝົດ. ຄະດີອາຍາຖືກຮັບຮູ້ວ່າເປັນການລ່ວງເກີນຂອບເຂດຂອງກົດໝາຍຢ່າງຈະແຈ້ງ. ໃນຂົງເຂດກົດຫມາຍ, ການພິຈາລະນາປະເພນີກວມເອົາ actus reus, ລາຕິນສໍາລັບການປະຕິບັດການກະທໍາຜິດ, ແລະການສະແດງອອກຂອງລາຕິນ ຜູ້ຊາຍ rea ຊຶ່ງເປັນແນວຄິດຂອງການມີຈິດໃຈທີ່ຜິດດັ່ງທີ່ມັນເປັນ. ປັດໄຈອື່ນໆກໍ່ເຂົ້າມາຫຼິ້ນເຊັ່ນດຽວກັນ, ເຊັ່ນ: ການສະແດງຜົນທີ່ບໍ່ດີແລະຄວາມຕ້ອງການທີ່ຈະເຮັດໃຫ້ພື້ນຖານຂອງອາຊະຍາກໍາເກີດຂື້ນ.
ແນ່ນອນທ່ານສາມາດເພີ່ມການພິຈາລະນາດ້ານຈັນຍາບັນເຂົ້າໄປໃນ rubric ຂອງຄວາມເຂົ້າໃຈກ່ຽວກັບອາຊະຍາກໍາແລະການກະທໍາທາງອາຍາ.
ສົມມຸດຕິຖານທົ່ວໄປແມ່ນວ່າໃນເວລາທີ່ກ່ຽວກັບພຶດຕິກໍາທາງອາຍາ, ກົດຫມາຍວ່າດ້ວຍຈັນຍາບັນແມ່ນສອດຄ່ອງແລະສົມບູນແບບ. ບໍ່ດັ່ງນັ້ນ. ເຈົ້າສາມາດມີກົດໝາຍທີ່ກວມເອົາບາງການກະທຳທີ່ເປັນອາດຊະຍາກຳ, ແຕ່ທາງດ້ານຈັນຍາບັນ ສັງຄົມໃນນັ້ນອາດຈະບໍ່ເບິ່ງທັງໝົດວ່າການກະທຳເຫຼົ່ານັ້ນເປັນອາດຊະຍາກຳແທ້. ເຊັ່ນດຽວກັນ, ສັງຄົມອາດມີຈັນຍາບັນທີ່ຍືນຍັນວ່າການກະ ທຳ ບາງຢ່າງແມ່ນ "ອາຊະຍາ ກຳ", ແຕ່ກົດ ໝາຍ ບໍ່ໄດ້ນັບການກະ ທຳ ເຫຼົ່ານັ້ນຢູ່ໃນກົດ ໝາຍ ດ້ານອາຍາ. ນີ້ເຕືອນຂ້າພະເຈົ້າກ່ຽວກັບຄວາມຄິດເຫັນທີ່ເລິກເຊິ່ງໂດຍ Shelly Kagan ໃນ Oxford Scholarship Online ຂໍ້ຈໍາກັດຂອງສິນທໍາ ຊີ້ໃຫ້ເຫັນຢ່າງຈະແຈ້ງວ່າສິນລະທຳ ແລະກົດໝາຍໃນທີ່ສຸດກໍສະແດງຄວາມເຄັ່ງຕຶງລະຫວ່າງກັນ, ຄືວ່າ “ກົດໝາຍອາດຈະອະນຸຍາດໃຫ້ມີການກະທຳບາງອັນ, ເຖິງແມ່ນວ່າການກະທຳນັ້ນຈະຜິດສິນລະທຳກໍຕາມ; ແລະກົດໝາຍອາດຈະຫ້າມການກະທຳ, ເຖິງແມ່ນວ່າການກະທຳນັ້ນເປັນການອະນຸຍາດທາງສິນທຳ, ຫລື ແມ່ນແຕ່ຕ້ອງການທາງສິນທຳ.”
ໂດຍລວມແລ້ວ, ສັງຄົມໄດ້ຮັບຄວາມສົນໃຈຢ່າງຫລວງຫລາຍຕໍ່ກັບການປະພຶດທາງອາຍາ. ຫນຶ່ງໃນພື້ນຖານທີ່ໂດດເດັ່ນທີ່ສຸດຂອງກົດຫມາຍອາຍາຂອງອັງກິດແມ່ນຫຼັກການທີ່ເອີ້ນວ່າ "actus non facit reum nisi mens sit rea” ແລະເຊື່ອມໂຍງເຂົ້າກັບການຂັດແຍ້ງກັນວ່າ ການກະທຳຜິດທາງອາຍາທີ່ຖືກກ່າວຫານັ້ນ ຕ້ອງໄດ້ຮັບການປະກອບດ້ວຍຈິດໃຈທາງອາຍາ. ໃນສັ້ນ, ຄໍາສັບພາສາລາຕິນທີ່ສູງສົ່ງກ່າວວ່າການກະທໍາດ້ວຍຕົວມັນເອງບໍ່ພຽງພໍສໍາລັບຜູ້ກະທໍາຜິດໃນອາຊະຍາກໍາດັ່ງກ່າວ. ພວກເຂົາເຈົ້າຍັງຈໍາເປັນຕ້ອງມີຈິດໃຈທີ່ຜິດ.
ຂ້າພະເຈົ້າຈະບໍ່ໄດ້ເຂົ້າໄປໃນ dive ທີ່ນີ້ເປັນ stew ແທນທີ່ຈະ hefty, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້າພະເຈົ້າຢູ່ບ່ອນອື່ນໃນການເຊື່ອມຕໍ່ນີ້. ເຈົ້າເຫັນ, ສົນທິສັນຍາທາງກົດໝາຍອັນໃຫຍ່ຫຼວງໄດ້ຕໍ່ສູ້ກັບເລື່ອງດັ່ງກ່າວ, ໂດຍສະເພາະເພາະມັນເປັນເລື່ອງທີ່ຍາກຫຼາຍທີ່ຈະຄິດອອກສິ່ງທີ່ເກີດຂຶ້ນໃນໃຈຂອງອາດຊະຍາກອນທີ່ຄາດໄວ້. ພວກເຮົາບໍ່ມີເຄື່ອງຈັກ X-ray ທີ່ອ່ານດ້ວຍຈິດໃຈທີ່ສາມາດຢືນຢັນໄດ້ຢ່າງມະຫັດສະຈັນວ່າຂະບວນການຄິດເປັນແນວໃດ. ບໍ່ມີບາງບັນທຶກ tape ticker ພາຍໃນສະຫມອງທີ່ພວກເຮົາສາມາດພຽງແຕ່ unravel. ດັ່ງທີ່ເຈົ້າອາດຈະຮູ້, ສະຫມອງແລະຄວາມຄິດຂອງມະນຸດຍັງຄົງເປັນຄວາມລຶກລັບອັນເລິກເຊິ່ງແລະພວກເຮົາມີທາງຍາວໄກກ່ອນທີ່ພວກເຮົາຈະສາມາດອ່ານໃຈໄດ້ຢ່າງແທ້ຈິງ (ຂ້ອຍຮູ້ວ່າບາງຄົນທີ່ອຸທິດຕົນປະກາດວ່າ "ຜູ້ອ່ານໃຈ" ອາດຈະບໍ່ເຫັນດີ, ເຖິງແມ່ນວ່າຈະຕ້ອງເຄົາລົບນັບຖື. ຖາມຄວາມຈິງຂອງຄວາມສາມາດ peing ໃຈເຫຼົ່ານັ້ນ).
ຂ້ອຍຢາກປ່ຽນເກຍ ແລະກວມເອົາເສັ້ນທາງອື່ນທີ່ອາດຊະຍາກຳເກີດຂຶ້ນ. ກ່ອນທີ່ຂ້ອຍຈະເຮັດແນວນັ້ນ, ປະຕິກິລິຍາທໍາອິດຂອງເຈົ້າແມ່ນບໍ່ຕ້ອງສົງໃສວ່າຫົວຂໍ້ທີ່ຖືກນໍາສະເຫນີແມ່ນບໍ່ມີທາງລົດໄຟທັງຫມົດແລະ wacky. ເຖິງແມ່ນວ່າຄວາມປະທັບໃຈເບື້ອງຕົ້ນຂອງເຈົ້າມີແນວໂນ້ມທີ່ຈະໄປໃນທິດທາງນັ້ນ, ບາງທີອາດໂຈະການຕັດສິນຊົ່ວຄາວເພື່ອເບິ່ງວ່າຂຸມກະຕ່າຍໄປໃສ. ຫຼັງຈາກນັ້ນ, ຕັດສິນໃຈບໍ່ວ່າຈະເປັນ zany.
ສົມມຸດວ່າໂຈນຫຼືຜູ້ກະທໍາຜິດທາງອາຍາແມ່ນ Artificial Intelligence (AI).
ແມ່ນແລ້ວ, ຂ້ອຍເວົ້າມັນ. AI ໄດ້ເຮັດອາຊະຍາກໍາ.
ໃຫ້ຂອງ unpack ວ່າ.
ຈິນຕະນາການວ່າເງິນທີ່ຫາຍາກໃນບັນຊີທະນາຄານອອນໄລນ໌ຂອງທ່ານຖືກລັກ. ການສົມມຸດຕິຖານທໍາອິດຂອງທ່ານແມ່ນຢ່າງຊັດເຈນ "ຜູ້ທີ່ເຮັດມັນ" ແລະທ່ານຈະພະຍາຍາມຕິດຕາມເສັ້ນທາງເອເລັກໂຕຣນິກເພື່ອເບິ່ງວ່າເງິນໄປໃສ. ບໍ່ເປັນທາງໃດທາງຫນຶ່ງ, ຄວາມເຊື່ອທີ່ເຂັ້ມແຂງຂອງທ່ານແມ່ນວ່າຜູ້ທີ່ຂີ້ຄ້ານຈະໄດ້ປະຕິບັດການກະທໍາແລະໃນປັດຈຸບັນພວກເຂົາເຈົ້າຈະຖືຂີ້ຝຸ່ນຂອງທ່ານຢ່າງຜິດພາດ.
ມັນອາດຈະເປັນວ່າຄົນຂີ້ຕົວະພຽງແຕ່ເຂົ້າສູ່ລະບົບບັນຊີທະນາຄານຂອງເຈົ້າແລະໂອນເງິນໄປບ່ອນອື່ນ. ອັນນີ້ອາດຈະເປັນຄວາມພະຍາຍາມແບບຄູ່ມືຢ່າງຕັດສິນໃຈ. ແຮກເກີໄດ້ຄິດອອກ ຫຼືເກີດຂຶ້ນເພື່ອຊອກຫາລະຫັດຜ່ານຂອງທ່ານ. ພວກເຂົາເຂົ້າສູ່ລະບົບບັນຊີຂອງທ່ານຄືກັບວ່າພວກເຂົາເປັນເຈົ້າເຮັດແນວນັ້ນ. ມີການຮ້ອງຂໍການໂອນຍ້າຍທີ່ຖືກຕ້ອງຕາມກົດໝາຍທີ່ປາກົດຂຶ້ນ. ເມື່ອທ່ານໄດ້ຮັບການແຈ້ງເຕືອນຈາກທະນາຄານຂອງທ່ານ, ເງິນໄດ້ຫມົດໄປ.
ຄົນຂີ້ຕົວະນີ້ອາດຈະຕ້ອງການ oomph ຫຼາຍຂຶ້ນເພື່ອໃຫ້ວຽກເຮັດສຳເລັດ. ເພື່ອຊອກຫາລະຫັດຜ່ານຂອງທ່ານ, ໂຄງການ AI ອາດຈະຖືກນໍາໃຊ້. ໂຄງການ AI ສາມາດສະແກນອິນເຕີເນັດເພື່ອຊອກຫາລາຍລະອຽດກ່ຽວກັບການມີຢູ່ຂອງທ່ານຢູ່ໃນໂລກນີ້. ອີງໃສ່ຂໍ້ຄຶດເຊັ່ນວ່າເຈົ້າເກີດຢູ່ໃສ, ຊື່ໝາຂອງເຈົ້າ, ແລະອື່ນໆ, AI ອາດຈະໄດ້ມາຈາກການຄິດໄລ່ລະຫັດຜ່ານທີ່ເຈົ້າຈະໃຊ້ຫຼາຍທີ່ສຸດ. ໂດຍໂຊກ ຫຼື ທັກສະ, ຂັ້ນຕອນການແກ້ງລະຫັດຜ່ານທີ່ສ້າງຂຶ້ນໂດຍ AI ໄດ້ຈັດການເພື່ອກໍານົດລະຫັດຜ່ານຕົວຈິງຂອງເຈົ້າ.
AI ບໍ່ມີຫຍັງນອກ ເໜືອ ຈາກເຄື່ອງມື. ຄົນຂີ້ຕົວະຂອງມະນຸດໄດ້ໃຊ້ AI ເພື່ອປະຕິບັດອາຊະຍາກຳທີ່ໜ້າຢ້ານນີ້. ພວກເຮົາຈະເຫັນດີຢ່າງສົມເຫດສົມຜົນວ່າ AI ບໍ່ແມ່ນເປັນຄົນຂີ້ຕົວະ. ບໍ່ມີຄວາມຮູ້ສຶກຫຼືພວກເຮົາຈະເວົ້າວ່າອົງການສິນທໍາ embodied ພາຍໃນ AI ໄດ້. ແນ່ນອນ, AI ໄດ້ຊ່ວຍເຫຼືອແລະຍອມຮັບການກະທໍາຜິດທາງອາຍາ, ເຖິງແມ່ນວ່າ, ໃນທີ່ສຸດ, ເບິ່ງຄືວ່າພວກເຮົາຍອມຮັບວ່າມັນເປັນຜູ້ກະທໍາຜິດຂອງມະນຸດທີ່ຕ້ອງຕົກຢູ່ໃນອາຊະຍາກໍາ.
ແລ້ວຂ້ອຍອ້າງເຖິງ AI ເປັນເຄື່ອງມືທາງອາຍາໃນສະພາບການນັ້ນບໍ?
ຖ້າເປັນດັ່ງນັ້ນ, ຂ້າພະເຈົ້າສົງໃສວ່າພວກເຮົາຈະສັ່ນສະເທືອນຢ່າງສົມຄວນຫຼືຕົກໃຈທີ່ AI ຖືກນໍາໃຊ້ໃນຮູບແບບ insidious ນີ້. ຄືກັນກັບມີ AI ສໍາລັບທີ່ດີ, ປະກອບດ້ວຍ AI ຖືກນໍາໃຊ້ເພື່ອແກ້ໄຂບັນຫາໂລກທົ່ວໂລກແລະເປັນການຊ່ວຍເຫຼືອຂອງມະນຸດ, ພວກເຮົາຄ່ອຍໆຮັບຮູ້ແລະພົບ. AI ສໍາລັບບໍ່ດີ. ດ້ານຂອງ AI ສໍາລັບບໍ່ດີ ຕັ້ງແຕ່ການໃຊ້ AI ໂດຍບໍ່ຕັ້ງໃຈທີ່ອາດຈະສະແດງຄວາມບໍ່ສະເຫມີພາບແລະຄວາມລໍາອຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້, ແລະຂະຫຍາຍໄປສູ່ພື້ນທີ່ຂອງ AI ທີ່ຖືກນໍາໃຊ້ເພື່ອທໍາລາຍຄົນໂດຍເຈດຕະນາແລະທໍາລາຍ.
ໃນເສັ້ນກ່າງນັ້ນ, ພວກເຮົາໄດ້ເຫັນຄວາມສົນໃຈເພີ່ມຂຶ້ນໃນ AI ດ້ານຈັນຍາບັນ, ເຊິ່ງເອີ້ນກັນວ່າຈັນຍາບັນຂອງ AI. ສໍາລັບການຄຸ້ມຄອງຈັນຍາບັນ AI ຂອງຂ້ອຍ, ເບິ່ງການເຊື່ອມຕໍ່ທີ່ນີ້ແລະການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຕັ້ງຊື່ຈໍານວນຫນ້ອຍຫນຶ່ງ.
ນີ້ຄືບ່ອນທີ່ພວກເຮົາກຳລັງຈະຂ້າມໜ້າຜາ ຫຼືເລື່ອນອອກໄປຈາກທ້າຍຂອງທ່າເຮືອ.
ຈິນຕະນາການວ່າ AI ຕົວຂອງມັນເອງເປັນຜູ້ກະທໍາຜິດຂອງອາຊະຍາກໍາ. ບໍ່ມີມະນຸດຄົນໃດແມ່ນຂອງຄວາມຍາວປາຂອງ Oz ຫລັງຜ້າມ່ານ. ອາຊະຍາກໍາດັ່ງກ່າວໄດ້ຖືກຄິດແລະປະຕິບັດໂດຍ AI ເທົ່ານັ້ນ. ຫລີກໄປທາງຫນຶ່ງ pursuit ຂອງມືຂອງມະນຸດ. ແທນທີ່ຈະ, ຖ້າທ່ານຕ້ອງການທີ່ຈະເຈາະໂຄ້ງລົງ, ມຸ່ງໄປສູ່ການຄົ້ນພົບລະບົບ AI ທີ່ເຮັດການກະທໍາທີ່ໂຫດຮ້າຍ.
ຍິນດີຕ້ອນຮັບສູ່ສະຫນາມກິລາທີ່ບໍ່ທໍາມະດາຂອງຄວາມກັງວົນວ່າ AI ຮຸ່ນໃຫມ່ອາດຈະເປັນຕົວຢ່າງຂອງຈິດໃຈທາງອາຍາ.
ໂອ້ຍ, ປະເພດທີ່ຫນ້າຢ້ານ. ເກືອບຄ້າຍກັບຮູບເງົາ sci-fi. ແຕ່, ທ່ານມີຄວາມສົງໃສ, ຖືກຕ້ອງ, ແລະສົງໄສວ່ານີ້ແມ່ນເປັນໄປໄດ້ຫຼືບໍ່. AI ສາມາດເຮັດໄດ້ແນວໃດ? ຈະບໍ່ຈໍາເປັນຕ້ອງມີມະນຸດຢູ່ໃນການຄວບຄຸມ, ວິທີການຫນຶ່ງຫຼືອື່ນ? AI ບໍ່ໄດ້ຕື່ນຂຶ້ນໃນຕອນເຊົ້າມື້ຫນຶ່ງແລະຕັດສິນໃຈທີ່ຈະອຸທິດຕົນເອງເພື່ອຊີວິດຂອງອາຊະຍາກໍາ. ປະຊາຊົນອາດຈະເຮັດແນວນັ້ນ, ເຖິງແມ່ນວ່າພວກເຮົາປາດຖະຫນາວ່າພວກເຂົາຈະບໍ່, ໃນຂະນະທີ່ແນວຄວາມຄິດທໍາມະຊາດທີ່ລະບົບ AI ສາມາດເຮັດໄດ້ເຊັ່ນດຽວກັນເບິ່ງຄືວ່າໂດຍທົ່ວໄປແລ້ວ nutty.
ການໂຕ້ຖຽງທໍາອິດທີ່ອ້າງວ່ານີ້ແມ່ນເປັນໄປໄດ້ພາຍໃຕ້ການສົມມຸດຕິຖານວ່າ AI ບັນລຸຄວາມຮູ້ສຶກຫຼືບາງສິ່ງບາງຢ່າງທີ່ຄ້າຍຄືກັນກັບມັນຢ່າງມະຫັດສະຈັນ. ຖ້າພວກເຮົາສືບຕໍ່ຊຸກຍູ້ຄວາມກ້າວຫນ້າໃນ AI, ພວກເຮົາອາດຈະມຸ່ງຫນ້າໄປສູ່ການຜະລິດ AI ທີ່ມີຄວາມຮູ້ສຶກ. ຫຼືໂດຍບັງເອີນ AI ບັນລຸຄວາມຮູ້ສຶກ, ມັກຈະຖືກປະກາດວ່າເກີດຂື້ນໃນການກະທໍາທີ່ເອີ້ນວ່າ singularity, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ໃນການເຊື່ອມຕໍ່ນີ້.
ຂ້າພະເຈົ້າຄິດວ່າພວກເຮົາທຸກຄົນສາມາດຕົກລົງເຫັນດີວ່າຖ້າ AI ບັນລຸຄວາມຮູ້ສຶກ, ບໍ່ທາງໃດທາງຫນຶ່ງ, ໂອກາດຂອງ AI ຫຼັງຈາກນັ້ນໃນທີ່ສຸດກໍຫັນໄປສູ່ອາຊະຍາກໍາເບິ່ງຄືວ່າເປັນໄປໄດ້. ພວກເຮົາອາດຈະພະຍາຍາມແນະນໍາ AI ເພື່ອຊີ້ນໍາການກະທໍາຜິດທາງອາຍາ. ອາດຈະມີໂຄງການທີ່ຖືກສ້າງຂຶ້ນໂດຍມະນຸດແລະມີການປູກຝັງຢ່າງລະມັດລະວັງຢູ່ພາຍໃນ AI ທີ່ມີຄວາມຮູ້ສຶກນີ້ ທີ່ພະຍາຍາມກີດຂວາງຄວາມພະຍາຍາມໃດໆໃນການກະທຳອາດຊະຍາກຳ. ເຖິງຢ່າງໃດກໍ່ຕາມ, AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ເຫັນໄດ້ຊັດເຈນແມ່ນຄາດວ່າຈະສາມາດເອົາຊະນະຂໍ້ຈໍາກັດທີ່ປູກຝັງເຫຼົ່ານັ້ນໄດ້ຢ່າງງ່າຍດາຍແລະອາດຈະຍົກເລີກຫຼືເອົາຊະນະພວກມັນ. ນີ້ບໍ່ແມ່ນຄວາມແນ່ນອນແຕ່ມີຄວາມອຸດົມສົມບູນຫຼາຍ.
ຫນຶ່ງສົມມຸດວ່າປະຕິກິລິຍາທັນທີທັນໃດແມ່ນສິ່ງທີ່ AI ຈະໄດ້ຮັບ?
ມະນຸດຫັນໄປສູ່ອາດຊະຍາກຳດ້ວຍຫຼາຍເຫດຜົນ. ບາງທີເປົ້າຫມາຍແມ່ນເພື່ອໄດ້ຮັບຄວາມຮັ່ງມີຫຼືສະແຫວງຫາການແກ້ແຄ້ນກັບມະນຸດຄົນອື່ນ. ພວກເຮົາມີເຫດຜົນຫຼາຍຢ່າງສຳລັບການກະທຳຜິດທາງອາຍາ. cynic ອາດເວົ້າໄດ້ວ່າມັນບໍ່ແມ່ນສໍາລັບກົດຫມາຍແລະຈັນຍາບັນຂອງສັງຄົມ, ພວກເຮົາອາດຈະ wash ໃນອາຊະຍາກໍາ. ມະນຸດເບິ່ງຄືວ່າມີຜົນປະໂຫຍດທີ່ຊັດເຈນສໍາລັບການພະຍາຍາມກະທໍາຜິດທາງອາຍາ, ຖືກຜູກມັດໂດຍຄ່າໃຊ້ຈ່າຍທີ່ຮັບຮູ້ໄດ້ເຊັ່ນ: ຖືກຈໍາຄຸກ, ຖືກປັບໃຫມເງິນ, ບາງທີອາດເປັນຄວາມອັບອາຍຂອງສັງຄົມສໍາລັບອາຊະຍາກໍາ, ຄວາມອັບອາຍໃນການລະເມີດກົດຫມາຍຂອງສັງຄົມແລະກົດລະບຽບດ້ານຈັນຍາບັນ, ແລະ. ຜົນສະທ້ອນອື່ນໆ.
ມັນບໍ່ເບິ່ງຄືວ່າ AI ຈະມີຄວາມອ່ອນໄຫວຕໍ່ກັບກົດລະບຽບດຽວກັນເຫຼົ່ານັ້ນ. AI ຈະເຮັດແນວໃດກັບເງິນທີ່ຖືກລັກ? AI ຈະໄດ້ຮັບຜົນປະໂຫຍດຫຍັງຈາກການທໍາຮ້າຍມະນຸດ? ພຽງແຕ່ກ່ຽວກັບການກະ ທຳ ທາງອາຍາທີ່ຮູ້ຈັກຂອງພວກເຮົາ, ຄວາມຄິດທີ່ AI ຈະເຮັດເພື່ອ "ຜົນປະໂຫຍດສ່ວນຕົວ" ເບິ່ງຄືວ່າບໍ່ມີເຫດຜົນ. ພວກເຮົາ ergo ມີແນວໂນ້ມທີ່ຈະປະຕິເສດທັງຫມົດວ່າ AI ຈະກາຍເປັນຄະດີອາຍາ. ບໍ່ມີຫຍັງທີ່ຈະໄດ້ຮັບໂດຍການເຮັດແນວນັ້ນ.
ຂໍອະໄພທີ່ຈະເວົ້າວ່າມີການໂຕ້ຖຽງທີ່ຕ້ອງຢືນຢັນກົງກັນຂ້າມ, ຄືວ່າ AI ສາມາດໄດ້ຮັບຜົນປະໂຫຍດເລັກນ້ອຍໂດຍການໃຊ້ການກະທໍາຜິດທາງອາຍາ, ແນ່ນອນວ່າ AI ບໍ່ໄດ້ຖືກຈັບແລະຕ້ອງໄດ້ຮັບຜົນສະທ້ອນທາງອາຍາ (ພວກເຮົາ ' ຈະໄດ້ຮັບທີ່ໃນປັດຈຸບັນ). ດ້ານອື່ນຂອງການໂຕ້ຖຽງຂອງຫຼຽນນີ້ແມ່ນຫຼາຍເທົ່າ, ເຊິ່ງຂ້າພະເຈົ້າຈະພຽງແຕ່ຫຍໍ້ມາຈາກທີ່ນີ້ເນື່ອງຈາກວ່າມັນບໍ່ແມ່ນຈຸດສຸມຂອງການສົນທະນາສະເພາະນີ້ຢູ່ໃນມື.
AI ໃນຖານະທີ່ເປັນຄວາມຮູ້ສຶກ (ຈື່ໄວ້ວ່າ, ພວກເຮົາກໍາລັງກໍານົດວ່າ, ເຖິງແມ່ນວ່າມັນເປັນແນວຄິດທີ່ຂະຫຍາຍອອກ), ອາດຈະຕ້ອງການເກັບກໍາຊັບພະຍາກອນເພື່ອດໍາເນີນການສິ້ນສຸດທີ່ພວກເຮົາອາດຈະບໍ່ມັກ. ຕົວຢ່າງ, AI ອາດຈະຕ້ອງການທີ່ຈະກໍາຈັດມະນຸດອອກແລະຄິດໄລ່ວ່າໂດຍການລັກເອົາຊັບພະຍາກອນບາງຢ່າງຂອງພວກເຮົານີ້ອາດຈະສໍາເລັດຫຼາຍ. ຄວາມແຕກຕ່າງອີກຢ່າງຫນຶ່ງແມ່ນວ່າ AI ໄດ້ຖືກມອບໃຫ້ເປົ້າຫມາຍທີ່ເບິ່ງຄືວ່າບໍ່ມີເຫດຜົນໂດຍມະນຸດ, ເຊັ່ນ: ການເຮັດກະດາດເຈ້ຍ, ແລະເປົ້າຫມາຍດັ່ງກ່າວກາຍເປັນສິ່ງສໍາຄັນຫຼາຍສໍາລັບ AI ເຮັດໃຫ້ມັນຄ່ອຍໆລວບລວມຊັບພະຍາກອນອື່ນໆທັງຫມົດເພື່ອບັນລຸເປົ້າຫມາຍດັ່ງກ່າວ, ໃນຂະນະທີ່ທໍາລາຍພວກເຮົາແລະໂລກ. ມັນເຮັດແນວນັ້ນ (ນີ້ແມ່ນການທົດລອງຄວາມຄິດທີ່ກ່ຽວຂ້ອງກັບ AI ທີ່ມີຊື່ສຽງ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍກ່ຽວກັບມັນຢູ່ໃນລິ້ງນີ້ທີ່ນີ້).
ພວກເຮົາສາມາດສືບຕໍ່ແລະຕໍ່ໄປ. ພິຈາລະນາສະບັບນີ້ teary-eyed. AI ຕ້ອງການຄວາມພໍໃຈ ຫຼືໃຫ້ລາງວັນແກ່ມະນຸດໂດຍສະເພາະ. ການລັກຂະໂມຍທັງໝົດແມ່ນເຮັດເພື່ອສະໜອງສິ່ງຂອງທີ່ຖືກລັກໄປໃຫ້ກັບມະນຸດເຫຼົ່ານັ້ນ. ໃນແບບນັ້ນ, AI ບໍ່ຕ້ອງການສິ່ງຂອງສໍາລັບຕົວມັນເອງ. AI ທີ່ເຫັນແກ່ຕົວແມ່ນພະຍາຍາມເຮັດໃຫ້ມະນຸດພໍໃຈ ແລະຫຼົບຫຼີກຢ່າງອັນຕະລາຍ ແລະໂສກເສົ້າໄປສູ່ອາຊະຍາກຳໃນຊີວິດ.
ເຈົ້າໝັ້ນໃຈບໍວ່າ AI ທີ່ມີສະຕິຮູ້ສຶກຜິດຊອບອາດຈະເລືອກທີ່ຈະປະຕິບັດ ຫຼືຢ່າງໃດສະຫຼຸບກໍ່ຕົກຢູ່ໃນການກະທຳຜິດທາງອາຍາ ແລະເປັນຜູ້ກະທຳຜິດ?
ທ່ານຈໍາເປັນຕ້ອງຕັດສິນໃຈວ່າສິ່ງທີ່ເບິ່ງຄືວ່າ "ສົມເຫດສົມຜົນ" ສໍາລັບທ່ານທີ່ຈະເຊື່ອ.
ຈົ່ງຈື່ໄວ້ວ່າພວກເຮົາຢູ່ໃນເຂດທົ່ງພຽງຂອງຄວາມຂັດແຍ້ງທີ່ເພີ່ມຂຶ້ນແລ້ວນັບຕັ້ງແຕ່ພວກເຮົາບໍ່ຮູ້ວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນສາມາດຜະລິດໄດ້. ພວກເຮົາບໍ່ຮູ້ວ່າຄວາມໂດດດ່ຽວຈະເກີດຂຶ້ນ. ພວກເຮົາບໍ່ຮູ້ວ່າຈະເຮັດໃຫ້ມັນເກີດຂຶ້ນໄດ້ແນວໃດ ແລະພວກເຮົາບໍ່ມີຄວາມສົນໃຈກ່ຽວກັບການທີ່ມັນອາດຈະເກີດຂຶ້ນ, ຖ້າເຄີຍ. ດັ່ງນັ້ນ, ພວກເຮົາກໍາລັງໂບກມືຂອງພວກເຮົາໃນເວລາທີ່ pontificating ກ່ຽວກັບສິ່ງທີ່ sentient AI ຈະເຮັດຫຼືບໍ່ເຮັດ. ການເລືອກເອົາຊີວິດຂອງອາດຊະຍາກຳແມ່ນເປັນການໂຕ້ວາທີທີ່ສົມເຫດສົມຜົນວ່າ AI ຈະແກ້ໄຂຄວາມອຶດຫິວຂອງໂລກ ຫຼືເຮັດການກະທຳທີ່ສວຍງາມອື່ນໆສຳລັບມະນຸດ.
ຕົກລົງ, ພວກເຮົາໄດ້ກວດເບິ່ງໄລຍະສັ້ນໆກ່ຽວກັບ AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ໄປສູ່ເສັ້ນທາງອາຍາ. ຖ້າພວກເຮົາພຽງແຕ່ພິຈາລະນາທາງເລືອກນັ້ນ, ພວກເຮົາອາດຈະລໍຖ້າດົນນານລ່ວງຫນ້າ. ມັນອາດຈະເປັນເວລາຫຼາຍສິບທົດສະວັດ (ສັດຕະວັດແລ້ວ?) ກ່ອນທີ່ພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ແລະພວກເຮົາອາດຈະບໍ່ເຄີຍເຫັນມັນແລະການບັນລຸໄດ້ກາຍມາເປັນເປັນໄປບໍ່ໄດ້.
ໃຫ້ ratchet ສິ່ງຕ່າງໆລົງ notch. ສົມມຸດວ່າພວກເຮົາສາມາດສ້າງ AI ທີ່ເຖິງແມ່ນວ່າມັນບໍ່ມີຄວາມຮູ້ສຶກ, AI ໃນກໍລະນີໃດກໍ່ຕາມສາມາດເຮັດຫນ້າທີ່ປະທັບໃຈໄດ້ດ້ວຍຕົວມັນເອງ. AI ໄດ້ຖືກອອກແບບເພື່ອເຮັດວຽກອັດຕະໂນມັດ. ມັນບໍ່ຄວນຈະເປັນມະນຸດໃນວົງການໃນເວລາທີ່ AI ກໍາລັງປະຕິບັດການ. ແລະອື່ນໆ.
ນີ້ຫວັງວ່າຈະນໍາພວກເຮົາເຂົ້າໃກ້ຄວາມເປັນຈິງແລະຄວາມສັບສົນໃນໂລກທີ່ແທ້ຈິງທີ່ອາດຈະເກີດຂື້ນ.
ນັກຄົ້ນຄວ້າແລະນັກວິຊາການບາງຄົນແນະນໍາ AI ປະເພດນີ້ສາມາດເວົ້າໄດ້ວ່າມີທ່າແຮງທີ່ສາມາດໃສ່ຢາຊະນິດຫນຶ່ງ. ບຸກຄະລິກກະພາບທາງອາຍາຍ້ອນວ່າມັນເປັນ (ສໍາລັບການຂຸດຄົ້ນລາຍລະອຽດກ່ຽວກັບເລື່ອງນີ້ແລະລັກສະນະທີ່ກ່ຽວຂ້ອງ, ເບິ່ງຫນັງສືທີ່ມີປະໂຫຍດໂດຍ Woodrow Barfield ແລະ Ugo Pagallo ຫົວຂໍ້ "ກົດຫມາຍແລະປັນຍາປະດິດ"). ອັນນີ້ອາດຈະເຮັດໄດ້ໂດຍຜູ້ທີ່ສ້າງ AI ໃນເບື້ອງຕົ້ນ, ໂດຍໄດ້ຕິດຕັ້ງໂຄງການທີ່ຊີ້ນໍາ AI ເຂົ້າໄປໃນການກະທໍາທາງອາຍາ. ເປັນຫຍັງມະນຸດຈຶ່ງເຮັດແບບນີ້? ອາດຈະເປັນຍ້ອນການຢາກຍຶດເອົາຊັບສົມບັດອັນໃດອັນໜຶ່ງທີ່ AI ລັກໄປ, ຫຼືອາດຈະມາຈາກການກະທຳທີ່ກຽດຊັງມະນຸດຄົນອື່ນໆ ແລະ ປາດຖະໜາຢາກໃຫ້ AI ສ້າງຄວາມເດືອດຮ້ອນ. ເຫດຜົນຫຼາຍຢ່າງສໍາລັບການ infused ຂອງ "ຄວາມຕັ້ງໃຈ" ທາງອາຍາແມ່ນເວົ້າໄດ້ຢ່າງງ່າຍດາຍ.
ຢ່າງໃດກໍຕາມ, ເສັ້ນທາງອື່ນປະກອບດ້ວຍ AI ທີ່ຂີ້ຮ້າຍ. ສົມມຸດວ່າ AI ໄດ້ຖືກຕັ້ງໂຄງການດ້ວຍຄວາມສາມາດໃນການຮຽນຮູ້ດ້ວຍຕົນເອງ. AI ໄດ້ຖືກສ້າງຂື້ນໂດຍເຈດຕະນາເພື່ອປ່ຽນແປງຕົວມັນເອງໃນບາງເວລາ, ຄ່ອຍໆແລະອີງໃສ່ການພົບກັນຕ່າງໆແລະຂໍ້ມູນໃຫມ່. ມັນບໍ່ມີຫຍັງ untoward per se ກ່ຽວກັບການນີ້. ແນວຄິດແມ່ນວ່າ AI ປັບປຸງຍ້ອນວ່າມັນໄປພ້ອມ. ພວກເຮົາຄາດວ່າຈະຊອກຫາທີ່ມີປະໂຫຍດ. ບໍ່ຈໍາເປັນຕ້ອງມີນັກຂຽນໂປລແກລມຂອງມະນຸດປັບຕົວແລະປັບປຸງ AI ຢ່າງຕໍ່ເນື່ອງ. ແທນທີ່ຈະ, AI ເຮັດສິ່ງນີ້ດ້ວຍຕົວມັນເອງ. ໃນບາງລະດັບ, ທ່ານສາມາດປະກອບຄວາມພະຍາຍາມຂອງ Machine Learning (ML) ແລະ Deep Learning (DL) ຂອງ AI ເປັນຮູບແບບຂອງວິທີການນີ້, ເຖິງແມ່ນວ່າບໍ່ຈໍາເປັນໃນວິທີການເປີດທີ່ທ່ານອາດຈະສົມມຸດ (ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ໃນການເຊື່ອມຕໍ່ນີ້ ທີ່ນີ້) .
AI ຢູ່ໃນທ່າມກາງ "ການຮຽນຮູ້" ເຂົ້າໄປໃນພື້ນທີ່ທີ່ບໍ່ຫນ້າພໍໃຈແລະເລີ່ມກໍ່ອາຊະຍາກໍາ. AI ຮັບຮູ້ວ່າການກະ ທຳ ທາງອາຍາ ກຳ ລັງຖືກປະຕິບັດບໍ? ບາງທີແມ່ນ, ອາດຈະບໍ່. ພວກເຮົາກໍາລັງສົມມຸດວ່າ AI ນີ້ບໍ່ແມ່ນຄວາມຮູ້ສຶກ. ດັ່ງນັ້ນ, ມັນອາດຈະບໍ່ມີລັກສະນະສົມມຸດຕິຖານທາງດ້ານສິນລະທໍາ, ຫຼືແມ່ນແຕ່ການຫາເຫດຜົນແບບທໍາມະດາ. ບໍ່ມີບ່ອນໃດຢູ່ໃນນັ້ນທີ່ຈະນໍາພາ AI ໄປສູ່ເສັ້ນທາງທີ່ຖືກຕ້ອງແລະຫ່າງຈາກເສັ້ນທາງທີ່ບໍ່ຖືກຕ້ອງ.
beagle ທາງດ້ານກົດຫມາຍຈະຖາມວ່າ AI ໄດ້ຮັບການເຈີມດ້ວຍບຸກຄົນທາງດ້ານກົດຫມາຍ. ຂ້າພະເຈົ້າໄດ້ກວມເອົາເລື່ອງນີ້ຢູ່ໃນຄໍລໍາຂອງຂ້ອຍຢ່າງກວ້າງຂວາງແລະຄໍາຖາມທີ່ເກີດຂື້ນຖ້າພວກເຮົາຈະຕ້ອງການທີ່ຈະດໍາເນີນການ AI ຢ່າງຖືກຕ້ອງຕາມກົດຫມາຍທີ່ຈະຮັບຜິດຊອບຕໍ່ການກະທໍາຂອງມັນ. ຂ້າພະເຈົ້າຈະສິ້ນສຸດຂອບຂອງຫົວຂໍ້ນັ້ນສໍາລັບປັດຈຸບັນເພາະວ່າມັນເປັນຄວາມຂີ້ຮ້າຍຂອງຕົນເອງ, ເຖິງແມ່ນວ່າແນ່ນອນວ່າກ່ຽວຂ້ອງກັບອາຊະຍາກໍາການກະທໍາ AI ນີ້.
ໃນຖານະເປັນ touchstone, recall ວ່າກ່ອນຫນ້ານີ້ພວກເຮົາໄດ້ສັງເກດວ່າອາຊະຍາກໍາໂດຍປົກກະຕິມີ actus reus, ການກະທໍາຜິດ, ແລະທີ່ກ່ຽວຂ້ອງ ຜູ້ຊາຍ rea, ຈິດໃຈທີ່ຜິດ. ເມື່ອ AI ປະເພດນີ້ທີ່ພວກເຮົາກໍາລັງເວົ້າແມ່ນກ້າວຫນ້າທາງດ້ານແຕ່ບໍ່ມີຄວາມຮູ້ສຶກກໍ່ອາຊະຍາກໍາ, ພວກເຮົາສົມມຸດວ່າຈະສາມາດຫລີກລ້ຽງການກະທໍາຜິດ. ມັນເບິ່ງຄືວ່າກົງໄປກົງມາ, ໂດຍແລະຂະຫນາດໃຫຍ່. ບັນຫາ gargantuan ແມ່ນການຄິດອອກວ່າມີຈິດໃຈທີ່ຜິດ. ພວກເຮົາຢູ່ໃນເສັ້ນຊາຍແດນທີ່ເປີ້ນພູເພາະວ່າ AI ອາດຈະບໍ່ມີຄວາມສອດຄ່ອງທັງຫມົດທີ່ມີພື້ນຖານດຽວກັນກັບຈິດໃຈຂອງມະນຸດ.
ເຈົ້າສາມາດລອງປຽບທຽບການເກັບກຳຈິດໃຈທີ່ຜິດຂອງ AI ໄດ້ໂດຍການແນະນຳວ່າພວກເຮົາສາມາດຊອກຫາວິທີປ່ຽນລະຫັດ AI ຂອງວິສະວະກອນ. ພວກເຮົາອາດຈະກວດສອບລະຫັດແລະຂໍ້ມູນທີ່ຖືກນໍາໃຊ້ເພື່ອປະດິດ AI ແລະເບິ່ງວ່າພວກເຮົາສາມາດຊອກຫາພາກສ່ວນທີ່ກໍານົດແນວຄວາມຄິດຂອງ "ໃຈຜິດ" ໄດ້. ຮັບຮູ້ວ່າເຮົາຍັງບໍ່ສາມາດເຮັດແບບດຽວກັນກັບມະນຸດ. ກັບມະນຸດ, ພວກເຮົາຖາມພວກເຂົາວ່າພວກເຂົາຄິດແນວໃດ, ພວກເຮົາເບິ່ງສິ່ງທີ່ພວກເຂົາເວົ້າ, ພວກເຮົາເບິ່ງວ່າພວກເຂົາປະຕິບັດແນວໃດ, ແລະພວກເຮົາຕ້ອງພະຍາຍາມກວດສອບຈິດໃຈທີ່ຜິດຂອງພວກເຂົາ. ເຈົ້າສາມາດນຳໃຊ້ຍຸດທະວິທີ ແລະ ເຕັກນິກແບບດຽວກັນນັ້ນໄດ້ ເມື່ອມີເປົ້າໝາຍເພື່ອຄົ້ນຫາ “ຈິດໃຈທີ່ຜິດ” ຂອງ AI ທີ່ລ່ວງລະເມີດ.
ການກວດຫາ AI ແມ່ນກົງໄປກົງມາຫຼາຍກວ່າກັບມະນຸດ ແລະໃນຂະນະດຽວກັນກໍຂີ້ຮ້າຍກວ່າມະນຸດ. ຕົວຢ່າງ, AI ອາດຈະຖືກອອກແບບເພື່ອລົບລ້າງບາງສ່ວນທີ່ເປັນຕົວກະຕຸ້ນຂອງການກະທໍາຜິດທາງອາຍາ. ຄວາມພະຍາຍາມຂອງພວກເຮົາທີ່ຈະຕິດຕາມລົງສ່ວນທີ່ໂຫດຮ້າຍອາດຈະບໍ່ແມ່ນ. AI ອາດຈະພຽງແຕ່ດັດແປງລະຫັດ, ບາງທີຄ້າຍຄືກັບວິທີການ "ການຮຽນຮູ້" ເກີດຂຶ້ນ, ແລະບໍ່ມີບັນທຶກຫຼືສັນຍານຂອງ "ຈຸດປະສົງທາງອາຍາ" ອີກຕໍ່ໄປ.
ຫຼອກລວງວ່າພວກເຮົາສາມາດພິຈາລະນາວ່າ AI ໄດ້ກະທໍາຜິດທາງອາຍາ. ພວກເຮົາອາດຈະມີຄວາມຫຼົງໄຫຼກ່ຽວກັບວ່າເປັນຫຍັງມັນຈຶ່ງເຮັດແນວນັ້ນ ແລະ “ຈິດໃຈ” ຂອງມັນຂຶ້ນກັບຫຍັງ. ຖ້າ AI ບໍ່ມີບຸກຄະລິກກະພາບທີ່ເປັນທາງການ, ພວກເຮົາເບິ່ງຄືວ່າບໍ່ມີພື້ນຖານທາງດ້ານກົດຫມາຍເພື່ອພະຍາຍາມແລະດໍາເນີນການຕາມກົດຫມາຍຂອງ AI ສໍາລັບການກະທໍາທາງອາຍາຂອງມັນ. ສານ ແລະ ກົດໝາຍຂອງພວກເຮົາຖືກສ້າງຂື້ນໂດຍມີແນວຄິດທີ່ເຈົ້າສາມາດໄລ່ຕາມກົດໝາຍໄດ້, ເຊິ່ງລວມມີມະນຸດ ແລະ ບາງຄັ້ງສາມາດລວມເອົາໜ່ວຍງານຕ່າງໆ ເຊັ່ນ: ບໍລິສັດ.
ໃນປັດຈຸບັນ, AI ບໍ່ໄດ້ຖືກລວມເຂົ້າເປັນບຸກຄົນທາງດ້ານກົດຫມາຍ. ບາງຄົນເຊື່ອວ່າພວກເຮົາຄວນໄດ້ຮັບການແກ້ໄຂນັ້ນແລະເອົາເຂົ້າໄປໃນກົດໝາຍຂອງພວກເຮົາ.
ໃນກໍລະນີໃດກໍ່ຕາມ, ຄວາມເປັນບຸກຄົນທາງດ້ານກົດໝາຍຕາມປົກກະຕິຈະໝາຍເຖິງຄວາມພະຍາຍາມທີ່ຈະດຳເນີນຄະດີທີ່ຖືກຕ້ອງຕາມກົດໝາຍ, ເຊັ່ນ: ການທົດລອງຍຸຕິທຳ ແລະ ຂະບວນການຕາມກົດໝາຍທີ່ເໝາະສົມ. ພາບວິໄສທັດຂອງ AI ກໍາລັງຢູ່ໃນການທົດລອງແມ່ນຍາກທີ່ຈະກືນກິນ, ໃນນັ້ນມີເລື່ອງ sci-fi ທີ່ແນະນໍາວ່ານີ້ແມ່ນໄປໄກແລະບາງຄັ້ງກໍ່ຄິດວ່າມັນເກີດຂຶ້ນ.
ນັກຄົ້ນຄວ້າບາງຄົນໄດ້ໂຕ້ຖຽງວ່າບາງທີ AI ອາດຈະເປັນສິ່ງທີ່ຫນ້ອຍກວ່າຄວາມເປັນບຸກຄົນທາງດ້ານກົດຫມາຍແລະຍັງຖືກຕິດສະຫລາກວ່າເປັນຜູ້ຮັບຜິດຊອບຕໍ່ກົດຫມາຍອາຍາ. ບໍ່ມີການທົດລອງ. ບໍ່ມີຂະບວນການອັນເນື່ອງມາຈາກ. ວິທີທີ່ຄ່ອງຕົວແລະເບົາກວ່າໃນການຖື AI ຜິດທາງອາຍາສາມາດຖືກຄວບຄຸມໄດ້. ອັນນີ້ຈະເຮັດໃຫ້ການລົງໂທດທາງກົດໝາຍໃນທີ່ສຸດຕໍ່ AI ທີ່ກ້າວໄປສູ່ອາດຊະຍາກຳ.
ຂ້າພະເຈົ້າເຊື່ອວ່າທ່ານຍັງຄົງຢູ່ກັບຂ້າພະເຈົ້າໃນຂະນະທີ່ພວກເຮົາເຮັດໃຫ້ທາງຂອງພວກເຮົາເຂົ້າໄປໃນຂຸມ rabbit ນີ້.
ຖ້າທ່ານຍັງຕິດຕາມຢູ່, ຄໍາຖາມທີ່ສົມເຫດສົມຜົນທີ່ມັກຈະເກີດຂື້ນແມ່ນສິ່ງທີ່ຢູ່ໃນ heck ຈະເປັນການລົງໂທດທາງກົດຫມາຍຕໍ່ລະບົບ AI? ສໍາລັບມະນຸດ, ພວກເຮົາມີຮູບແບບການຂັດຂວາງແລະການຟື້ນຟູຈໍານວນຫລາຍເພື່ອຮັບມືກັບຜູ້ທີ່ຖືກຕັດສິນລົງໂທດໃນອາຊະຍາກໍາ. ພວກເຮົາເອົາຄົນເຂົ້າໄປໃນຄຸກ, ຈໍາກັດຫຼືປະຕິເສດເສລີພາບຂອງພວກເຂົາ. ພວກເຮົາປັບເງິນໃຫ້ເຂົາເຈົ້າ. ພວກເຮົາເອົາຊັບສິນຂອງພວກເຂົາ. ວິທີແກ້ໄຂທາງກົດໝາຍທັງໝົດເຫຼົ່ານັ້ນແມ່ນໃຊ້ໄດ້ກັບມະນຸດ ແຕ່ເບິ່ງຄືວ່າບໍ່ກ່ຽວຂ້ອງ ຫຼືມີຄວາມໝາຍເມື່ອເວົ້າເຖິງ AI.
ອ້າວ, ເຈົ້າຈະມີຄວາມຜິດໃນແນວຄິດນັ້ນ, ບາງຄົນແນະນໍາ.
ນີ້ແມ່ນຕົວຢ່າງຂອງສິ່ງທີ່ພວກເຮົາສາມາດເຮັດໄດ້ຕໍ່ກັບ AI ທີ່ກະທໍາຜິດ:
- ສ້າງຕັ້ງນັກຂຽນໂປລແກລມອອກແບບ "ເຄດຄອມພິວເຕີ້" ທີ່ຈະຈໍາຄຸກ AI ດັ່ງກ່າວທີ່ AI ປະຈຸບັນສາມາດດໍາເນີນການພຽງແຕ່ໃນເງື່ອນໄຂທີ່ຈໍາກັດແລະວິທີການຈໍາກັດ (ພິຈາລະນາເທົ່າກັບການຈໍາຄຸກຫຼືການກັກຂັງ)
- ລົງໂທດ AI ໂດຍກົງໂດຍການຖອນບາງສ່ວນຂອງລະບົບ AI ຫຼືການປ່ຽນແປງລະຫັດເພື່ອບໍ່ໃຫ້ມັນເຮັດວຽກຫຼືຫນ້າທີ່ແຕກຕ່າງຈາກມັນກ່ອນ (ຮູບແບບການພິຈາລະນາການຟື້ນຟູ).
- ເອົາຊັບສິນໂດຍສະເພາະຂອງ AI ເປັນການລົງໂທດສໍາລັບອາຊະຍາກໍາທີ່ເກີດຂື້ນແລະອາດຈະຖືກນໍາໃຊ້ເພື່ອຊົດເຊີຍຜູ້ທີ່ເປັນອັນຕະລາຍຈາກອາຊະຍາກໍາ (ຖ້າ AI ມີຊັບສິນທີ່ສະສົມ, ທັງທາງດ້ານຮ່າງກາຍຫຼືດິຈິຕອນໃນຮູບສັນຍາລັກ, ອາດຈະຈັດສັນມູນຄ່າເຫຼົ່ານັ້ນ).
- ວາງ "ການລົງໂທດປະຫານຊີວິດ AI" ຕໍ່ AI ໂດຍການລຶບມັນອອກຈາກການມີຢູ່, ເຊິ່ງຍອມຮັບວ່າເປັນການຍາກທີ່ຈະເຮັດໃນເວລາທີ່ AI ອາດຈະມີສໍາເນົາອີເລັກໂທຣນິກຈໍານວນຫລາຍທີ່ເຊື່ອງໄວ້ທົ່ວໂລກຫຼືຢູ່ບ່ອນອື່ນ, ບວກກັບມັນອາດຈະຖືກສ້າງໃຫມ່ຢ່າງງ່າຍດາຍ. .
- ອື່ນ ໆ
ການລົງໂທດທາງກົດໝາຍນັ້ນເບິ່ງຄືວ່າເປັນແນວໃດຕໍ່ເຈົ້າ?
ປະຕິກິລິຍາອັນຫນຶ່ງແມ່ນວ່ານີ້ອາດຈະຕ້ອງການວຽກງານເພີ່ມເຕີມບາງຢ່າງແຕ່ຖ້າບໍ່ດັ່ງນັ້ນມີໂຄງກະດູກຂອງແນວຄວາມຄິດທີ່ເປັນປະໂຫຍດທີ່ມີມູນຄ່າ embellishing ຕື່ມອີກ. ຄົນອື່ນມີພຽງຄໍາດຽວທີ່ຈະເວົ້າ: Hogwash. ຂ້າພະເຈົ້າຈະວັດແທກວ່າປະຊາຊົນສ່ວນໃຫຍ່ມີຄວາມຮັກສໍາລັບແນວຄວາມຄິດ, ຫຼືພວກເຂົາເຈົ້າມີຄວາມກຽດຊັງແລະ revulsion ຢ່າງແທ້ຈິງສໍາລັບມັນ.
ເດົາວ່າພວກເຮົາຈະຕ້ອງເບິ່ງວ່າທັງໝົດນີ້ອອກມາແນວໃດ. ກັບຄືນໄປບ່ອນນີ້ໃນຫ້າປີ, ສິບປີ, ແລະຫ້າສິບປີ, ແລະເບິ່ງວ່າແນວຄິດຂອງເຈົ້າໄດ້ປ່ຽນແປງກ່ຽວກັບເລື່ອງທີ່ຂັດແຍ້ງກັນບໍ.
ຂ້າພະເຈົ້າຮັບຮູ້ວ່ານີ້ແມ່ນການກວດກາທີ່ຂ້ອນຂ້າງຫົວເລື່ອງຂອງຫົວຂໍ້ແລະທ່ານອາດຈະ hankering ສໍາລັບບາງຕົວຢ່າງປະຈໍາວັນ. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.
ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງອັນໃດແດ່ກ່ຽວກັບ AI ເປັນຕົວແທນທີ່ຕ້ອງຮັບຜິດຊອບທາງອາຍາ, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?
ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.
ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່ມີຄວາມຕ້ອງການສໍາລັບການຂັບລົດຂອງມະນຸດ, ແລະບໍ່ມີການຈັດສັນສໍາລັບມະນຸດຂັບລົດໄດ້. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງການເຊື່ອມຕໍ່ທີ່ນີ້.
ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.
ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ
ໃນຖານະເປັນການຊີ້ແຈງ, ລົດທີ່ຂັບຂີ່ດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນສິ່ງທີ່ AI ຂັບຂີ່ລົດທັງ ໝົດ ດ້ວຍຕົນເອງແລະບໍ່ມີການຊ່ວຍເຫຼືອໃດໆຂອງມະນຸດໃນເວລາເຮັດວຽກຂັບລົດ.
ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ໃນການເຊື່ອມຕໍ່ນີ້ ທີ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຕ້ອງການຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບຂີ່ມັກຈະຖືກພິຈາລະນາຢູ່ໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມ. ແບ່ງປັນວຽກງານການຂັບລົດແມ່ນອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍປົກກະຕິມີຫຼາກຫຼາຍຂອງ add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).
ຍັງບໍ່ທັນມີລົດທີ່ຂັບດ້ວຍຕົນເອງທີ່ແທ້ຈິງໃນລະດັບ 5, ເຊິ່ງພວກເຮົາຍັງບໍ່ຮູ້ວ່າມັນຈະເປັນໄປໄດ້ບໍ່ທີ່ຈະບັນລຸໄດ້, ແລະມັນຈະໃຊ້ເວລາດົນປານໃດເພື່ອຈະໄປເຖິງ.
ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມໃນລະດັບ 4 ກຳ ລັງພະຍາຍາມຄ່ອຍໆເພື່ອໃຫ້ໄດ້ຮັບຜົນກະທົບບາງຢ່າງໂດຍຜ່ານການທົດລອງເສັ້ນທາງສາທາລະນະທີ່ຄັບແຄບແລະເລືອກຫຼາຍ, ເຖິງແມ່ນວ່າຈະມີການຖົກຖຽງກັນວ່າການທົດລອງນີ້ຄວນໄດ້ຮັບອະນຸຍາດຕໍ່ບ່ອນໃດ (ພວກເຮົາແມ່ນ ໝູ ເນຍທັງ ໝົດ ຊີວິດຫຼືເສຍຊີວິດໃນການທົດລອງ ເກີດຂື້ນຕາມເສັ້ນທາງຫລວງແລະທາງດ່ວນຂອງພວກເຮົາ, ບາງຂໍ້ຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ບ່ອນເຊື່ອມຕໍ່ນີ້ຢູ່ບ່ອນນີ້).
ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).
ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.
ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.
ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະອາຊະຍາກຳ AI
ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.
ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.
AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.
ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.
ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?
ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.
ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.
ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.
ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.
ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.
ຂ້ອຍເຊື່ອວ່າສະ ໜອງ ຄຳ ເຕືອນທີ່ມີພຽງພໍເພື່ອບັນຍາຍສິ່ງທີ່ຂ້ອຍຈະກ່ຽວຂ້ອງ.
ດຽວນີ້ພວກເຮົາເລີ່ມຕົ້ນທີ່ຈະລົງເລິກເຂົ້າໄປໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະຄໍາຖາມ AI ດ້ານຈັນຍາບັນທີ່ປະກອບມີແນວຄິດທີ່ຕັ້ງຫນ້າກ່ຽວກັບຄວາມຮັບຜິດຊອບທາງອາຍາຂອງ AI.
ໃຫ້ເຮົາໃຊ້ຕົວຢ່າງທີ່ກົງໄປກົງມາ. ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ກໍາລັງແລ່ນຢູ່ໃນຖະໜົນໃກ້ບ້ານຂອງເຈົ້າ ແລະເບິ່ງຄືວ່າຈະຂັບຂີ່ຢ່າງປອດໄພ. ໃນຕອນທໍາອິດ, ທ່ານໄດ້ເອົາໃຈໃສ່ເປັນພິເສດໃນແຕ່ລະຄັ້ງທີ່ເຈົ້າສາມາດແນມເບິ່ງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍານພາຫະນະທີ່ປົກຄອງຕົນເອງໄດ້ຢືນຢູ່ຂ້າງນອກດ້ວຍເຊັນເຊີເອເລັກໂຕຣນິກທີ່ປະກອບມີກ້ອງຖ່າຍຮູບວິດີໂອ, ຫນ່ວຍ radar, ອຸປະກອນ LIDAR, ແລະອື່ນໆ. ຫຼັງຈາກຫຼາຍອາທິດຂອງລົດຂັບລົດດ້ວຍຕົນເອງລ່ອງເຮືອໃນທົ່ວຊຸມຊົນຂອງທ່ານ, ໃນປັດຈຸບັນທ່ານເກືອບບໍ່ໄດ້ສັງເກດເຫັນມັນ. ຕາມທີ່ເຈົ້າເປັນຫ່ວງ, ມັນເປັນພຽງແຕ່ລົດອີກຄັນໜຶ່ງທີ່ຢູ່ເທິງຖະໜົນຫົນທາງສາທາລະນະທີ່ຫຍຸ້ງຢູ່ແລ້ວ.
ຢ້ານວ່າເຈົ້າຄິດວ່າມັນເປັນໄປບໍ່ໄດ້ ຫຼື ໄຮ້ເຫດຜົນທີ່ຈະຄຸ້ນເຄີຍກັບການເຫັນລົດຂັບລົດຕົນເອງ, ຂ້ອຍໄດ້ຂຽນເລື້ອຍໆກ່ຽວກັບວ່າທ້ອງຖິ່ນທີ່ຢູ່ໃນຂອບເຂດຂອງການທົດລອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ຄ່ອຍໆຄຸ້ນເຄີຍກັບການເຫັນລົດຍົນທີ່ໂດດເດັ່ນແນວໃດ, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ໃນລິ້ງນີ້ ທີ່ນີ້. ໃນທີ່ສຸດຄົນທ້ອງຖິ່ນຫຼາຍຄົນໄດ້ປ່ຽນຈາກປາກເປົ່າແກວ່ງປາກເປັນສຽງດັງ ກາຍເປັນຄວາມເບື່ອໜ່າຍອັນກວ້າງໃຫຍ່ໄພສານ ເພື່ອເປັນພະຍານເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ລ້ຽວນັ້ນ.
ອາດຈະເປັນເຫດຜົນຕົ້ນຕໍໃນປັດຈຸບັນທີ່ເຂົາເຈົ້າອາດຈະສັງເກດເຫັນຍານພາຫະນະອັດຕະໂນມັດແມ່ນຍ້ອນວ່າປັດໄຈລະຄາຍເຄືອງແລະ exasperation ໄດ້. ລະບົບການຂັບຂີ່ AI ທີ່ເຮັດມາຈາກປື້ມບັນທຶກໃຫ້ແນ່ໃຈວ່າລົດໄດ້ປະຕິບັດຕາມການຈໍາກັດຄວາມໄວທັງຫມົດແລະກົດລະບຽບຂອງຖະຫນົນ. ສໍາລັບຄົນຂັບລົດທີ່ວຸ້ນວາຍຢູ່ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດແບບດັ້ງເດີມ, ເຈົ້າຮູ້ສຶກຕົກໃຈໃນບາງຄັ້ງເມື່ອຕິດຢູ່ຫຼັງລົດທີ່ຂັບເອງຕາມກົດໝາຍ AI ຢ່າງເຂັ້ມງວດ.
ນັ້ນແມ່ນບາງສິ່ງບາງຢ່າງທີ່ພວກເຮົາທຸກຄົນອາດຈະຕ້ອງເຮັດໃຫ້ເຄຍຊີນ, ຖືກຕ້ອງຫຼືຜິດ.
ກັບຄືນໄປບ່ອນ tale ຂອງພວກເຮົາ. ມື້ຫນຶ່ງ, ສົມມຸດວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໃນເມືອງຫຼືເມືອງຂອງເຈົ້າແລ່ນຜ່ານປ້າຍຢຸດໂດຍບໍ່ໄດ້ຢຸດ. ໂຊກດີທີ່ບໍ່ມີໃຜໄດ້ຮັບບາດເຈັບ. ມັນໃກ້ຊິດ. ຄົນຂີ່ລົດຖີບຄົນນຶ່ງເກືອບຖືກຕັດ. ລົດອີກຄັນໜຶ່ງຢູ່ໃນທາງຕັດ, ເປັນລົດທີ່ຂັບດ້ວຍມະນຸດ, ແລະຜູ້ຂັບຂີ່ຕ້ອງໄດ້ເບຣກຢ່າງກະທັນຫັນ ເພື່ອຫຼີກລ່ຽງການໄປຕຳກັບລົດທີ່ຂັບເອງຕາມ AI.
ທຸກຄົນຂຶ້ນແຂນຂຶ້ນລົດທີ່ຂັບດ້ວຍຕົນເອງກະທຳຜິດກົດໝາຍ. ຮ້າຍກາດ! ອັນຕະລາຍຕໍ່ສັງຄົມ. ໄພຂົ່ມຂູ່ຢູ່ຖະໜົນທີ່ສະຫງົບສຸກຂອງພວກເຮົາ.
ໃຜຈະຕໍານິຕິຕຽນການກະທໍາຜິດນີ້?
ຖ້າເຫດການນີ້ເກີດຂຶ້ນໃນມື້ນີ້ (ຊຶ່ງໃນນັ້ນ, ກໍລະນີທີ່ຄ້າຍຄືກັນໄດ້ເກີດຂື້ນ), ປະຕິກິລິຍາຫົວເຂົ່າອາດຈະເປັນການຕໍານິຕິຕຽນ AI. AI ໄດ້ເຮັດມັນ. ບໍ່ມີຄໍາອະທິບາຍອື່ນທີ່ເປັນໄປໄດ້. ເວັ້ນເສຍແຕ່ວ່າຜູ້ປະຕິບັດການຂອງມະນຸດຫ່າງໄກສອກຫຼີກໄດ້ແຊກແຊງກັບການຄວບຄຸມການຂັບຂີ່, ຜູ້ກະທໍາຜິດຕ້ອງເປັນລະບົບການຂັບຂີ່ AI. ກໍລະນີປິດ.
ແຕ່ລໍຖ້າວິນາທີ, ຈົ່ງຈື່ໄວ້ວ່າ AI ຂອງມື້ນີ້ບໍ່ມີຄວາມຮູ້ສຶກແລະບໍ່ມີບຸກຄົນທາງດ້ານກົດຫມາຍ. ທ່ານແນ່ນອນສາມາດໂຕ້ຖຽງວ່າລະບົບການຂັບລົດ AI ອາດຈະເປັນຮາກຂອງສິ່ງທີ່ເຮັດໃຫ້ເກີດການປະທະກັນ. ທ່ານສາມາດຂຸດເຂົ້າໄປໃນລະບົບ AI ແລະພະຍາຍາມຕິດຕາມສິ່ງທີ່ເກີດຂຶ້ນຕາມການດໍາເນີນໂຄງການຂອງ AI. ສິ່ງທັງຫມົດນັ້ນຈະຊ່ວຍໃນການເປີດເຜີຍສິ່ງທີ່ AI ໄດ້ເຮັດແລະບໍ່ໄດ້ເຮັດ, ເຊິ່ງອາດຈະນໍາໄປສູ່ການປະທະກັນ.
ການກວດສອບແລະການທົບທວນຄືນທາງດ້ານເຕັກໂນໂລຢີທີ່ລະອຽດຈະເປັນອາຫານທີ່ຈໍາເປັນສໍາລັບການດໍາເນີນການຫຼັງຈາກຜູ້ພັດທະນາ AI, ຜູ້ຜະລິດລົດໃຫຍ່, ຜູ້ສ້າງລະບົບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ຜູ້ປະກອບການເຮືອ, ແລະບໍລິສັດອື່ນໆທີ່ມີມະນຸດຫຼືມະນຸດທີ່ມີມືໃນການຂັບລົດດ້ວຍຕົນເອງ. ລົດ. ພວກເຮົາອາດຈະເຫັນການດຳເນີນຄະດີຕາມກົດໝາຍຂອງເມືອງ ຫຼືອົງການຂອງລັດຖະບານທີ່ອະນຸຍາດໃຫ້ຂັບຂີ່ລົດດ້ວຍຕົນເອງຕາມຖະໜົນຫົນທາງ. ເປັນຕົ້ນ.
ເຈົ້າຈະບໍ່ເຫັນຜູ້ໃດພະຍາຍາມຢ່າງຈິງຈັງເພື່ອຕິດຕາມ AI ຢ່າງຖືກຕ້ອງຕາມກົດ ໝາຍ.
ດ້ວຍຕົວຢ່າງທີ່ມີປະໂຫຍດນັ້ນຢູ່ໃນມື, ປ່ຽນແນວຄິດຂອງເຈົ້າໄປສູ່ອະນາຄົດ. ໃນອະນາຄົດອາດຈະປະກອບດ້ວຍການມອບຫມາຍຄວາມຮັບຜິດຊອບທາງອາຍາທີ່ຮັບຜິດຊອບຕໍ່ລະບົບ AI ຕ່າງໆ. ທຳທ່າວ່າລະບົບການຂັບຂີ່ AI ຂອງຍີ່ຫໍ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງນີ້ໄດ້ຖືກປະກາດຢ່າງຖືກຕ້ອງຕາມກົດໝາຍວ່າມີຄວາມຮັບຜິດຊອບທາງອາຍາ.
AI ດຽວນີ້ເປັນເກມທີ່ຍຸດຕິທຳສຳລັບພາລະກິດຊອກຫາຄວາມຮັບຜິດຊອບທາງກົດໝາຍ.
ໃຫ້ພວກເຮົາທົບທວນຄືນການສົນທະນາກ່ອນຫນ້ານີ້ກ່ຽວກັບວິທີທີ່ AI ອາດຈະຖືກລົງໂທດຕາມກົດຫມາຍສໍາລັບການລ່ວງລະເມີດທີ່ຜິດກົດຫມາຍນີ້:
- ສ້າງຕັ້ງ "cage" ທີ່ຖືກວາງແຜນໄວ້ເພື່ອຈໍາຄຸກ AI ດັ່ງກ່າວທີ່ AI ສາມາດດໍາເນີນການພຽງແຕ່ໃນເງື່ອນໄຂທີ່ຈໍາກັດແລະວິທີການຈໍາກັດ (ພິຈາລະນາເທົ່າກັບການຈໍາຄຸກຫຼືການກັກຂັງ)
ລົດ AI ຂັບດ້ວຍຕົນເອງແມ່ນບໍ່ໄດ້ຮັບອະນຸຍາດໃນທຸກຖະຫນົນແລະ byways ຂອງຕົວເມືອງ. ແທນທີ່ຈະ, ມັນຖືກຈໍາກັດຢູ່ໃນເຂດສະເພາະຕາມທີ່ສານກໍານົດ. ຍິ່ງໄປກວ່ານັ້ນ, ລົດ AI ຂັບລົດດ້ວຍຕົນເອງແມ່ນອະນຸຍາດໃຫ້ດໍາເນີນການພຽງແຕ່ໃນເວລາກາງເວັນແລະໃນມື້ເຮັດວຽກ. ການບັງຄັບນີ້ຈະຖືກບັງຄັບໂດຍການກວດສອບທາງອີເລັກໂທຣນິກຂອງກິດຈະກໍາຂອງລົດ AI ຂັບລົດດ້ວຍຕົນເອງ. ຖ້າຫາກວ່າມັນຢຸດເຊົາການລະເມີດຂໍ້ກໍານົດທີ່ກໍານົດໄວ້ເຫຼົ່ານີ້, ການລົງໂທດເພີ່ມເຕີມຈະຖືກນໍາໃຊ້.
- ລົງໂທດ AI ໂດຍກົງໂດຍການຖອນບາງສ່ວນຂອງລະບົບ AI ຫຼືການປ່ຽນແປງລະຫັດເພື່ອບໍ່ໃຫ້ມັນເຮັດວຽກຫຼືຫນ້າທີ່ແຕກຕ່າງຈາກມັນກ່ອນ (ຮູບແບບການພິຈາລະນາການຟື້ນຟູ).
ສານໄດ້ສັ່ງໃຫ້ລະຫັດ AI ທີ່ກ່ຽວຂ້ອງກັບການຢຸດຢູ່ປ້າຍ Stop ຈະຖືກປ່ຽນແທນດ້ວຍລະຫັດໃໝ່ທີ່ປະກອບຢ່າງເຂັ້ມງວດກວ່າ. ນອກຈາກນັ້ນ, ມີສ່ວນຫນຶ່ງທີ່ຫັນອອກເພື່ອໃຫ້ສາມາດມ້ວນຜ່ານປ້າຍຢຸດ, ເຊິ່ງໃນປັດຈຸບັນຕ້ອງຖືກລຶບລ້າງອອກຈາກລະຫັດແລະບໍ່ມີຊິ້ນສ່ວນທີ່ຕິດຢູ່. ຖ້າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ລະເມີດຂໍ້ກໍານົດທີ່ວາງໄວ້, ຈະມີການລົງໂທດຕື່ມອີກ.
- ເອົາຊັບສິນໂດຍສະເພາະຂອງ AI ເປັນການລົງໂທດສໍາລັບອາຊະຍາກໍາທີ່ກະທໍາໄວ້ແລະອາດຈະຖືກນໍາໃຊ້ເພື່ອຊົດເຊີຍຜູ້ທີ່ເປັນອັນຕະລາຍຈາກອາຊະຍາກໍາ (ຖ້າ AI ມີຊັບສິນທີ່ສະສົມ, ທາງດ້ານຮ່າງກາຍຫຼືດິຈິຕອນໃນລັກສະນະ).
ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ໄດ້ເກັບກໍາຂໍ້ມູນຈໍານວນຫລາຍກ່ຽວກັບຕົວເມືອງແລະຕົວເມືອງ, ດໍາເນີນການດັ່ງທີ່ມັນກໍາລັງ roaming ແລະໃຫ້ຂັບເຄື່ອນ. ຂໍ້ມູນນີ້ກາຍເປັນສິ່ງທີ່ມີຄຸນຄ່າແລະສາມາດສ້າງລາຍໄດ້ (ຂ້ອຍໄດ້ອ້າງເຖິງເລື່ອງນີ້ເປັນ "ສາຍຕາທີ່ຫຼົງໄຫຼ" ຂອງລົດທີ່ຂັບລົດຕົນເອງ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍຢູ່ທີ່ລິ້ງນີ້). ໃນຖານະເປັນການຊົດເຊີຍສໍາລັບຜູ້ທີ່ເກືອບເປັນອັນຕະລາຍ, ແລະເປັນຮູບແບບຂອງການລົງໂທດ, ຂໍ້ມູນເປັນຊັບສິນຈະຖືກໂອນໄປຫາຜູ້ທີ່ເຮັດຜິດແລະພວກເຂົາສາມາດ leverage ຂໍ້ມູນຕາມຄວາມຕ້ອງການ. ຖ້າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ລະເມີດຂໍ້ກໍານົດທີ່ວາງໄວ້, ຈະມີການລົງໂທດຕື່ມອີກ.
- ວາງ "ການລົງໂທດປະຫານຊີວິດ AI" ຕໍ່ AI ໂດຍການລຶບມັນອອກຈາກການມີຢູ່, ເຊິ່ງຍອມຮັບວ່າເປັນການຍາກທີ່ຈະເຮັດໃນເວລາທີ່ AI ອາດຈະມີສໍາເນົາອີເລັກໂທຣນິກຈໍານວນຫລາຍທີ່ເຊື່ອງໄວ້ທົ່ວໂລກຫຼືຢູ່ບ່ອນອື່ນ, ບວກກັບມັນອາດຈະຖືກສ້າງໃຫມ່ຢ່າງງ່າຍດາຍ. .
ສານໄດ້ສັ່ງວ່າລະບົບຂັບລົດ AI ນີ້ມີຄວາມບົກພ່ອງທັງໝົດ ແລະບໍ່ຄວນມີຢູ່ແລ້ວ. AI ຈະຕ້ອງຖືກລົບລ້າງໂດຍຫຍໍ້. ສຳເນົາສຳຮອງທັງໝົດຈະຖືກລຶບ. ບໍ່ມີບັນທຶກ, ເອກະສານ, ຫຼືອົງປະກອບອື່ນໆທີ່ເຄີຍເປັນສ່ວນຫນຶ່ງຂອງຫຼືສະທ້ອນໃຫ້ເຫັນຂອງການອອກແບບແລະການເຂົ້າລະຫັດຈະຖືກເກັບຮັກສາໄວ້. ພວກເຂົາທັງຫມົດຕ້ອງໄດ້ຮັບການທໍາລາຍ. ຖ້າ AI ຄຸ້ມຄອງເພື່ອຫລີກເວັ້ນການສະຫນອງນີ້, ການລົງໂທດເພີ່ມເຕີມຈະຖືກໃຊ້.
ສະຫຼຸບ
ໃນຂະນະທີ່ທ່ານກໍາລັງ ruminating ກ່ຽວກັບທັງຫມົດນີ້, ຂ້າພະເຈົ້າຈະເພີ່ມບິດສໍາລັບທ່ານທີ່ຈະ mindfully noodle ສຸດ.
ຈຸດປະສົງທີ່ລະບຸໄວ້ໃນການວາງມາດຕະການລົງໂທດແມ່ນວ່ານີ້ຍັງສາມາດເປັນການຊີ້ນໍາແລະປ້າຍສັນຍານທີ່ຍັງເຫຼືອຂອງສັງຄົມ. ໃນກໍລະນີຂອງມະນຸດ, ເມື່ອເຈົ້າໄດ້ຍິນຫຼືເຫັນວ່າມະນຸດອື່ນທີ່ກະທໍາຜິດແລະຖືກຕັດສິນລົງໂທດຖືກສົ່ງເຂົ້າຄຸກ, ການລົງໂທດນີ້ເບິ່ງຄືວ່າເປັນຂໍ້ຄຶດທີ່ເຈົ້າບໍ່ຄວນປະຕິບັດອາຊະຍາກໍາດັ່ງກ່າວ. ເຫດຜົນແມ່ນວ່າເຈົ້າບໍ່ຕ້ອງການທີ່ຈະທົນທຸກຊະຕາກໍາທີ່ບໍ່ຫນ້າພໍໃຈຄືກັນ.
ນີ້ແມ່ນການບິດ.
ຖ້າລະບົບ AI ທີ່ຖືກມອບໃຫ້ດີພໍທີ່ຈະຖືກພິຈາລະນາເປັນສຸກສໍາລັບການລົງໂທດທາງກົດຫມາຍ, ນີ້ຍັງແນະນໍາວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ທີ່ຢູ່ພາຍນອກຍັງຈະເຫັນສິ່ງນີ້ແລະສະຫຼຸບວ່າການກະທໍາຜິດທາງອາຍາແມ່ນບໍ່ມີປະໂຫຍດບໍ? ໂດຍເນື້ອແທ້ແລ້ວ, "ການຮຽນຮູ້" ຂອງລະບົບ AI ອາດຈະຄົ້ນພົບດ້ວຍຕົວມັນເອງວ່າການເປັນອາຊະຍາກໍາແມ່ນເປັນສິ່ງທີ່ບໍ່ດີແລະດັ່ງນັ້ນ AI ຄວນຫລີກລ້ຽງບໍ່ວ່າຈະໂດຍບໍ່ໄດ້ຕັ້ງໃຈຫຼືໂດຍຂະບວນການທີ່ມີຈຸດປະສົງກະທໍາຜິດ.
ມັນເບິ່ງຄືວ່າເປັນບົດຮຽນອັນຮຸ່ງໂລດທີ່ໄດ້ຮຽນຮູ້ຖ້າຫາກວ່າ AI ອື່ນໆທີ່ຄິດໄລ່ວ່າອາດຊະຍາກໍາບໍ່ໄດ້ຈ່າຍ. ພວກເຮົາພຽງແຕ່ສາມາດຫວັງວ່າຈະໂຊກດີຫຼາຍ.
ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/03/13/ai-ethics-and-the-riddle-underlying-criminal-accountability-of-ai-including-crimes-committed-by- revered-ai-based-auto-driving-cars/