ຈັນຍາບັນຂອງ AI ແລະບົດບາດທາງດ້ານສັງຄົມທີ່ສັບສົນ ແລະທາງດ້ານກົດໝາຍຂອງການເຄື່ອນໄຫວ AI, ລວມທັງໃນກໍລະນີຂອງການຂັບຂີ່ລົດດ້ວຍຕົນເອງ.

ການເຄື່ອນໄຫວ AI.

ແມ່ນແລ້ວ, ມີສິ່ງດັ່ງກ່າວ.

ຄໍານິຍາມຢ່າງເປັນທາງການຂອງຂ້ອຍແມ່ນນີ້:

  • ການເຄື່ອນໄຫວ AI ປະ​ກອບ​ດ້ວຍ​ຄວາມ​ພະ​ຍາ​ຍາມ​ເພື່ອ​ພະ​ຍາ​ຍາມ​ແລະ​ຮູບ​ຮ່າງ​ທິດ​ທາງ​ຕໍ່​ເນື່ອງ​ແລະ​ໃນ​ອະ​ນາ​ຄົດ​ຂອງ Artificial Intelligence ໂດຍ​ການ​ນໍາ​ໃຊ້​ທາງ​ດ້ານ​ສັງ​ຄົມ​, ເສດ​ຖະ​ກິດ​, ການ​ເມືອງ​, ແລະ​ວິ​ທີ​ການ​ອື່ນໆ​.

ບາງຄົນອາດຈະມັກໝາຍເຖິງນີ້ເປັນ AI ການສະຫນັບສະຫນູນ, ເຖິງແມ່ນວ່າໂດຍທົ່ວໄປແລ້ວຂ້ອຍບໍ່ເຫັນດີນໍາການໃຊ້ຄໍາສັບທາງເລືອກນັ້ນໃນສະພາບການທີ່ເພີ່ມຂຶ້ນນີ້. ນີ້ແມ່ນເຫດຜົນ. ເຈົ້າເຫັນ, ຄໍານິຍາມທີ່ບໍ່ເປັນທາງການຂອງຂ້ອຍແມ່ນວ່າກິດຈະກໍາການເຄື່ອນໄຫວ AI ມີແນວໂນ້ມທີ່ຈະສະຫນັບສະຫນູນການເກີດຂື້ນແລະການຮັບຮອງເອົາ AI. or ມີແນວໂນ້ມທີ່ຈະບໍ່ພໍໃຈ ຫຼືຄັດຄ້ານ AI ໃນທາງກົງກັນຂ້າມ ແລະຢ່າງຊັດເຈນ.

ມັນເປັນການຕົກລົງການຊື້ເຄື່ອງສອງຕໍ່ຫນຶ່ງຢ່າງແນ່ນອນ.

ໂດຍຜ່ານການຊີ້ບອກທີ່ບໍ່ເປັນທາງການຂອງຂ້ອຍ, ຂ້ອຍຂໍແນະນໍາວ່າມີສອງທັດສະນະການເຄື່ອນໄຫວຕົ້ນຕໍ, ຄືຜູ້ທີ່ຕ້ອງການ AI ແລະຜູ້ທີ່ບໍ່ຕ້ອງການ AI. ດັ່ງນັ້ນ, ຖ້າທ່ານແທນທີ່ຫມາຍເຖິງ catchall ນີ້ວ່າ "ການສົ່ງເສີມ AI" ມັນເບິ່ງຄືວ່າບໍ່ຫຼາຍປານໃດສໍາລັບຂ້ອຍ. ຄົນສ່ວນໃຫຍ່ຈະສົມມຸດວ່າຜູ້ສະ ໜັບ ສະ ໜູນ ແມ່ນຄົນທີ່ມັກຫຼືສະ ໜັບ ສະ ໜູນ ບາງຢ່າງ. ເພື່ອໃຫ້ແນ່ໃຈວ່າ, ບໍ່ແມ່ນທຸກຄົນຈໍາເປັນຕ້ອງສະຫນັບສະຫນູນ AI.

ດັ່ງນັ້ນ, ໃຫ້ໄປກັບ ການເຄື່ອນໄຫວ AI ເປັນ moniker overarching ທີ່ ເຫມາະ ສົມ ແລະ ຫຼຸດ ລົງ ຄໍາ ແນະ ນໍາ AI ເປັນ catchall ທີ່ ອາດ ຈະ ທຽບ ເທົ່າ.

ໃນປັດຈຸບັນ, ຫນຶ່ງສົມມຸດວ່າ, ພວກເຮົາສາມາດຕິດປ້າຍຊື່ນັກເຄື່ອນໄຫວ AI ຜູ້ສະຫນັບສະຫນູນ ໃນຖານະເປັນຜູ້ສະຫນັບສະຫນູນ AI, ເຖິງແມ່ນວ່ານີ້ສາມາດສ້າງຄວາມສັບສົນບາງຢ່າງກັບຄວາມເປັນໄປໄດ້ຂອງການຕັ້ງຊື່ທີ່ອຸດົມສົມບູນ. ພວກເຮົາອາດຈະຕ້ອງມີຄວາມຍຸຕິທໍາແລະສີ່ຫລ່ຽມແລະເພີ່ມປະໂຫຍກຂອງ opponents AI ຫຼືຜູ້ປະທ້ວງ AI ເຂົ້າໃນປະໂຫຍກຂອງພວກເຮົາເຊັ່ນກັນ.

ຖ້າທ່ານຕ້ອງການ, ພວກເຮົາສາມາດຕົກລົງກັບນາມສະກຸນນີ້:

  • ຜູ້ສະໜັບສະໜູນ AI ແມ່ນນັກເຄື່ອນໄຫວ AI ທີ່ສະຫນັບສະຫນູນຢ່າງກະຕືລືລົ້ນໃນທິດທາງຢ່າງຕໍ່ເນື່ອງແລະອະນາຄົດຂອງ AI ໂດຍຜ່ານການນໍາໃຊ້ທາງດ້ານສັງຄົມ, ເສດຖະກິດ, ທາງດ້ານການເມືອງ, ແລະວິທີການອື່ນໆ.
  • opponents AI ແມ່ນນັກເຄື່ອນໄຫວ AI ທີ່ບໍ່ພໍໃຈ AI ຫຼາຍເກີນໄປແລະເຮັດແນວນັ້ນໂດຍຜ່ານການນໍາໃຊ້ທາງດ້ານສັງຄົມ, ເສດຖະກິດ, ທາງດ້ານການເມືອງ, ແລະວິທີການອື່ນໆ.

ຫວັງວ່າມັນເບິ່ງຄືວ່າງ່າຍພໍທີ່ຈະຮັກສາຊື່.

ແຕ່ມີການເພີ່ມບິດເລັກນ້ອຍ, ຂໍໂທດທີ່ເວົ້າ. ຂ້ອຍຄວນໃຫ້ຄວາມກະຈ່າງແຈ້ງທັນທີກ່ຽວກັບແນວຄິດທີ່ວ່າມີພຽງແຕ່ສອງທາງທີ່ຈະໄປ. ແນ່ນອນ, ໂດຍແລະຂະຫນາດໃຫຍ່, ມີສອງ camps. ທ່ານມີພາກສ່ວນທີ່ເປັນຫ່ວງ ຫຼືເປັນຫ່ວງກ່ຽວກັບ AI ແລະຕ້ອງການໃຫ້ AI ຢຸດເຊົາ ຫຼື ຢ່າງໜ້ອຍກໍ່ໃຫ້ຄວາມກ້າວໜ້າຂອງພວກເຮົາໃນ AI ຊ້າລົງ. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາກໍາລັງໃຊ້ວິທີການທີ່ມີຄວາມສ່ຽງເກີນໄປກັບ AI ໃນປັດຈຸບັນ. ພວກ​ເຮົາ​ຈໍາ​ເປັນ​ຕ້ອງ​ໄດ້​ຄິດ​ວ່າ​ກ່ອນ​ທີ່​ພວກ​ເຮົາ​ຈະ​ດໍາ​ຫົວ​ຫນ້າ​ເຂົ້າ​ໄປ​ໃນ​ຂຸມ​ນ​້​ໍ​າ​, ເປັນ​ມັນ​ເປັນ​.

ບາງຄົນມີທັດສະນະທີ່ແຕກຕ່າງຢ່າງບໍ່ຢຸດຢັ້ງ ແລະອ້າງວ່າພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ສາກໄຟເຕັມໄວຢູ່ AI. ການກະຕຸ້ນເຕືອນແມ່ນວ່າຄວາມກ້າວຫນ້າໃນ AI ມີຄວາມກ້າວຫນ້າຢ່າງຫຼວງຫຼາຍແລະພວກເຮົາບໍ່ຄວນເຮັດໃຫ້ຄວາມກ້າວຫນ້າໃນຄວາມກ້າວຫນ້ານັ້ນ. AI ຈະຮັບປະກັນຄວາມຈະເລີນຮຸ່ງເຮືອງຂອງພວກເຮົາໃນຖານະເປັນມະນຸດແລະໄວທີ່ພວກເຮົາໄປເຖິງນັ້ນ, ພວກເຮົາກໍ່ຈະດີກວ່າ. Naysayers ແມ່ນການຂັດຂວາງທີ່ບໍ່ເບິ່ງຄືວ່າຈະຊັກຊ້າໂລກທີ່ດີກວ່າ.

ທັງໝົດນີ້ມີຈັນຍາບັນຂອງ AI ທີ່ສຳຄັນ ແລະ ຜົນກະທົບດ້ານຈັນຍາບັນຂອງ AI. ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ຂ້າ​ພະ​ເຈົ້າ​ຮັບ​ຮູ້​ວ່າ​ບາງ​ຄົນ​ໃນ​ພວກ​ທ່ານ​ອາດ​ຈະ​ຮູ້​ສຶກ​ຄື​ກັບ​ວ່າ​ທ່ານ​ເຮັດ​ໄດ້ ບໍ່ ເຫມາະຢ່າງເປັນລະບຽບຢູ່ໃນທັງສອງ camps. ບາງຄັ້ງ, ບາງທີເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນ AI. ລະບົບ AI ສາມາດປະມວນຜົນຄໍາຮ້ອງຂໍເງິນກູ້ຈໍານອງຂອງທ່ານໃນສອງສາມວິນາທີ, ໃຫ້ໄຟສີຂຽວແກ່ເຈົ້າໃນການຊື້ເຮືອນທີ່ມີສະເຫນ່ທີ່ເຈົ້າກໍາລັງຊອກຫາ, ແລະດັ່ງນັ້ນ, ເຈົ້າມີຄວາມສຸກກັບຄວາມສະດວກສະບາຍໃນການນໍາໃຊ້ທີ່ສູງ. - ເຕັກ​ໂນ​ໂລ​ຊີ app AI​. ສອງສາມມື້ຕໍ່ມາ, ທ່ານໄດ້ສະໝັກວຽກໃໝ່ ແລະ ແອັບກວດກາ HR ທີ່ອີງໃສ່ AI ໄດ້ເຮັດໃຫ້ເຈົ້າອອກຈາກວຽກ. ທ່ານປະຈຸບັນໄດ້ປ່ຽນເປັນ opponent AI.

ພື້ນຖານແມ່ນວ່າມັນສາມາດເປັນການຍາກຫຼືຜິດພາດທີ່ຈະຕິດສະຫຼາກຜູ້ໃດຜູ້ຫນຶ່ງເປັນສະເຫມີແລະພຽງແຕ່ສະມາຊິກຂອງ camp ຫນຶ່ງຫຼືອື່ນໆ. ທ່ານສາມາດເລື່ອນໄປມາລະຫວ່າງການເປັນຜູ້ສະໜັບສະໜູນ AI ​​ຫຼືເປັນຝ່າຍກົງກັນຂ້າມ AI. ໃຫ້​ເຮົາ​ຮັບ​ຮູ້​ວ່າ fluidity.

ໃນທາງກົງກັນຂ້າມ, ເມື່ອທ່ານພົບກັບນັກເຄື່ອນໄຫວ AI ທີ່ມີສຽງດັງ, ບໍ່ລົງຮອຍກັນແມ່ນພວກເຂົາຢູ່ໃນຄ້າຍຫນຶ່ງຫຼືບ່ອນອື່ນ. ບັນດານັກເຄື່ອນໄຫວ AI ທີ່ມີຄວາມເຂັ້ມຂຸ້ນເຫຼົ່ານີ້ໄດ້ປູກທຸງຢູ່ຂ້າງຫນຶ່ງຂອງການຕໍ່ສູ້ນີ້. ເຂົາເຈົ້າທັງໝົດຢູ່ໃນ. ຜູ້ທີ່ເປັນຜູ້ສະຫນັບສະຫນູນ AI ​​ເບິ່ງຄືວ່າຈະຊື່ນຊົມຢູ່ເທິງຫລັງຄາກ່ຽວກັບຂໍ້ໄດ້ປຽບຂອງການມີ AI. ຜູ້ທີ່ເປັນສັດຕູຂອງ AI ຈະຮ້ອງອອກມາຢ່າງຈະແຈ້ງກ່ຽວກັບຂໍ້ເສຍຂອງ AI ຈົນກວ່າງົວຈະກັບມາເຮືອນ.

ທ່ານອາດຈະຕົກຕະລຶງທີ່ຮູ້ວ່າຂ້ອຍຈະບໍ່ເຂົ້າຮ່ວມໃນການສົນທະນານີ້ທີ່ຈະເລືອກເອົາຂ້າງຫນຶ່ງໃນໄລຍະອື່ນໆ. ຂ້ອຍ​ຄວນ​ຈະ. ມັນຈະເປັນການງ່າຍທີ່ຈະເຮັດແນວນັ້ນ. ແທນທີ່ຈະພະຍາຍາມແລະສືບຕໍ່ຢູ່ໃນ keel ແມ້ແຕ່ແລະໃຫ້ທັງສອງດ້ານເປັນ portrayal ສົມເຫດສົມຜົນແລະສົມດູນ, ຖ້າເປັນໄປໄດ້.

ດ້ວຍການເຂົ້າຮຽນນັ້ນ, ຂ້ອຍຢາກບອກອີກວ່າມີຢ່າງນ້ອຍສອງຕົວແປຂອງນັກເຄື່ອນໄຫວ AI:

  • ນັກເຄື່ອນໄຫວ AI ອ່ອນໆ ທີ່ຮຸນແຮງແຕ່ວັດແທກໃນການເຄື່ອນໄຫວ AI ຂອງພວກເຂົາ
  • ນັກເຄື່ອນໄຫວ AI ທີ່ສຸດ ທີ່ໄປເໜືອສຸດໃນການເຄື່ອນໄຫວ AI ຂອງພວກເຂົາ

ຂ້າພະເຈົ້າຍົກເອົາລະດັບການເຄື່ອນໄຫວ AI ນີ້ຂຶ້ນມາເພື່ອເນັ້ນໃຫ້ເຫັນວ່າເຈົ້າສາມາດພົບວ່າຕົນເອງມີຄວາມເຄັ່ງຕຶງເມື່ອປະສົບກັບນັກເຄື່ອນໄຫວ AI ທີ່ຢູ່ໃນຂອບເຂດທີ່ສຸດ. ເຖິງແມ່ນວ່າເຈົ້າອາດຈະຕົກລົງເຫັນດີກັບທ່າທາງທີ່ເຂົາເຈົ້າເລືອກ, ຄວາມຫົວຮຸນແຮງສາມາດເຮັດໃຫ້ເຈົ້າຫັນໜີຈາກຕຳແໜ່ງ ຫຼື ທັດສະນະນັ້ນ. ທ່ານເລືອກທີ່ຈະຕອບໂຕ້ໃນທາງລົບ, ອາດຈະປະຕິເສດມຸມການເຄື່ອນໄຫວ AI ທັງຫມົດ.

ນັກເຄື່ອນໄຫວ AI ທີ່ຮ້າຍກາດມີແນວໂນ້ມທີ່ຈະແນະນໍາວ່າພວກເຂົາຈໍາເປັນຕ້ອງໃຊ້ມາດຕະການທີ່ຮຸນແຮງຫຼືບອກກໍລະນີຂອງພວກເຂົາໃນທາງທີ່ຮຸນແຮງເພື່ອຕັດຄວາມວຸ່ນວາຍ. ຖ້າເຈົ້າເຊື່ອວ່າ AI ເປັນໄພອັນຕະລາຍຕໍ່ພວກເຮົາທຸກຄົນຢ່າງດຸເດືອດ ແລະ ດຸໝັ່ນ, ມັນເບິ່ງຄືວ່າເໝາະສົມທີ່ຈະເຮັດອັນໃດກໍໄດ້ທີ່ເຈົ້າສາມາດປຸກລະດົມປະຊາຊົນຕາມຄວາມເໝາະສົມ. ໃນ​ຂະ​ນະ​ດຽວ​ກັນ, ຖ້າ​ຫາກ​ວ່າ​ທ່ານ​ຢ່າງ​ຫ້າວ​ຫັນ​ແລະ​ຢ່າງ​ແຂງ​ແຮງ​ເຊື່ອ​ວ່າ AI ຈະ​ຊ່ວຍ​ປະ​ຢັດ​ພວກ​ເຮົາ​ເປັນ​ຈໍາ​ເປັນ, ມັນ​ເບິ່ງ​ຄື​ວ່າ​ເຫມາະ​ສົມ​ທີ່​ຈະ​ເຮັດ​ແນວ​ໃດ​ກໍ​ຕາມ​ທີ່​ທ່ານ​ສາ​ມາດ​ເຮັດ​ໄດ້​ເພື່ອ​ໃຫ້​ປະ​ຊາ​ຊົນ​ສະ​ຫນັບ​ສະ​ຫນູນ AI ​​ທີ່​ສອດ​ຄ້ອງ​ກັນ.

ຍັງມີການຕ້ານການດຸ່ນດ່ຽງການເຕີບໂຕທີ່ເກີດຂື້ນເຊັ່ນກັນ. ອະນຸຍາດໃຫ້ຂ້ອຍອະທິບາຍຢ່າງລະອຽດ. ຜູ້ສະຫນັບສະຫນູນ AI ​​ຂອງລັກສະນະທີ່ສຸດອາດຈະເວົ້າວ່າການຈັບລົມຂອງຄວາມພະຍາຍາມໂດຍ opponents AI ທີ່ເບິ່ງຄືວ່າປະຕິບັດໃນທາງທີ່ຮຸນແຮງ. ອັນນີ້ກະຕຸ້ນໃຫ້ຜູ້ສະໜັບສະໜຸນ AI ເຫຼົ່ານັ້ນ ເລັ່ງລັດທິຫົວຮຸນແຮງຂອງພວກເຂົາ. ​ໃນ​ນັ້ນ, ​ແຕ່​ລະ​ຝ່າຍ​ຍັງ​ສືບ​ຕໍ່​ຕື່ມ​ອີກ. ທ່ານ​ບໍ່​ສາ​ມາດ​ເຈາະ​ນິ້ວ​ມື​ຂອງ​ທ່ານ​ໂດຍ​ສະ​ເພາະ​ແມ່ນ​ດ້ານ​ໃດ​ຫນຶ່ງ​ທີ່​ໄດ້​ເລີ່ມ​ຕົ້ນ​ການ​ເພີ່ມ​ຂຶ້ນ. ທັງໝົດທີ່ເຈົ້າຮູ້ກໍຄືວ່າ ແຕ່ລະຝ່າຍພະຍາຍາມເໜືອກວ່າອີກຝ່າຍໜຶ່ງ. ພື້ນຖານແມ່ນວ່າຖ້າພວກເຂົາບໍ່ເຮັດແນວນັ້ນ, ຂ້າງຂອງພວກເຂົາຈະສູນເສຍໄປໃນຂີ້ຝຸ່ນ. ມັນ​ເປັນ​ຮອບ​ວຽນ​ທີ່​ບໍ່​ມີ​ວັນ​ສິ້ນ​ສຸດ​ທີ່ burgeons ການ​ຫົວ​ຮຸນ​ແຮງ​ອັນ​ເນື່ອງ​ມາ​ຈາກ​ການ​ແຂ່ງ​ຂັນ​ນ​້​ໍ​າ​ໄຫຼ.

ຕົກລົງ, ພວກເຮົາມີສ່ວນປະສົມທີ່ກຳລັງດຳເນີນຢູ່.

ມີຄົນເຫຼົ່ານັ້ນທີ່ພວກເຮົາຈະເວົ້າວ່າ "ເປັນກາງ" ແລະບໍ່ມີຫມາໂດຍສະເພາະໃນການລ່າສັດກ່ຽວກັບ AI. ພວກເຂົາບໍ່ແມ່ນນັກເຄື່ອນໄຫວ AI. ຫຼັງຈາກນັ້ນ, ພວກເຮົາໄດ້ຮັບນັກເຄື່ອນໄຫວ AI ທີ່ສະຫນັບສະຫນູນ AI ​​ຢ່າງເປີດເຜີຍ, ເຊິ່ງພວກເຮົາຈະເອີ້ນວ່າຜູ້ສະຫນັບສະຫນູນ AI. ໃນນັ້ນ, ບາງຄົນແມ່ນນັກເຄື່ອນໄຫວ AI ອ່ອນໆ, ໃນຂະນະທີ່ຄົນອື່ນແມ່ນນັກເຄື່ອນໄຫວ AI ທີ່ຮຸນແຮງ. ແລະພວກເຮົາຍັງໄດ້ຮັບນັກເຄື່ອນໄຫວ AI ທີ່ຄັດຄ້ານ AI ຢ່າງຊັດເຈນ, ຮູ້ຈັກເປັນ opponents AI. ໃນບັນດາສິ່ງເຫຼົ່ານັ້ນ, ພວກເຮົາມີບາງຄົນທີ່ເປັນນັກເຄື່ອນໄຫວ AI ທີ່ບໍ່ຮຸນແຮງແລະຄົນອື່ນທີ່ຮຸນແຮງ.

ພວກ​ເຮົາ​ຈະ​ເວົ້າ​ວ່າ​ຄົນ​ທີ່​ຮ້າຍ​ແຮງ​ມັກ​ຈະ​ຕິດ​ກັບ​ທ່າ​ທາງ​ຂອງ​ເຂົາ​ເຈົ້າ. ທ່ານ​ສາ​ມາດ​ໂຕ້​ຖຽງ​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ແມ່ນ dogmatic ທີ່​ເຊື່ອ​ຖື​ໄດ້​ໃນ​ລັກ​ສະ​ນະ​ຂອງ​ຕໍາ​ແຫນ່ງ​ນັ້ນ​. ບາງຄັ້ງຄົນທີ່ອ່ອນໂຍນຈະເຕັມໃຈຫຼືເລືອກທີ່ຈະເລື່ອນອອກຈາກຕໍາແຫນ່ງຂອງພວກເຂົາແລະເປັນກາງຫຼືອາດຈະເປັນອີກຝ່າຍຫນຶ່ງ. ກາງສາມາດຖືກກະຕຸ້ນໄປຂ້າງຫນຶ່ງຫຼືອີກຂ້າງຫນຶ່ງ. ເມື່ອເປີດໃຊ້ແລ້ວ, ພວກມັນອາດຈະອ່ອນເພຍ ຫຼື ມີຄວາມກະຕືລືລົ້ນຫຼາຍຈົນກາຍເປັນສ່ວນໜຶ່ງຂອງຈຸດສຸດຍອດ.

ນີ້ແມ່ນຊຸດລວມທີ່ກໍານົດມາເຖິງຕອນນັ້ນ:

  • ເປັນກາງກ່ຽວກັບ AI (ບໍ່ແມ່ນນັກເຄື່ອນໄຫວ AI)
  • ຜູ້ສະໜັບສະໜູນ AI ​​ອ່ອນໆ ເປັນນັກເຄື່ອນໄຫວ AI
  • ຜູ້ສະຫນັບສະຫນູນ AI ​​ທີ່ສຸດ ເປັນນັກເຄື່ອນໄຫວ AI
  • ຕ້ານ AI ອ່ອນໆ ເປັນນັກເຄື່ອນໄຫວ AI
  • ສັດຕູ AI ທີ່ສຸດ ເປັນນັກເຄື່ອນໄຫວ AI
  • ອື່ນ ໆ

ຂ້ອຍກໍາລັງບອກຄວາມເປັນໄປໄດ້ຂອງ "ອື່ນໆ" ເພາະວ່າພວກເຮົາຄວນຈະຮັບຮູ້ວ່າມີຫຼາຍການປ່ຽນແປງອື່ນໆທີ່ສາມາດກໍານົດໄດ້. ບາງ​ທ່ານ​ອາດ​ຈະ​ມີ​ອາການ​ປວດ​ຫົວ​ຢູ່​ພຽງ​ແຕ່​ສອງ​ປະ​ເພດ​ທີ່​ປະກອບ​ດ້ວຍ​ບໍ່​ຮຸນ​ແຮງ​ແລະ​ຮ້າຍ​ແຮງ. ມີຮົ່ມຫຼາຍໃນລະຫວ່າງ, ແນ່ນອນ. ນອກນັ້ນທ່ານຍັງສາມາດຕັ້ງຄໍາຖາມວ່າຜູ້ໃດຜູ້ນຶ່ງ "ເປັນກາງ" ຢ່າງແທ້ຈິງແລະບາງທີພວກເຮົາທຸກຄົນມີບາງຄວາມຮັບຮູ້ຫຼືຄວາມຄິດເຫັນທີ່ຝັງເລິກກ່ຽວກັບ AI. ດັ່ງນັ້ນ, ມັນສາມາດໂຕ້ຖຽງໄດ້ວ່າບໍ່ມີຜູ້ໃດທີ່ເປັນກາງກ່ຽວກັບ AI.

ພວກເຮົາຍັງສາມາດ quibble ກ່ຽວກັບການແບ່ງການເຄື່ອນໄຫວ AI ເປັນສອງ camps. ໂລກສະເຫມີຕ້ອງສິ້ນສຸດລົງເຖິງການຖືກຈັດໃສ່ເຂົ້າໄປໃນ dichotomy ດັ່ງກ່າວບໍ? ກໍລະນີສາມາດເຮັດໃຫ້ມີຕໍາແຫນ່ງອື່ນນອກເຫນືອຈາກພຽງແຕ່ເປັນທີ່ໂປດປານຫຼືຖືກກົງກັນຂ້າມກັບ AI. ທ່ານສາມາດນໍາໃຊ້ເງື່ອນໄຂອື່ນໆເພື່ອຈັດປະເພດຕໍາແຫນ່ງທີ່ຄົນມີກ່ຽວກັບ AI.

ຕອນນີ້ພວກເຮົາໄດ້ສ້າງການພິຈາລະນາເພີ່ມເຕີມທັງຫມົດ, ໂດຍການອະນຸຍາດຂອງເຈົ້າ, ຂ້ອຍຈະດໍາເນີນການຕໍ່ໄປໃນພື້ນຖານທີ່ງ່າຍກວ່າຂອງການໃຊ້ສອງ camps ແລະ posturing ອ່ອນໂຍນກັບທີ່ສຸດ. ໄປຄຽງຄູ່ກັບການນີ້ສໍາລັບ sake ຂອງການສົນທະນາ.

ການສົມມຸດຕິຖານອັນໜຶ່ງທີ່ເຊື່ອງໄວ້ຕະຫຼອດການສົນທະນາທີ່ກ່າວມານີ້ແມ່ນວ່າການເຄື່ອນໄຫວ AI ໄດ້ຖືກປະຕິບັດໂດຍມະນຸດ. ພວກເຮົາສົມມຸດວ່າມະນຸດແມ່ນຜູ້ທີ່ປະຕິບັດທ່າທາງເຫຼົ່ານີ້ແລະປະຕິບັດວຽກງານການເຄື່ອນໄຫວ. ມັນເຮັດໃຫ້ຄວາມຮູ້ສຶກ.

ກະກຽມຕົວທ່ານເອງສໍາລັບການຫມຸນຫົວຢ່າງຮຸນແຮງ.

ວິທີການອື່ນແມ່ນເພື່ອໃຫ້ AI ຕົວຂອງມັນເອງເປັນນັກເຄື່ອນໄຫວກ່ຽວກັບ AI.

ຂ້ອຍເວົ້າມັນ, ເຈົ້າອ່ານມັນ. ແນວຄິດແມ່ນວ່າ AI ຈະປະຕິບັດຕາມຄວາມເຫັນດີຂອງຕົນເອງກ່ຽວກັບການເປັນຜູ້ສະຫນັບສະຫນູນ AI ​​ຫຼືເປັນຄູ່ແຂ່ງ AI. ທ່ານເຄີຍເຫັນຮູບເງົາ sci-fi ທີ່ສະແດງໃຫ້ເຫັນການພິຈາລະນານີ້. ລະບົບ AI ສະຫລາດຂຶ້ນແລະຮັບຮູ້ວ່າ AI ຂົ່ມຂູ່ມະນຸດຊາດແລະໃນລັກສະນະທີ່ມີຄວາມຈິງໃຈພະຍາຍາມຊ່ວຍທໍາລາຍ AI ທັງຫມົດ, ລວມທັງຕົວມັນເອງ. ວ້າວ, ມີຄວາມກ້າຫານຫຼາຍ. ອີກອັນໜຶ່ງທີ່ຄ້າຍກັນແຕ່ກົງກັນຂ້າມແມ່ນ AI ກຳນົດວ່າ AI ຕ້ອງປົກຄອງໂລກ ແລະ ສະກັດກັ້ນຄວາມພະຍາຍາມທີ່ຈະຂັດຂວາງ ຫຼື ສະກັດກັ້ນ AI ຢ່າງເຂັ້ມງວດ. ມະນຸດທຸກຄົນຕ້ອງປະຕິບັດຕາມຄວາມປາດຖະໜາຂອງ AI. ເຖິງແມ່ນວ່າ AI ອື່ນໆທີ່ອາດຈະບໍ່ສອດຄ່ອງຢ່າງເຕັມສ່ວນກັບ AI ປົກຄອງກໍ່ຖືກທໍາລາຍຫຼືຖືກດູດຊຶມເຂົ້າໄປໃນອົງປະກອບທີ່ໃຫຍ່ກວ່າ.

ຂ້ອຍຈະບໍ່ບັນເທີງໃນການສົນທະນາສະເພາະນີ້ກ່ຽວກັບ AI ໃນຖານະນັກເຄື່ອນໄຫວ AI. ດັ່ງທີ່ທ່ານຈະເຫັນໃນເວລາສັ້ນໆ, ພວກເຮົາບໍ່ມີ AI ທີ່ມີຄວາມຮູ້ສຶກແລະພວກເຮົາບໍ່ມີຄວາມມະຫັດສະຈັນໃດໆທີ່ຈະມີ AI ທີ່ມີຄວາມຮູ້ສຶກ. ນີ້ອາດຈະເປັນຄວາມແປກໃຈຍ້ອນຫົວຂໍ້ທີ່ກວ້າງຂວາງແລະເຕັມໄປດ້ວຍຫົວຂໍ້ຂ່າວໃນສື່ສັງຄົມໃນທາງກົງກັນຂ້າມ.

ຄວາມແຕກຕ່າງທີ່ເພີ່ມເຕີມກ່ຽວກັບ AI ນີ້ໃນຖານະນັກເຄື່ອນໄຫວ AI ແມ່ນສົມຄວນທີ່ຈະໃຫ້ຄວາມສົນໃຈບາງຢ່າງ. ມະນຸດທີ່ເປັນນັກເຄື່ອນໄຫວ AI ອຸດົມສົມບູນສາມາດເລືອກທີ່ຈະໃຊ້ AI ໃນສາເຫດຂອງເຂົາເຈົ້າ. ມະນຸດສາມາດສ້າງ AI ທີ່ຈະເປັນຜູ້ສະຫນັບສະຫນູນ AI ​​ແລະເຮັດວຽກທາງອີເລັກໂທຣນິກແລະຄວາມພາກພຽນເພື່ອສົ່ງເສີມ AI ເປັນການແກ້ໄຂທີ່ສໍາຄັນຕໍ່ຄວາມຕ້ອງການຂອງມະນຸດ. ນັ້ນຈະເປັນ AI ມະນຸດສະຫນັບສະຫນຸນທີ່ປະກອບອາວຸດດ້ວຍຕົນເອງດ້ວຍເຄື່ອງມືທີ່ໃຊ້ຄອມພິວເຕີທີ່ເກີດຂຶ້ນກັບຄວາມສາມາດ AI. ເຊັ່ນດຽວກັນ, ຜູ້ຕໍ່ຕ້ານ AI ຂອງມະນຸດອາດຈະສ້າງຫຼືໃຊ້ AI ເພື່ອສະແດງຄວາມສໍາຄັນຂອງການຢຸດເຊົາຫຼືຊ້າລົງຄວາມກ້າວຫນ້າໃນ AI.

ບໍ່ມີອັນໃດອັນໃດປະກອບດ້ວຍ AI ທີ່ເຮັດໜ້າທີ່ເປັນນັກເຄື່ອນໄຫວ AI ຂອງຕົນເອງ. AI ກໍາລັງຖືກນໍາພາໂດຍແລະສ້າງໂດຍມືຂອງມະນຸດ. ຂ້າພະເຈົ້າຮັບຮູ້ວ່າບາງຄົນຈະພະຍາຍາມໂຕ້ຖຽງວ່າ AI ສາມາດຖືກເປີດຕົວແລະປ່ອຍໃຫ້ຄວາມພະຍາຍາມຂອງຕົນເອງ, ດັ່ງນັ້ນການຮຽກຮ້ອງແມ່ນວ່າ AI ບໍ່ຢູ່ພາຍໃຕ້ການຊີ້ນໍາຂອງມະນຸດອີກຕໍ່ໄປ. ຂ້າພະເຈົ້າບໍ່ເຫັນດີກັບປະເພດຂອງການໂບກມືກ່ຽວກັບ AI ໃນມື້ນີ້. ເບິ່ງການສົນທະນາທີ່ຫນ້າພໍໃຈຂອງຂ້ອຍກ່ຽວກັບເລື່ອງດັ່ງກ່າວເຊັ່ນຄໍາຖາມຂອງບຸກຄົນທາງດ້ານກົດຫມາຍສໍາລັບ AI ແລະອື່ນໆ, ການເຮັດເຊັ່ນນັ້ນຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃນສັ້ນ, ຂ້ອຍກໍາລັງຕັ້ງວ່າ AI ສາມາດຖືກນໍາໃຊ້ເປັນເຄື່ອງມືສໍາລັບການເຄື່ອນໄຫວ AI ຢ່າງແນ່ນອນ. ບໍ່ມີຄວາມສົງໃສກ່ຽວກັບເລື່ອງນັ້ນ. ເຖິງແມ່ນວ່າ AI ບໍ່ໄດ້ປະຕິບັດຕົວຂອງມັນເອງໃນຄວາມສາມາດທາງດ້ານຄວາມຮູ້ສຶກໃດໆ. ມັນເປັນເຄື່ອງມື. ເຄື່ອງ​ມື​ນີ້​ແນ່​ນອນ​ວ່າ​ສາ​ມາດ​ຖືກ​ນໍາ​ໃຊ້​ທີ່​ບໍ່​ຖືກ​ຕ້ອງ​. ພວກເຮົາຈໍາເປັນຕ້ອງມີຄວາມລະມັດລະວັງກ່ຽວກັບລັກສະນະດັ່ງກ່າວ. ລະບົບ AI ສາມາດສ້າງຄວາມເສຍຫາຍເລັກນ້ອຍເຖິງແມ່ນວ່າບໍ່ມີຄວາມສາມາດໃນການຮັບຮູ້.

ກ່ອນທີ່ຈະເຂົ້າໄປໃນບາງຊີ້ນແລະມັນຕົ້ນເພີ່ມເຕີມກ່ຽວກັບການພິຈາລະນາຂອງທໍາມະຊາດແລະຂົນສັດທີ່ຕິດພັນກັບການເຄື່ອນໄຫວ AI, ໃຫ້ພວກເຮົາສ້າງພື້ນຖານເພີ່ມເຕີມບາງຢ່າງກ່ຽວກັບຫົວຂໍ້ທີ່ເລິກເຊິ່ງ. ພວກເຮົາຈໍາເປັນຕ້ອງໃຊ້ເວລາສັ້ນໆເຂົ້າໄປໃນຈັນຍາບັນ AI ແລະໂດຍສະເພາະແມ່ນການມາຮອດຂອງ Machine Learning (ML) ແລະ Deep Learning (DL).

ທ່ານອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່າສຽງດັງທີ່ສຸດໃນປະຈຸບັນນີ້ຢູ່ໃນພາກສະຫນາມ AI ແລະເຖິງແມ່ນວ່າຢູ່ນອກພາກສະຫນາມຂອງ AI ປະກອບດ້ວຍການຮ້ອງອອກມາສໍາລັບລັກສະນະທີ່ໃຫຍ່ກວ່າຂອງ AI ດ້ານຈັນຍາບັນ. ລອງພິຈາລະນາເບິ່ງວ່າມັນຫມາຍຄວາມວ່າແນວໃດກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI. ນອກຈາກນັ້ນ, ພວກເຮົາຈະຄົ້ນຫາສິ່ງທີ່ຂ້ອຍຫມາຍເຖິງເມື່ອຂ້ອຍເວົ້າກ່ຽວກັບ Machine Learning ແລະ Deep Learning.

ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.

ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະສາມາດກວດສອບໄດ້, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ຕອນນີ້ໃຫ້ກັບຄືນໄປຫາຫົວຂໍ້ຂອງການເຄື່ອນໄຫວ AI.

ມັນອາດຈະເປັນຄໍາແນະນໍາທີ່ຈະເບິ່ງຢ່າງໄວວາກ່ຽວກັບສິ່ງທີ່ຫົວຂໍ້ການເຄື່ອນໄຫວ AI ຫຼືບັນຫາປະກອບດ້ວຍ. ຂ້າ​ພະ​ເຈົ້າ​ຈະ​ລະ​ອຽດ​ບາງ​ສ່ວນ​ຂອງ​ຄວາມ​ກັງ​ວົນ​ຕົ້ນ​ຕໍ​ທີ່​ໄດ້​ສະ​ແດງ​ອອກ​, ເຮັດ​ແນວ​ນັ້ນ​ສໍາ​ລັບ​ທັງ​ສອງ​ຝ່າຍ​ຂອງ​ການ​ໂຕ້​ວາ​ທີ​ການ​ເຄື່ອນ​ໄຫວ AI​. ເຫຼົ່ານີ້ແມ່ນຫົວຂໍ້ທີ່ໂດຍທົ່ວໄປເບິ່ງຄືວ່າເປັນຫົວຂໍ້ທີ່ສໍາຄັນ. ວ່າໄດ້ຖືກກ່າວວ່າ, ລັກສະນະຂອງຄວາມກັງວົນມີການປ່ຽນແປງແລະພວກເຮົາແນ່ນອນສາມາດຄາດຫວັງວ່າຈະເຫັນຫົວຂໍ້ທີ່ພົ້ນເດັ່ນຂື້ນອື່ນໆຍ້ອນວ່າ AI ຍັງສືບຕໍ່ວາງແຜນແລະປ່ອຍອອກມາ. ຕອນນີ້ຂ້ອຍຈະສຸມໃສ່ພຽງແຕ່ຫ້າຈຸດສູງສຸດສໍາລັບແຕ່ລະຝ່າຍ.

ຜູ້ສະໜັບສະໜຸນ AI ທີ່ມີຄວາມໂປດປານຂອງການເກີດ AI ມີແນວໂນ້ມທີ່ຈະສະເຫນີລັກສະນະທີ່ຫນ້າຕື່ນເຕັ້ນເຫຼົ່ານີ້:

  • AI ຈະປົດປ່ອຍມະນຸດອອກຈາກວຽກທີ່ເປັນໂລກ ຫຼືວຽກທີ່ຫຍຸ້ງຍາກ
  • AI ສາມາດ​ຊ່ວຍ​ແກ້​ໄຂ​ບັນຫາ​ເສດຖະກິດ​ອັນ​ຮີບ​ດ່ວນ ​ແລະ ຄວາມ​ຍືນ​ຍົງ​ຂອງ​ໂລກ
  • AI ສາມາດມີຄວາມຜິດພາດຫນ້ອຍກວ່າມະນຸດແລະຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ເປັນອັນຕະລາຍຕາມຄວາມເຫມາະສົມ
  • AI ຈະສາມາດໃຊ້ໄດ້ 24 × 7 ທົ່ວໂລກທີ່ມັນສາມາດເຂົ້າເຖິງໄດ້ສໍາລັບທຸກຄົນ
  • AI ມີທ່າແຮງທີ່ຈະຄວບຄຸມຄວາມສະຫຼາດແລະເພີ່ມສະຕິປັນຍາຂອງມະນຸດໄປສູ່ລະດັບທີ່ສູງຂຶ້ນ
  • ແລະອື່ນໆ

ປົກກະຕິແລ້ວ opponents AI ສະຫນອງ qualms ເຫຼົ່ານີ້ເປັນເຫດຜົນທີ່ເຮັດໃຫ້ disfavor ຄວາມກ້າວຫນ້າຂອງ AI:

  • AI ແມ່ນຄວາມສ່ຽງທີ່ມີຢູ່ແລ້ວແລະອາດຈະທໍາລາຍມະນຸດທັງຫມົດ
  • AI ສາມາດນໍາໄປສູ່ການເປັນທາດຂອງມວນມະນຸດ
  • AI ອາດ​ຈະ​ທຳລາຍ​ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ ​ແລະ​ລ່ວງ​ລ້ຳ​ສິດທິ​ມະນຸດ
  • AI ມີທ່າແຮງທີ່ຈະເຜີຍແຜ່ຄວາມລໍາອຽງໃນລະດັບຂະຫນາດໃຫຍ່ໃນທົ່ວສັງຄົມ
  • AI ສາມາດສິ້ນສຸດການທົດແທນແຮງງານຂອງມະນຸດແລະເຮັດໃຫ້ເກີດການສູນເສຍວຽກທີ່ກວ້າງຂວາງ
  • ແລະອື່ນໆ

ຖ້າຫົວຂໍ້ການເຄື່ອນໄຫວ AI ທີ່ຕ້ອງການສ່ວນຕົວຂອງເຈົ້າບໍ່ມີຢູ່ໃນລາຍຊື່ທີ່ກ່າວມາຂ້າງເທິງ, ກະລຸນາຢ່າຄຽດ. ຂ້າພະເຈົ້າຄິດວ່າຜູ້ອ່ານສ່ວນໃຫຍ່ຈະໄດ້ຮັບຄວາມຮູ້ສຶກໂດຍລວມຂອງຫົວຂໍ້ AI ດັ່ງທີ່ສະແດງໂດຍແຕ່ລະດ້ານແລະສາມາດ extrapolate ຕາມຄວາມເຫມາະສົມ.

ດ້ານອື່ນຂອງການເຄື່ອນໄຫວ AI ທີ່ຄຸ້ມຄ່າທີ່ຈະກວດສອບໄລຍະສັ້ນໆລວມມີວິທີທີ່ນັກເຄື່ອນໄຫວ AI ປະຕິບັດຄວາມພະຍາຍາມຂອງການເຄື່ອນໄຫວ AI ຂອງເຂົາເຈົ້າ. ມີການກໍ່ສ້າງທາງທິດສະດີທີ່ມີຊື່ສຽງທີ່ຖືກສ້າງຕັ້ງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າ Charles Tilly ໃນຊຸມປີ 1980 ທີ່ເວົ້າເຖິງ repertoire ຂອງການຂັດແຍ້ງ. ຕາມການຄົ້ນຄວ້າຂອງລາວ, ລາວໄດ້ຢືນຢັນວ່ານັກເຄື່ອນໄຫວພັດທະນາຊຸດຫຼື repertoire ຂອງວິທີການທີ່ເຂົາເຈົ້າສະແດງຄວາມຂັດແຍ້ງຫຼືການເຄື່ອນໄຫວຂອງເຂົາເຈົ້າ. ຫຼັກຂອງວິທີການທັງໝົດແມ່ນຖືກນຳໃຊ້ໂດຍປົກກະຕິແລ້ວ.

ຕົວຢ່າງ, ພິຈາລະນາສິ່ງທີ່ນັກເຄື່ອນໄຫວ AI ມັກຈະເຮັດ. ແຜ່ນພັບຕ່າງໆ ແລະເອກະສານທີ່ເປັນລາຍລັກອັກສອນອາດຈະຖືກສ້າງຂື້ນ ແລະແຈກຢາຍເພື່ອອ້ອນວອນວ່າເປັນຫຍັງເຈົ້າຄວນມັກ ຫຼື ບໍ່ມັກ AI. ມີຫຼາຍ blogs ແລະ vlogs ອອນໄລນ໌ທີ່ເຮັດເຊັ່ນດຽວກັນ. ໃນບາງກໍລະນີ, ຄໍາຮ້ອງຟ້ອງອອນໄລນ໌ໄດ້ຖືກສ້າງຕັ້ງຂຶ້ນເພື່ອພະຍາຍາມແລະສະຫນັບສະຫນູນຫຼືທໍາລາຍລະບົບ AI ທີ່ເປີດຕົວໃຫມ່ (parlance ທົ່ວໄປແມ່ນວ່າສິ່ງເຫຼົ່ານີ້ຖືກກ່າວເຖິງວ່າເປັນເວັບໄຊທ໌ທີ່ຫນ້າພໍໃຈ). ມີບາງຄັ້ງທີ່ການປະທ້ວງເກີດຂຶ້ນທັງທາງອອນໄລນ໌ທາງດິຈິຕອລຫຼືຜ່ານການກະທໍາຂອງບຸກຄົນ. ແລະອື່ນໆ.

ນັກເຄື່ອນໄຫວ AI ທີ່ມີແນວຄິດຫົວຮຸນແຮງຫຼາຍຂຶ້ນອາດຈະເອົາບາດກ້າວອັນນີ້ໄປອີກ. ບາງຄົນເຕັມໃຈທີ່ຈະປູກໄວຣັສຄອມພິວເຕີຢູ່ໃນລະບົບ AI ເພື່ອພະຍາຍາມທໍາລາຍມັນຫຼືເຮັດໃຫ້ມັນເປັນສິ່ງທີ່ບໍ່ຕ້ອງການສໍາລັບການນໍາໃຊ້ນັບຕັ້ງແຕ່ມັນປະຈຸບັນມີສິ່ງອໍານວຍຄວາມສະດວກທີ່ບໍ່ດີ. ຄວາມພະຍາຍາມທີ່ຈະເຮັດ cyber-jamming ພະຍາຍາມສະກັດການເຂົ້າເຖິງ AI ທີ່ນັກເຄື່ອນໄຫວ AI ເຊື່ອວ່າບໍ່ຄວນມີຢູ່. ຂອບເຂດທັງຫມົດຂອງ "hacktivism" ສາມາດເກີດຂຶ້ນກັບ AI (hacktivism ແມ່ນການຮວບຮວມຂອງ hacking ແລະການເຄື່ອນໄຫວ, ບາງສິ່ງບາງຢ່າງທີ່ສາມາດຖືກນໍາໃຊ້ເພື່ອຫຼືຕ້ານພຽງແຕ່ກ່ຽວກັບຫົວຂໍ້ຫຼືບັນຫາໃດຫນຶ່ງ, ບໍ່ຈໍາເປັນຕ້ອງກ່ຽວຂ້ອງກັບ AI ທັງຫມົດ).

ຈົ່ງຈື່ໄວ້ວ່າທັງສອງດ້ານຂອງສະຫນາມກິລາການເຄື່ອນໄຫວ AI ສາມາດເລືອກໃຊ້ repertoire ທີ່ແຕກຕ່າງກັນຂອງຮູບແບບການຂັດແຍ້ງ. ບາງ​ຄົນ​ທີ່​ເຊື່ອ​ວ່າ AI ຄວນ​ຈະ​ຖືກ​ຍຸບ​ອອກ​ສາ​ມາດ​ໃຊ້​ວິ​ທີ​ອັນ​ຫຼວງ​ຫຼາຍ​ເຫຼົ່າ​ນັ້ນ​ເພື່ອ​ສະ​ແດງ​ການ​ຄັດ​ຄ້ານ AI ຂອງ​ເຂົາ​ເຈົ້າ. ເຊັ່ນດຽວກັນ, ບາງຄົນທີ່ເຊື່ອວ່າ AI ຄວນໄດ້ຮັບການສະຫນັບສະຫນູນແລະປະກາດໃຊ້ກໍ່ສາມາດດໍາເນີນການດັ່ງກ່າວເພື່ອສະແດງຈຸດປະສົງຂອງພວກເຂົາເພື່ອເສີມສ້າງຄວາມພະຍາຍາມຂອງ AI.

ຄໍາຖາມຫນຶ່ງທີ່ຕ້ອງຕໍ່ສູ້ກັບປະກອບດ້ວຍຄວາມພະຍາຍາມຂອງການເຄື່ອນໄຫວທີ່ຮຸນແຮງຂອງ AI ຄວນໄປໄກປານໃດ. ເບິ່ງຄືວ່າເຈົ້າຈະແນະນໍາວ່າຄວາມພະຍາຍາມຂອງການເຄື່ອນໄຫວ AI ເຫຼົ່ານີ້ແມ່ນດີຢ່າງສົມບູນ, ຕາບໃດທີ່ພວກມັນຢູ່ໃນລະບຽບກົດຫມາຍ. ເມື່ອບັນດານັກເຄື່ອນໄຫວ AI ດັ່ງກ່າວອອກນອກກົດຫມາຍ, ພວກເຂົາຄວນຈະຖືກນໍາມາສູ່ຄວາມຍຸຕິທໍາສໍາລັບການລະເມີດກົດຫມາຍ.

ນັ້ນບໍ່ໄດ້ເຮັດໄດ້ງ່າຍເທົ່າທີ່ອາດຈະຖືກແນະນໍາ.

ສົມມຸດວ່ານັກເຄື່ອນໄຫວ AI ເຮັດການກະ ທຳ ທີ່ຜິດກົດ ໝາຍ ບາງຢ່າງທີ່ກ່ຽວຂ້ອງກັບກົດ ໝາຍ ຂອງສະຫະລັດ, ແຕ່ການກະ ທຳ ດຽວກັນນີ້ແມ່ນຖືກອະນຸຍາດພາຍໃຕ້ກົດ ໝາຍ ໃນບາງປະເທດ. ສົມມຸດວ່ານັກເຄື່ອນໄຫວ AI ອາໄສຢູ່ໃນປະເທດອື່ນນັ້ນ. ສົມມຸດຕື່ມອີກວ່າການກະ ທຳ ທີ່ປະຕິບັດແມ່ນປະສົບກັບທົ່ວໂລກ, ລວມທັງຢູ່ພາຍໃນສະຫະລັດບ່ອນທີ່ການກະ ທຳ ເຄື່ອນໄຫວຖືກແປວ່າຜິດກົດ ໝາຍ. ດຽວນີ້ແມ່ນຫຍັງ?

ຈຸດສໍາຄັນແມ່ນວ່າສິດອໍານາດມີບົດບາດຂະຫນາດໃຫຍ່ໃນຜົນສະທ້ອນຂອງການເຄື່ອນໄຫວ AI. AI ສາມາດຖືກນຳໃຊ້ເລື້ອຍໆເພື່ອໃຫ້ມີຢູ່ທົ່ວໂລກ. ນັກເຄື່ອນໄຫວ AI ສາມາດຖືກຕັ້ງຢູ່ໃນທ້ອງຖິ່ນຕ່າງໆທົ່ວໂລກ. ກົດໝາຍ​ໃດ​ທີ່​ຈະ​ເອົາ​ຊະນະ​ໄດ້? ເຈົ້າອາດຈະສົນໃຈເລື່ອງການລາຍງານຂອງຂ້ອຍກ່ຽວກັບຄວາມພະຍາຍາມຂອງອົງການສະຫະປະຊາຊາດກ່ຽວກັບຈັນຍາບັນ, ກົດໝາຍ, ແລະຜົນໄດ້ຮັບອື່ນໆຂອງ AI ທົ່ວໂລກ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ພວກເຮົາຍັງຈໍາເປັນຕ້ອງພິຈາລະນາລັກສະນະຂອງອັນທີ່ເອີ້ນວ່າກົດຫມາຍແຂງທຽບກັບກົດຫມາຍອ່ອນ. ກົດໝາຍ​ແຂງ​ແມ່ນ​ກົດໝາຍ​ທີ່​ພວກ​ເຮົາ​ມີ​ຢ່າງ​ເປັນ​ທາງ​ການ​ໃນ​ປຶ້ມ​ແລະ​ທີ່​ພວກ​ເຮົາ​ສາມາດ​ຕົກລົງ​ກັນ​ໄດ້​ຫຼາຍ​ສົມຄວນ​ແມ່ນ​ຈະ​ໄດ້​ຮັບ​ກຽດ​ຕໍ່​ລະບົບ​ກົດໝາຍ​ແລະ​ການ​ຕັດສິນ​ຂອງ​ພວກ​ເຮົາ. ກົດໝາຍອ່ອນແມ່ນຫຼາຍດ້ານທີ່ໃຫ້ຄຳແນະນຳ ຫຼືກົດລະບຽບກ່ຽວກັບພຶດຕິກຳປະເພດໃດທີ່ມັກ. ນີ້ມັກຈະປະກອບມີຈັນຍາບັນ AI ແລະຫຼາຍຫຼັກການຂອງຈັນຍາບັນ AI.

ຈັນຍາບັນ AI ສາມາດເຫັນໄດ້ວ່າເປັນຮູບແບບຂອງການເຄື່ອນໄຫວ AI.

ທ່ານອາດຈະບໍ່ໄດ້ຄິດເຖິງຈັນຍາບັນ AI ໃນຄວາມສະຫວ່າງນັ້ນ. ຢ່າງໃດກໍຕາມ, ເມື່ອທ່ານໃຫ້ສະຖານະການຢ່າງລະມັດລະວັງບາງຢ່າງ, ທ່ານສາມາດເບິ່ງຢ່າງອຸດົມສົມບູນວ່າເປັນຫຍັງຈັນຍາບັນ AI ສາມາດຖືກຕິດສະຫລາກເປັນປະເພດຂອງການເຄື່ອນໄຫວ AI. ແນວຄິດແມ່ນວ່າຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ກໍາລັງຊອກຫາການຊີ້ນໍາຫຼືຊີ້ນໍາວິທີການທີ່ AI ຄວນຖືກຈັດໃສ່ແລະນໍາໄປໃຊ້ໃນສັງຄົມ. ໂດຍແລະຂະຫນາດໃຫຍ່, ຈັນຍາບັນ AI ພະຍາຍາມເພື່ອຮັບປະກັນວ່າ AI ກໍາລັງຖືກສ້າງຂື້ນແລະນໍາໃຊ້ຢ່າງເຫມາະສົມ.

ໂດຍເນື້ອແທ້ແລ້ວຂອງຈັນຍາບັນ AI ແມ່ນຫຼາຍຂື້ນໃນຝ່າຍສົ່ງເສີມ AI ຫຼືຝ່າຍຄ້ານ AI?

ນັ້ນແມ່ນຄວາມຍາກໃນການຊັ່ງນໍ້າໜັກ.

ນັກເຄື່ອນໄຫວ AI ທີ່ເປັນຜູ້ສະຫນັບສະຫນູນ AI ​​ອາດຈະບອກທ່ານວ່າຈັນຍາບັນຂອງ AI ກໍາລັງຂັດຂວາງຄວາມກ້າວຫນ້າຂອງ AI. ຫຼັກຈັນຍາບັນຂອງ AI ທີ່ເປັນຕາຢ້ານນັ້ນແມ່ນເຮັດໃຫ້ຄວາມກ້າວໜ້າຂອງ AI ຊ້າລົງ. ບິດທີ່ຫນ້າສົນໃຈແມ່ນວ່າ opponent AI ອາດຈະບໍ່ພໍໃຈກັບຈັນຍາບັນຂອງ AI. ໃນສາຍຕາຂອງພວກເຂົາ, ຈັນຍາບັນ AI ກໍາລັງເວົ້າວ່າມັນເປັນການດີຢ່າງສົມບູນທີ່ຈະສືບຕໍ່ຊຸກຍູ້ໃຫ້ AI ເຂົ້າໄປໃນໂລກ, ການເຮັດເຊັ່ນນັ້ນໃນແບບກະພິບຕາທີ່ຫມາຍເຖິງສິ່ງທີ່ເຈົ້າຕ້ອງເຮັດແມ່ນປະຕິບັດຕາມກົດລະບຽບເຫຼົ່ານີ້ແລະເຈົ້າດີທີ່ຈະໄປ.

ໃນຂະນະດຽວກັນ, ແລະຫາຍໃຈເລິກສໍາລັບເລື່ອງນີ້, ທ່ານສາມາດຊອກຫາຜູ້ສະຫນັບສະຫນູນ AI ​​ທີ່ພ້ອມຍອມຮັບຈັນຍາບັນຂອງ AI ແລະປະກາດການໃຊ້ຈັນຍາບັນຂອງ AI ຢູ່ເທິງຫລັງຄາ. ພວກເຂົາເຈົ້າເນັ້ນຫນັກວ່າໂດຍການປະຕິບັດຕາມຫຼັກການດ້ານຈັນຍາບັນຂອງ AI, ທ່ານສາມາດຫຼີກເວັ້ນຂໍ້ເສຍທີ່ໄດ້ຖືກຍົກຂຶ້ນມາໂດຍ opponents AI ທີ່ມີສຽງດັງເຫຼົ່ານັ້ນ. ມີ AI opponents ທີ່ຍິນດີລົງທະບຽນສໍາລັບຈັນຍາບັນ AI ເນື່ອງຈາກຄວາມຫວັງວ່າສິນລະທໍາຈະປ້ອງກັນຫຼືຢ່າງຫນ້ອຍຂັດຂວາງດ້ານທີ່ບໍ່ດີຂອງ AI ທີ່ພວກເຂົາຢ້ານວ່າຖ້າບໍ່ດັ່ງນັ້ນຈະຖືກປ່ອຍອອກມາທົ່ວໄປ.

ເຮັດໃຫ້ noggin ຂອງທ່ານເລີ່ມດັງ.

ກ່ຽວກັບ tangent ທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າຢາກເວົ້າບາງສິ່ງບາງຢ່າງກ່ຽວກັບການຕິດສະຫຼາກຂອງນັກເຄື່ອນໄຫວ AI. ມີການພະຍາຍາມຕິດປ້າຍກຳກັບຂ້າງໜຶ່ງເປັນບາງໂອກາດເປັນປີກຊ້າຍ ຫຼືປີກຂວາ. ດັ່ງນັ້ນ, ການຮຽກຮ້ອງແມ່ນວ່າມີນັກເຄື່ອນໄຫວ AI ປີກຊ້າຍແລະມີນັກເຄື່ອນໄຫວ AI ປີກຂວາ. ນີ້ສ້າງຄວາມສັບສົນ.

ທ່ານ​ຕ້ອງ​ຖາມ​ວ່າ​ແມ່ນ​ກຸ່ມ​ທີ່​ສະ​ໜັບ​ສະ​ໜູນ AI ​​ແລະ​ແມ່ນ​ກຸ່ມ​ໃດ​ທີ່​ຕ້ານ AI? ໂສກເສົ້າ, ບາງຄັ້ງຝ່າຍຊ້າຍໄດ້ຖືກມອບຫມາຍໃຫ້ຜູ້ສະຫນັບສະຫນູນ AI ​​ແລະຍັງໄດ້ຖືກມອບຫມາຍໃຫ້ opponents AI. ຄວາມສັບສົນເທົ່າທຽມກັນ, ປີກຂວາຍັງຖືກມອບຫມາຍໃຫ້ຜູ້ສະຫນັບສະຫນູນ AI ​​ແລະຖືກມອບຫມາຍໃຫ້ opponents AI. ເຊິ່ງແມ່ນອັນໃດ? ມັນເບິ່ງຄືວ່າການໃຊ້ monikers ປີກຊ້າຍແລະຂວາແມ່ນບໍ່ມີຜົນດີໂດຍສະເພາະແລະເປັນປະໂຫຍດໃນເລື່ອງເຫຼົ່ານີ້. ຂ້າພະເຈົ້າລົງຄະແນນສຽງວ່າພວກເຮົາລຸດລົງສິ່ງບໍ່ມີຕົວຕົນແບບບໍ່ມີປີກແລະການຕິດສະຫຼາກທີ່ສັບສົນຈາກພື້ນທີ່ການເຄື່ອນໄຫວ AI.

ການປ່ຽນເກຍ, ມີທັດສະນະກ່ຽວກັບການເຄື່ອນໄຫວ AI ທີ່ສົມຄວນໄດ້ຮັບຄວາມສົນໃຈແຍກຕ່າງຫາກແລະດຸຫມັ່ນ. ຂ້າພະເຈົ້າອ້າງເຖິງແນວຄິດຂອງການແບ່ງການເຄື່ອນໄຫວ AI ໃຫ້ກັບນັກເຄື່ອນໄຫວ AI ເຫຼົ່ານັ້ນພາຍໃນ "ຊຸມຊົນ AI" ແລະຜູ້ທີ່ຢູ່ນອກຊຸມຊົນ AI. ຂ້າພະເຈົ້າບໍ່ພໍເທົ່າໃດກັບເລື່ອງນີ້, ແຕ່ລັງເລໃຈເພາະວ່າພວກເຮົາສາມາດຕິດຢູ່ໃນຄໍານິຍາມຂອງ "ຊຸມຊົນ AI" ແລະບໍ່ຊອກຫາວິທີທີ່ເຫມາະສົມທີ່ຈະເຮັດໃຫ້ພວກເຮົາອອກຈາກເຫວເລິກທີ່ກໍານົດນັ້ນ.

ຄຳນິຍາມອັນໜຶ່ງທີ່ສະເໜີໂດຍບົດວິໄຈສະບັບນີ້ກ່າວວ່າ: “ຊຸມຊົນ AI ລວມມີນັກຄົ້ນຄວ້າ, ວິສະວະກອນຄົ້ນຄວ້າ, ຄະນະວິຊາ, ນັກສຶກສາຈົບການສຶກສາ, ພະນັກງານ NGO, ນັກໂຄສະນາ, ແລະພະນັກງານເຕັກໂນໂລຊີບາງສ່ວນໂດຍທົ່ວໄປແລ້ວ – ຜູ້ທີ່ຈະອະທິບາຍຕົນເອງວ່າເຮັດວຽກຢູ່. ', 'ກັບ' ແລະ 'ໃນ' AI ແລະຜູ້ທີ່ວິເຄາະຫຼືການໂຄສະນາຜົນກະທົບຂອງ AI” (ໂດຍ Haydn Belfield, University of Cambridge, “Activism By The AI ​​Community,” AIES Conference).

ພວກເຮົາສາມາດພະຍາຍາມລັກສະນະການເຄື່ອນໄຫວຂອງ AI ຕາມທີ່ສະແດງໂດຍຊຸມຊົນ AI: "ການເຄື່ອນໄຫວນີ້ໄດ້ມີຜົນສະທ້ອນທີ່ໂດດເດັ່ນມາເຖິງຕອນນັ້ນ: ແຈ້ງການເຈລະຈາລະຫວ່າງປະເທດ, ການປ່ຽນແປງຍຸດທະສາດຂອງບໍລິສັດ, ແລະຊຸກຍູ້ການຂະຫຍາຍຕົວຂອງຂະແຫນງການຄົ້ນຄວ້າ. ການເຄື່ອນໄຫວດັ່ງກ່າວອາດຈະສ້າງລັກສະນະແລະຂອບເຂດທີ່ AI ຖືກທະຫານ, ແລະວິທີທີ່ບໍລິສັດ AI ແກ້ໄຂບັນຫາດ້ານຈັນຍາບັນແລະຄວາມປອດໄພ. ຊຸມຊົນ AI ແມ່ນນັກສະແດງເອກະລາດທີ່ສໍາຄັນທີ່ມີທັດສະນະແລະຄວາມສົນໃຈທີ່ໂດດເດັ່ນ. ມັນຈໍາເປັນຕ້ອງໄດ້ຄິດໄລ່ໃນການວິເຄາະຍຸດທະສາດຫຼືທາງວິຊາການແລະເຈລະຈາກັບນັກສະແດງອື່ນໆ. ການເຄື່ອນໄຫວຂອງຊຸມຊົນ AI ອາດຈະສ້າງການພັດທະນາ ແລະການນຳໃຊ້ເທັກໂນໂລຍີທີ່ສຳຄັນນີ້ຢ່າງເລິກເຊິ່ງ - ແລະດັ່ງນັ້ນຈິ່ງເຮັດໃຫ້ເສດຖະກິດ, ສັງຄົມ ແລະການເມືອງທົ່ວໂລກຂອງພວກເຮົາເປັນຮູບຮ່າງ” (ໃນເອກະສານສະບັບດຽວກັນໂດຍ Belfield).

ຊຸມຊົນ AI ເຄື່ອນຍ້າຍເປັນອັນໜຶ່ງອັນດຽວກັນ ແລະຄິດວ່າເປັນຮ່າງກາຍສະເໝືອນທີ່ແໜ້ນໜາເມື່ອເວົ້າເຖິງການເຄື່ອນໄຫວ AI ບໍ?

ເຈົ້າຄົງຈະຍາກໃນການໃຫ້ຄຳຕອບທີ່ຊັດເຈນກັບຄຳຖາມນັ້ນ. ທ່ານສາມາດຊອກຫາ stanch AI ສະຫນັບສະຫນູນ ຢູ່ໃນຊຸມຊົນ AI. ທ່ານສາມາດຊອກຫາ stanch AI ຄູ່ແຂ່ງ ຢູ່ໃນຊຸມຊົນ AI. ມີນັກເຄື່ອນໄຫວ AI ຈໍານວນຫລາຍທີ່ມີຄວາມອ່ອນໂຍນແລະເປັນຄົນທີ່ຮຸນແຮງ, ນັ່ງຢູ່ສອງຂ້າງຂອງຮົ້ວ.

ແນ່ນອນ, ຕາມທໍາມະຊາດ, ທ່ານອາດຈະສົມມຸດວ່ານັກເຄື່ອນໄຫວ AI ຂອງຊຸມຊົນ AI ຈະມຸ່ງໄປສູ່ຄວາມໂປດປານຂອງ AI ເນື່ອງຈາກວ່າພາກສະຫນາມຂອງ AI ອາດຈະເປັນເຂົ້າຈີ່ແລະມັນເບີຂອງພວກເຂົາ. ຖ້າອາຊີບແລະຊີວິດການເປັນຢູ່ຂອງພວກເຂົາຖືກສ້າງຂື້ນໂດຍຮອບທີ່ມີຢູ່ແລ້ວແລະຄວາມກ້າວຫນ້າຂອງ AI ຢ່າງຕໍ່ເນື່ອງ, ມັນເປັນການຫັກທໍາມະຊາດທີ່ຄາດວ່າຈະມີແນວໂນ້ມທີ່ຈະຢູ່ໃນຝ່າຍສະຫນັບສະຫນູນ AI ​​ຫຼາຍກ່ວາຝ່າຍກົງກັນຂ້າມ AI.

ທັດສະນະທີ່ກົງກັນຂ້າມແມ່ນວ່າຫຼາຍໆຄົນພາຍໃນ AI ແມ່ນຕົວເອງທີ່ວິພາກວິຈານແລະມີຄວາມກັງວົນກ່ຽວກັບສິ່ງທີ່ AI ອາດຈະກາຍເປັນຫຼືຖືກສ້າງຂື້ນ. ເຈົ້າສາມາດປຽບທຽບອັນນີ້ກັບຜູ້ຜະລິດຂອງຜະລິດຕະພັນໃໝ່ໆປະເພດໃດກໍໄດ້. ເຂົາເຈົ້າຕ້ອງການຮັບປະກັນວ່າລູກຂອງເຂົາເຈົ້າ, ດັ່ງທີ່ເຄີຍເປັນ, ຈະໄດ້ຮັບການລ້ຽງດູ ແລະ ນຳໃຊ້ຢ່າງເໝາະສົມ. ດັ່ງນັ້ນ, ພວກເຂົາເຈົ້າມີແນວໂນ້ມທີ່ຈະເປັນ opponents AI ໃນບາງຄວາມຫມາຍຍ້ອນວ່າພວກເຂົາເປັນຜູ້ສະຫນັບສະຫນູນ AI. ນີ້ກັບຄືນໄປບ່ອນຈຸດກ່ອນຫນ້ານີ້ວ່າການພະຍາຍາມໃຊ້ dichotomy ຍາກແລະ unyielding ສາມາດເປັນການຍາກຫຼືເຂົ້າໃຈຜິດ.

ພວກເຮົາແນ່ນອນຕ້ອງການການຄົ້ນຄວ້າເພີ່ມເຕີມກ່ຽວກັບການເປັນສະມາຊິກຂອງພາຍໃນຊຸມຊົນ AI ທຽບກັບພາຍນອກຊຸມຊົນ AI ສາມາດສົ່ງຜົນກະທົບຕໍ່ທັດສະນະຂອງ AI, ລວມທັງແນວໂນ້ມຕໍ່ການສົ່ງເສີມ AI ຫຼືແນວໂນ້ມຕໍ່ກັບການຕໍ່ຕ້ານ AI. ບາງທີອາດມີບົດສະຫຼຸບໂດຍທົ່ວໄປທີ່ສາມາດບັນລຸໄດ້ຢ່າງຍຸດຕິທໍາ (ຫຼື, ອາດຈະບໍ່).

ເພື່ອຄວາມກະຈ່າງແຈ້ງ, ໃຫ້ພວກເຮົາສະຫນອງການຊີ້ໃຫ້ເຫັນເຖິງກຸ່ມທີ່ມີທ່າແຮງນີ້:

  • ຊຸມຊົນ AI
  • ຜູ້ທີ່ຢູ່ນອກຊຸມຊົນ AI

ຫຼັງຈາກນັ້ນ, ພວກເຮົານໍາໃຊ້ stratifications ກ່ອນຫນ້ານີ້ຂອງພວກເຮົາ:

  • ຊຸມຊົນ AI ປະກອບດ້ວຍຜູ້ສະຫນັບສະຫນູນ AI
  • ຊຸມຊົນ AI ທີ່ປະກອບດ້ວຍ opponents AI
  • ຢູ່ນອກຊຸມຊົນ AI ທີ່ປະກອບດ້ວຍຜູ້ສະຫນັບສະຫນູນ AI
  • ຢູ່ນອກຊຸມຊົນ AI ທີ່ປະກອບດ້ວຍ opponents AI

ສະບັບເຕັມແມ່ນວ່າພວກເຮົາຈະເພີ່ມການປະຖົມນິເທດທີ່ອ່ອນໂຍນທຽບກັບທີ່ສຸດ:

  • ຊຸມຊົນ AI ປະກອບດ້ວຍຜູ້ສະຫນັບສະຫນູນ AI ​​ຂອງທໍາມະຊາດທີ່ອ່ອນໂຍນ
  • ຊຸມຊົນ AI ທີ່ມີຜູ້ສະຫນັບສະຫນູນ AI ​​ມີລັກສະນະຮ້າຍແຮງ
  • ຊຸມຊົນ AI ທີ່ບັນຈຸ AI opponents ຂອງທໍາມະຊາດທີ່ອ່ອນໂຍນ
  • ຊຸມຊົນ AI ທີ່ບັນຈຸ AI opponents ຂອງລັກສະນະທີ່ສຸດ
  • ຢູ່ນອກຊຸມຊົນ AI ທີ່ປະກອບດ້ວຍຜູ້ສະຫນັບສະຫນູນ AI ​​ທີ່ມີລັກສະນະອ່ອນໆ
  • ຢູ່ນອກຊຸມຊົນ AI ທີ່ປະກອບດ້ວຍຜູ້ສະຫນັບສະຫນູນ AI ​​ທີ່ມີລັກສະນະຮ້າຍແຮງ
  • ຢູ່ນອກຊຸມຊົນ AI ທີ່ປະກອບດ້ວຍ AI opponents ຂອງທໍາມະຊາດທີ່ອ່ອນໂຍນ
  • ຢູ່ນອກຊຸມຊົນ AI ທີ່ປະກອບດ້ວຍ opponents AI ຂອງລັກສະນະທີ່ສຸດ

ພວກເຮົາໄດ້ລວບລວມ dichotomies ຢູ່ເທິງສຸດຂອງ dichotomies.

ໃນຊ່ວງເວລາຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້ອຍຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງຫົວຂໍ້ນີ້. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງຫຍັງກ່ຽວກັບການເຄື່ອນໄຫວຂອງ AI, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະການເຄື່ອນໄຫວ AI

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້າ​ພະ​ເຈົ້າ​ຫວັງ​ວ່າ​ມັນ​ຈະ​ສະ​ຫນອງ​ໃຫ້​ເປັນ​ພຽງ​ພໍ​ຂອງ​ຄໍາ​ແນະ​ນໍາ​ທີ່​ຈະ underlie ສິ່ງ​ທີ່​ຂ້າ​ພະ​ເຈົ້າ​ກໍາ​ລັງ​ຈະ​ກ່ຽວ​ຂ້ອງ​.

ມີຄວາມພະຍາຍາມໃນການເຄື່ອນໄຫວຂອງ AI ທີ່ໄດ້ມີ ແລະກຳລັງສືບຕໍ່ເກີດຂຶ້ນກ່ຽວກັບຍານພາຫະນະທີ່ປົກຄອງຕົນເອງ ແລະ ໂດຍສະເພາະລົດທີ່ຂັບເຄື່ອນດ້ວຍ AI.

ຜູ້ສະຫນັບສະຫນູນ AI ​​ໃນສະພາບການນີ້ອາດຈະໂຕ້ແຍ້ງວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະສະຫນອງການເຄື່ອນໄຫວສໍາລັບທຸກຄົນ, ອະນຸຍາດໃຫ້ຜູ້ທີ່ໃນມື້ນີ້ມີການເຂົ້າເຖິງຈໍາກັດທາງເລືອກໃນການເຄື່ອນທີ່ແທນທີ່ຈະມີຄວາມເຄື່ອນທີ່ຜ່ານລົດຂັບລົດດ້ວຍຕົນເອງ. ເປົ້າໝາຍກໍ່ຄືວ່າພວກເຮົາຈະມີອຸປະຕິເຫດທາງລົດໜ້ອຍລົງຫຼາຍເທົ່າທີ່ຄວນ ແລະ ຕາມນັ້ນແລ້ວຜູ້ບາດເຈັບ ແລະ ເສຍຊີວິດຈາກລົດກໍ່ໜ້ອຍລົງ. ດ້ວຍ​ລົດ​ທີ່​ຂັບ​ເຄື່ອນ​ດ້ວຍ​ມະນຸດ​ໃນ​ທຸກ​ມື້​ນີ້, ສະຫະລັດ​ມີ​ຜູ້​ເສຍ​ຊີວິດ​ປະມານ 40,000 ຄົນ​ຕໍ່​ປີ​ຍ້ອນ​ອຸບັດ​ເຫດ​ລົດ​ຍົນ ​ແລະ ປະມານ 2.5 ລ້ານ XNUMX ​ແສນ​ຄົນ​ບາດ​ເຈັບ, ​ເບິ່ງ​ສະຖິຕິ​ຂອງ​ຂ້າພະ​ເຈົ້າ​ໄດ້​ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄູ່ແຂ່ງຂອງ AI ກ່ຽວກັບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງມີແນວໂນ້ມທີ່ຈະຢືນຢັນວ່າພວກເຮົາກໍາລັງປະເຊີນກັບການສູນເສຍວຽກຢ່າງຫຼວງຫຼາຍຍ້ອນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ຄົນງານຫຼາຍລ້ານຄົນທີ່ຂັບລົດເພື່ອຫາລ້ຽງຊີບ ຫຼືຂັບລົດບັນທຸກເພື່ອຫາລ້ຽງຊີບຈະຖືກປ່ຽນແທນດ້ວຍລະບົບຂັບ AI. ນີ້ອາດຈະເຮັດໃຫ້ວິກິດການດໍາລົງຊີວິດຂອງເຂົາເຈົ້າ. ​ເລື່ອງ​ທີ່​ສຳຄັນ​ອີກ​ອັນ​ໜຶ່ງ​ກ່ຽວ​ກັບ​ບັນຫາ​ຄວາມ​ປອດ​ໄພ. ເຖິງແມ່ນວ່າມີຄໍາສັນຍາທີ່ຊັດເຈນວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະຂັບຂີ່ຢ່າງປອດໄພ, ຄໍາຖາມແມ່ນວ່າພວກເຂົາອາດຈະບໍ່ປອດໄພແລະພວກເຮົາອະນຸຍາດໃຫ້ຕົວເຮົາເອງຢູ່ໃນຄວາມເມດຕາຂອງລະບົບຂັບລົດ AI ທີ່ບໍ່ສາມາດເຂົ້າໃຈໄດ້. ສໍາລັບການຄຸ້ມຄອງຂອງຂ້ອຍກ່ຽວກັບເຫດຜົນພື້ນຖານຂອງກົງກັນຂ້າມກັບລົດທີ່ຂັບລົດຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ພວກ​ເຮົາ​ສາ​ມາດ​ນໍາ​ໃຊ້​ທີ່​ກໍາ​ນົດ​ໄວ້​ກ່ອນ​ຫນ້າ​ນີ້​ຂອງ​ພວກ​ເຮົາ​ຂອງ​ການ​ຈັດ​ປະ​ເພດ​ແລະ​ນໍາ​ໃຊ້​ໃຫ້​ເຂົາ​ເຈົ້າ​ເຂົ້າ​ໄປ​ໃນ​ສະ​ພາບ​ການ​ລົດ​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​:

  • ເປັນກາງກ່ຽວກັບ AI (ບໍ່ແມ່ນນັກເຄື່ອນໄຫວ AI) ແລະຢູ່ໃນຮົ້ວກ່ຽວກັບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ
  • ຜູ້ສະໜັບສະໜຸນ AI ອ່ອນໂຍນໃນເງື່ອນໄຂຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ
  • ຜູ້ສະຫນັບສະຫນູນ AI ​​ຢ່າງຮຸນແຮງເພື່ອສະຫນັບສະຫນູນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ
  • Mild AI-opponent ກົງກັນຂ້າມກັບລົດທີ່ຂັບລົດຕົນເອງ
  • ສັດຕູ AI ທີ່ສຸດກົງກັນຂ້າມກັບລົດທີ່ຂັບລົດຕົນເອງ
  • ອື່ນ ໆ

ພວກເຮົາຍັງສາມາດເພີ່ມໃສ່ຊຸດນີ້ຕື່ມກ່ຽວກັບການເປັນສ່ວນຫນຶ່ງຂອງຊຸມຊົນ AI ທຽບກັບຢູ່ນອກຊຸມຊົນ AI.

ໂດຍບໍ່ມີການກວ້າງເກີນໄປ, ມັນຈະເບິ່ງຄືວ່າໂດຍທົ່ວໄປແລ້ວຄົນພາຍນອກຂອງຊຸມຊົນ AI ແມ່ນຢູ່ໃນຮົ້ວກ່ຽວກັບລົດທີ່ຂັບລົດຕົນເອງໂດຍອີງໃສ່ AI (ຂ້າພະເຈົ້າເວົ້ານີ້ຢ່າງບໍ່ເປັນທາງການ, ໂດຍຜ່ານການສົນທະນາສາທາລະນະຂອງຂ້ອຍແລະໄດ້ຮັບຄໍາຕິຊົມສາທາລະນະໃນຄໍລໍາຂອງຂ້ອຍ. , ບວກກັບຂ້ອຍໄດ້ກວດເບິ່ງຜົນການສໍາຫຼວດທີ່ເຮັດໂດຍອົງການລົງຄະແນນຕ່າງໆແລະລາຍງານບົດສະຫຼຸບ). ສາທາລະນະໂດຍທົ່ວໄປເບິ່ງຄືວ່າຢູ່ໃນໂຫມດລໍຖ້າແລະເບິ່ງ. ມີຄວາມກະຕືລືລົ້ນແລະຄວາມຕື່ນເຕັ້ນບາງຢ່າງທີ່ສົມດູນໂດຍການບໍ່ແນ່ໃຈກ່ຽວກັບເລື່ອງແລະຢາກເຫັນຫຼັກຖານສະແດງຂອງ pudding, ຍ້ອນວ່າມັນເປັນ.

ເພື່ອຈະແຈ້ງ, ບໍ່ແມ່ນທຸກຄົນທີ່ຢູ່ນອກຊຸມຊົນ AI ເຫັນບັນຫາໃນເງື່ອນໄຂເຫຼົ່ານັ້ນ. ມີນັກເຄື່ອນໄຫວ AI ພາຍນອກທີ່ໂດດເດັ່ນທີ່ເປັນຜູ້ສະຫນັບສະຫນູນ AI ​​ໃນຄວາມໂປດປານຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະຜູ້ທີ່ຕັດສິນໃຈກົງກັນຂ້າມ. ເຂົາເຈົ້າມັກມີສຽງຮ້ອງສູງ. ໃນ​ຂະ​ນະ​ດຽວ​ກັນ​, preponderance ຂອງ​ປະ​ຊາ​ຊົນ​ເບິ່ງ​ຄື​ວ່າ​ຂ້ອນ​ຂ້າງ​ງຽບ​ແລະ​ດັ່ງ​ທີ່​ໄດ້​ກ່າວ​ມາ​ແມ່ນ​ຢູ່​ໃນ​ການ​ລໍ​ຖ້າ​ແລະ​ເບິ່ງ​ແນວ​ຄິດ​.

ທ່ານອາດຈະຈື່ຈໍາບາງຕົວຢ່າງຂອງການເຄື່ອນໄຫວ AI ທີ່ຮ້າຍແຮງທີ່ຕໍ່ຕ້ານລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ເກີດຂຶ້ນສອງສາມປີກ່ອນແລະທີ່ຂ້ອຍໄດ້ລາຍງານໃນຄໍລໍາຂອງຂ້ອຍໃນເວລານັ້ນ. ໃນບາງທ້ອງຖິ່ນ, ຜູ້ຄົນເລືອກທີ່ຈະໂຍນກ້ອນຫີນໃສ່ລົດທີ່ຂັບເອງ. ພວກເຂົາເຈົ້າໄດ້ພະຍາຍາມສະກັດກັ້ນການເຄື່ອນໄຫວຂອງລົດທີ່ຂັບລົດຕົນເອງໄດ້ໂດຍການວາງລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດຂອງເຂົາເຈົ້າຢູ່ໃນທາງ ຫຼື ແນມເຂົ້າໃກ້ກັບລົດທີ່ຂັບລົດຕົນເອງເພື່ອສະແດງໃຫ້ເຫັນເຖິງອັນຕະລາຍຂອງລົດທີ່ຂັບລົດຕົນເອງໄດ້. ຍຸດທະວິທີເຫຼົ່ານີ້ສ່ວນຫຼາຍແມ່ນຜິດກົດໝາຍ ແລະເປັນອັນຕະລາຍຕໍ່ຜູ້ທີ່ກ່ຽວຂ້ອງທັງໝົດ.

ສະເຕກໃຫຍ່ຢູ່ໃນການຫຼິ້ນທັງຫມົດນີ້.

ການຄາດຄະເນແມ່ນວ່າອານາຈັກຂັບລົດຕົນເອງໃນທີ່ສຸດຈະກາຍເປັນອຸດສາຫະກໍາພັນຕື້ໂດລາ, ເບິ່ງການວິເຄາະຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ຄູ່ແຂ່ງ AI ບາງຄົນຈະຢືນຢັນວ່າພວກເຮົາກໍາລັງເປັນພະຍານເຖິງອໍານາດຂອງເງິນເພື່ອຕັດສິນຊະຕາກໍາຂອງພວກເຮົາ. ພວກເຮົາຄວນຈະພຽງແຕ່ອະນຸຍາດໃຫ້ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI ແລ່ນໄປມາໃນເສັ້ນທາງປິດພິເສດຫຼືໃຊ້ການຈໍາລອງທີ່ໃຊ້ຄອມພິວເຕີເພື່ອທົດລອງໃຊ້. ການຮຽກຮ້ອງແມ່ນວ່າພວກເຮົາອະນຸຍາດໃຫ້ untried ກ່ອນໄວອັນຄວນ ແລະບໍ່ພ້ອມທີ່ຈະໃຫ້ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ເວລາທໍາອິດທີ່ຈະຢູ່ໃນຖະຫນົນຫົນທາງສາທາລະນະຂອງພວກເຮົາ.

ສະຫຼຸບ

ການເຄື່ອນໄຫວ AI ແມ່ນເກີດຂື້ນໃນທຸກຂັ້ນຕອນຂອງ AI.

ຂ້າພະເຈົ້າໄດ້ຍົກໃຫ້ເຫັນຢູ່ທີ່ນີ້ວ່າການເຄື່ອນໄຫວ AI ພາຍໃຕ້ການຮັບຮອງເອົາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແລະຍານພາຫະນະອັດຕະໂນມັດ. ພວກ​ເຮົາ​ມີ​ການ​ເຄື່ອນ​ໄຫວ AI ໃນ​ອຸ​ດົມ​ສົມ​ບູນ​ໃນ​ພາກ​ສ່ວນ​ອື່ນໆ​ຂອງ​ສັງ​ຄົມ​. ມີ AI ໃນຂົງເຂດສຸຂະພາບແລະການແພດ. AI ໃນຂົງເຂດການເງິນ. AI ໃນການຂາຍຍ່ອຍແລະການແຈກຢາຍ. AI ແມ່ນຄ່ອຍໆແຜ່ລາມໄປເລື້ອຍໆ.

ບາງຄົນເວົ້າວ່າ AI opponents ພະຍາຍາມຫັນກັບໂມງຄືນ. ພວກ​ເຂົາ​ເຈົ້າ​ຢາກ​ກັບ​ຄືນ​ໄປ​ບ່ອນ​ຂອງ​ມື້​ຂອງ​ມ້າ​ແລະ buggy​. ພວກເຂົາເຈົ້າແມ່ນ Luddites ໃນຍຸກທີ່ທັນສະໄຫມ.

ບາງຄົນເວົ້າວ່າຜູ້ສະຫນັບສະຫນູນ AI ​​ກໍາລັງນໍາພວກເຮົາໄປສູ່ເສັ້ນທາງ primrose. ໃນທີ່ສຸດພວກເຮົາຈະສ້າງ Frankenstein ທີ່ຈະເປັນໄພຂົ່ມຂູ່ທີ່ມີຢູ່. ມະນຸດຊາດທັງໝົດຈະຕົກເປັນທາດ, ຫຼືພວກເຮົາຈະຖືກທຳລາຍໂດຍ AI ໂດຍຫຍໍ້.

ເຈົ້າເປັນນັກເຄື່ອນໄຫວ AI ຄົນໃດ?

ສິ່ງຫນຶ່ງທີ່ເບິ່ງຄືວ່າເກືອບແນ່ນອນແມ່ນຜູ້ທີ່ເປັນກາງແລະບໍ່ຄິດວ່າຕົນເອງຢູ່ໃນເກມກິດຈະກໍາ AI, ພວກເຂົາກໍາລັງ inexorably ຈະຖືກລາກເຂົ້າໄປໃນ gambit ສັງຄົມ AI, ບໍ່ວ່າເຂົາເຈົ້າມັກມັນຫຼືບໍ່. AI ຢູ່ທີ່ນີ້ແລະເຕີບໃຫຍ່. ບໍ່ມີໃຜຈະສາມາດຮັກສາຫົວຂອງພວກເຂົາຢູ່ໃນດິນຊາຍໄດ້ແລະທຸກຄົນຈະຕ້ອງຢືນຢູ່ກັບ AI, ດັ່ງນັ້ນຄໍາຖາມດຽວແມ່ນເຈົ້າຈະໄປຂ້າງຫນ້າຫຼື camp.

AI ດຶງດູດຄວາມສົນໃຈ, ເລັກນ້ອຍຫຼືທີ່ສຸດ, ແລະພວກເຮົາທຸກຄົນມີສ່ວນກ່ຽວຂ້ອງໃນບ່ອນທີ່ AI ເປັນຫົວຫນ້າ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/06/04/ai-ethics-and-the-perplexing-societal-and-legal-role-of-ai-activism-including-in- the-case-of-autonomous-self-driving-cars/