ຈັນຍາບັນຂອງ AI ແລະກົດ ໝາຍ AI ພຽງແຕ່ອາດຈະໄດ້ຮັບການປັບປຸງແລະກ້າວໄປສູ່ການບັງຄັບໃຫ້ ຄຳ ເຕືອນດ້ານຄວາມປອດໄພກ່ຽວກັບ AI ທີ່ມີຢູ່ແລະອະນາຄົດ.

ກິດຈະກຳປະຈຳວັນຂອງເຈົ້າຖືກລະເບີດຢ່າງບໍ່ຕ້ອງສົງໄສດ້ວຍການເຕືອນສະຕິລະວັງຕົວເປັນພັນໆ ຫຼື ຫຼາຍກວ່າປະເພດໃດນຶ່ງ.

ພະຍາຍາມເຫຼົ່ານີ້ສໍາລັບຂະຫນາດ:

  • ແວ່ນຕານິລະໄພຕ້ອງໃສ່ຕະຫຼອດເວລາ
  • ອັນຕະລາຍ: ສານເຄມີອັນຕະລາຍຢູ່ໃກ້ໆ
  • ແຮງດັນສູງ - ຮັກສາອອກ
  • ຄຳເຕືອນ: ຈົ່ງລະວັງສິ່ງອ້ອມຂ້າງຂອງເຈົ້າ
  • ວັດຖຸຢູ່ໃນກະຈົກແມ່ນຢູ່ໃກ້ກວ່າທີ່ປາກົດ
  • ເອົາເດັກອອກກ່ອນພັບ (ຕາມທີ່ລະບຸໄວ້ໃນລົດເຂັນເດັກນ້ອຍ)
  • ຂໍ້ຄວນລະວັງ: ໃຫ້ແນ່ໃຈວ່າຈະບໍ່ສົນໃຈຂໍ້ຄວາມນີ້

ສ່ວນໃຫຍ່ຂອງສິ່ງເຫຼົ່ານັ້ນແມ່ນເຄື່ອງໝາຍທີ່ມີປະໂຫຍດ ແລະເປັນເຄື່ອງໝາຍທີ່ຄິດໄດ້ທັງໝົດທີ່ໃຫ້ບໍລິການເພື່ອຮັກສາພວກເຮົາຢ່າງປອດໄພ ແລະປອດໄພ.

ກະລຸນາຮັບຊາບວ່າຂ້ອຍໄດ້ເອົາ "outliers" ຈໍານວນຫນ້ອຍຢູ່ໃນບັນຊີລາຍຊື່ເພື່ອເຮັດໃຫ້ບາງຈຸດທີ່ຫນ້າສັງເກດ.

ສໍາລັບຕົວຢ່າງ, ບາງຄົນເຊື່ອວ່າມັນເປັນເລື່ອງທີ່ຫນ້າເບື່ອທີ່ລົດເຂັນເດັກນ້ອຍມີປ້າຍຕິດກັນທີ່ເຕືອນເຈົ້າບໍ່ໃຫ້ພັບ stroller ໃນຂະນະທີ່ເດັກນ້ອຍຍັງນັ່ງຢູ່ພາຍໃນ contraption. ເຖິງແມ່ນວ່າເຄື່ອງຫມາຍແມ່ນແນ່ນອນທີ່ເຫມາະສົມແລະເປັນປະໂຫຍດຕາມລໍາດັບ, ມັນເບິ່ງຄືວ່າຄວາມຮູ້ສຶກທົ່ວໄປພື້ນຖານຈະພຽງພໍແລ້ວ.

ຄົນໃດທີ່ບໍ່ໄດ້ຕາມຄວາມຕັ້ງໃຈຂອງຕົນເອງທີ່ຮູ້ວ່າພວກເຂົາຕ້ອງເອົາລູກອອກກ່ອນ?

ດີ, ຄົນອື່ນເນັ້ນຫນັກວ່າປ້າຍດັ່ງກ່າວຮັບໃຊ້ຈຸດປະສົງທີ່ສໍາຄັນ. ທໍາອິດ, ບາງຄົນອາດຈະລືມແທ້ໆວ່າພວກເຂົາຕ້ອງການເອົາເດັກນ້ອຍອອກກ່ອນທີ່ຈະພັບຂຶ້ນ stroller. ບາງທີບຸກຄົນດັ່ງກ່າວສົມມຸດວ່າ stroller ໄດ້ຖືກອອກແບບຢ່າງສະຫລາດເພື່ອຮັບປະກັນວ່າການປະຕິບັດການພັບຈະບໍ່ເປັນອັນຕະລາຍຕໍ່ເດັກນ້ອຍ. ຫຼືອາດມີຄຸນສົມບັດດ້ານຄວາມປອດໄພໃນຕົວທີ່ປ້ອງກັນການພັບໄດ້ທຸກຄັ້ງທີ່ມີເດັກນ້ອຍຢູ່ໃນ stroller. ເປັນຕົ້ນ.

ນອກຈາກນີ້, ມັນອາດຈະວ່າຄົນນັ້ນຖືກລົບກວນແລະຈະພັບລົດຍ່າງຢ່າງບໍ່ມີສະຕິ, ກວມເອົາເດັກນ້ອຍແລະທຸກຄົນ, ແຕ່ປ້າຍດັ່ງກ່າວໂຊກດີທີ່ຄົນນັ້ນບໍ່ເຮັດແນວນັ້ນ (ບາງຄົນຈະໂຕ້ຖຽງວ່າເບິ່ງຄືວ່າບໍ່ຫນ້າຈະສັງເກດເຫັນປ້າຍດັ່ງກ່າວ. ແລ້ວ). ຍັງມີຄວາມຈິງທີ່ວ່າບາງຄົນອາດຈະຟ້ອງຜູ້ຜະລິດຂອງ stroller ຖ້າປ້າຍດັ່ງກ່າວບໍ່ຢູ່. ເຈົ້າສາມາດຈິນຕະນາການເຖິງການຟ້ອງຮ້ອງອັນໜັກໜ່ວງທີ່ເດັກນ້ອຍໄດ້ຮັບບາດເຈັບ ແລະພໍ່ແມ່ໄດ້ຕັດສິນໃຈເກັບເງິນຈຳນວນໜຶ່ງລ້ານໂດລາ ເພາະວ່າລົດເຂັນບໍ່ມີປ້າຍເຕືອນທີ່ຕິດຢູ່ເທິງມັນ. ບໍລິສັດ stroller ຈະເສຍໃຈທີ່ບໍ່ໄດ້ໃຊ້ເວລາສອງສາມເຊັນເພື່ອເຮັດແລະວາງປ້າຍເຕືອນໃສ່ລົດ strollers ຂອງເຂົາເຈົ້າ.

ໃຫ້ເບິ່ງໃກ້ໆກັບຂໍ້ຄວາມເຕືອນສຸດທ້າຍທີ່ຂ້ອຍໄດ້ລະບຸໄວ້ຂ້າງເທິງ.

ຂ້ອຍເລືອກທີ່ຈະວາງຂໍ້ຄວາມທີ່ຂີ້ຕົວະກ່ຽວກັບການເຮັດໃຫ້ແນ່ໃຈວ່າຈະບໍ່ສົນໃຈຂໍ້ຄວາມເພາະວ່າມີປ້າຍເຕືອນໄພປອມຈໍານວນຫຼາຍທີ່ຄົນຊື້ຫຼືເຮັດເພື່ອຄວາມມ່ວນໃນມື້ນີ້. ອັນນີ້ແມ່ນເປັນ philosophical ທີ່ແທ້ຈິງ bender ຈິດໃຈ. ຖ້າເຈົ້າອ່ານຄໍາເຕືອນທີ່ບອກວ່າບໍ່ສົນໃຈຄໍາເຕືອນ, ເຈົ້າຈະເຮັດແນວໃດແນ່ນອນເມື່ອໄດ້ອ່ານຄໍາເຕືອນ? ເຈົ້າໄດ້ອ່ານມັນແລ້ວ, ສະນັ້ນມັນຢູ່ໃນໃຈຂອງເຈົ້າຢ່າງແນ່ນອນ. ແນ່ນອນ, ທ່ານສາມາດລະເລີຍມັນ, ແຕ່ຫຼັງຈາກນັ້ນ, ອີກເທື່ອຫນຶ່ງ, ທ່ານບໍ່ໄດ້ຖືກແນະນໍາທັງຫມົດກ່ຽວກັບສິ່ງທີ່ມັນແມ່ນວ່າທ່ານຄວນຈະບໍ່ສົນໃຈ. ຕະຫຼອດແລະຕະຫຼອດ, joke ນີ້ໄປ.

ແນ່ນອນ, ປ້າຍເຕືອນໄພ bona fide ປົກກະຕິແລ້ວບໍ່ແມ່ນເລື່ອງຕະຫຼົກ ຫຼືຕະຫຼົກ.

ພວກເຮົາຄວນຈະເອົາຄໍາເຕືອນຢ່າງຈິງຈັງ.

ໂດຍປົກກະຕິແລ້ວ, ຖ້າທ່ານບໍ່ປະຕິບັດຕາມຄໍາເຕືອນທີ່ບັນທຶກໄວ້, ທ່ານຈະມີຄວາມສ່ຽງຕໍ່ຄວາມໂສກເສົ້າສ່ວນຕົວ. ແລະ, ມັນອາດຈະເປັນວ່າຖ້າທ່ານບໍ່ສັງເກດເຫັນແລະປະຕິບັດຕາມຄໍາເຕືອນ, ທ່ານອາດຈະເຮັດໃຫ້ຄົນອື່ນມີຄວາມສ່ຽງເກີນໄປ. ພິຈາລະນາການກະທໍາຂອງການຂັບຂີ່ລົດ. ເວລາທີ່ທ່ານຢູ່ຫລັງລໍ້ຂອງລົດ, ການກະ ທຳ ຂອງທ່ານໃນຖານະຜູ້ຂັບຂີ່ສາມາດເປັນອັນຕະລາຍຕໍ່ຕົວທ່ານເອງ, ບວກກັບເຈົ້າສາມາດເປັນອັນຕະລາຍຕໍ່ຜູ້ໂດຍສານຂອງເຈົ້າ, ແລະເຈົ້າສາມາດເປັນອັນຕະລາຍຕໍ່ຄົນອື່ນເຊັ່ນຄົນຢູ່ໃນລົດອື່ນໆຫຼືຄົນຍ່າງທາງໃກ້ຄຽງ. ໃນ​ຄວາມ​ໝາຍ​ນັ້ນ, ຄຳ​ເຕືອນ​ບໍ່​ແມ່ນ​ເພື່ອ​ຜົນ​ປະ​ໂຫຍດ​ຂອງ​ເຈົ້າ​ພຽງ​ແຕ່​ເທົ່າ​ນັ້ນ, ມັນ​ກໍ​ເປັນ​ຜົນ​ປະ​ໂຫຍດ​ຂອງ​ຄົນ​ອື່ນ​ຄື​ກັນ.

ເປັນຫຍັງຂ້ອຍຈຶ່ງກວມເອົາລັກສະນະການເຕືອນໄພ ແລະປ້າຍເຕືອນໄພເຫຼົ່ານີ້?

ເນື່ອງຈາກວ່າບາງຄົນຢືນຢັນຢ່າງຈິງຈັງວ່າພວກເຮົາຕ້ອງການສັນຍານເຕືອນໄພແລະເຕືອນໄພກ່ຽວກັບປັນຍາປະດິດ (AI).

ແທ້ຈິງແລ້ວ, ແນວຄວາມຄິດແມ່ນການໃສ່ປ້າຍດັ່ງກ່າວໃສ່ AI ຂອງມື້ນີ້ແລະ AI ໃນອະນາຄົດເຊັ່ນກັນ. ທັງຫມົດ, AI ທັງຫມົດຈະສິ້ນສຸດເຖິງມີບາງຮູບແບບຫຼື variants ຂອງຄໍາເຕືອນຫຼືຕົວຊີ້ບອກລະມັດລະວັງທີ່ກ່ຽວຂ້ອງກັບມັນ.

ຄວາມຄິດທີ່ດີຫຼືຄວາມຄິດທີ່ບໍ່ດີ?

ປະຕິບັດຫຼືປະຕິບັດບໍ່ໄດ້?

ໃຫ້ສືບຕໍ່ເດີນຫນ້າແລະ unpack ແນວຄວາມຄິດແລະເບິ່ງສິ່ງທີ່ພວກເຮົາສາມາດເຮັດໃຫ້ມັນ.

ຂ້າພະເຈົ້າຕ້ອງການທໍາອິດວາງພື້ນຖານທີ່ສໍາຄັນບາງຢ່າງກ່ຽວກັບ AI ແລະໂດຍສະເພາະຈັນຍາບັນຂອງ AI ແລະກົດຫມາຍ AI, ການເຮັດດັ່ງນັ້ນເພື່ອໃຫ້ແນ່ໃຈວ່າຫົວຂໍ້ຂອງຄໍາເຕືອນ AI ຈະມີຄວາມສົມເຫດສົມຜົນກັບສະພາບການ. ສໍາລັບຜູ້ທີ່ສົນໃຈໂດຍທົ່ວໄປກ່ຽວກັບ AI ດ້ານຈັນຍາບັນແລະກົດຫມາຍ AI, ເບິ່ງການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ຄວາມຮັບຮູ້ທີ່ເພີ່ມຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນແລະກົດຫມາຍ AI

ຍຸກທີ່ຜ່ານມາຂອງ AI ໄດ້ຖືກເບິ່ງໃນເບື້ອງຕົ້ນວ່າເປັນ AI ສໍາລັບທີ່ດີ, ຊຶ່ງຫມາຍຄວາມວ່າພວກເຮົາສາມາດນໍາໃຊ້ AI ສໍາລັບການປັບປຸງຂອງມະນຸດ. ສຸດ heels ຂອງ AI ສໍາລັບທີ່ດີ ມາເຖິງການຮັບຮູ້ວ່າພວກເຮົາຍັງຈົມຢູ່ໃນ AI ສໍາລັບບໍ່ດີ. ນີ້ຮວມເຖິງ AI ທີ່ຖືກວາງແຜນ ຫຼືປ່ຽນແປງຕົນເອງໃຫ້ເປັນການຈຳແນກ ແລະເຮັດໃຫ້ການເລືອກທາງຄຳນວນເຮັດໃຫ້ມີຄວາມລຳອຽງທີ່ບໍ່ເໝາະສົມ. ບາງຄັ້ງ AI ໄດ້ຖືກສ້າງຂື້ນແບບນັ້ນ, ໃນຂະນະທີ່ໃນກໍລະນີອື່ນໆ, ມັນເຂົ້າໄປໃນອານາເຂດທີ່ບໍ່ເຂົ້າໃຈນັ້ນ.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າພວກເຮົາຕ້ອງການຄາດເດົາຢ່າງຈິງຈັງກ່ຽວກັບ AI ທີ່ມີຄວາມຮູ້ສຶກ, ການສົນທະນານີ້ອາດຈະໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນມັນສະ ໝອງ ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ເນື່ອງຈາກບາງການຄາດເດົາວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດລົງໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂ້ອຍຂໍແນະ ນຳ ຢ່າງແຂງແຮງວ່າພວກເຮົາເກັບສິ່ງຂອງລົງມາສູ່ໂລກແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄອມພິວເຕີ້ໃນມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ຈົ່ງລະມັດລະວັງຫຼາຍຕໍ່ການເປັນມະນຸດຂອງ AI ໃນມື້ນີ້.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຕົວແບບທີ່ກົງກັບຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ທັງຫມົດນີ້ມີຜົນກະທົບດ້ານຈັນຍາບັນຂອງ AI ທີ່ສໍາຄັນແລະສະເຫນີປ່ອງຢ້ຽມທີ່ເປັນປະໂຫຍດເຂົ້າໄປໃນບົດຮຽນທີ່ຖອດຖອນໄດ້ (ເຖິງແມ່ນວ່າກ່ອນທີ່ບົດຮຽນທັງຫມົດຈະເກີດຂື້ນ) ເມື່ອເວົ້າເຖິງການພະຍາຍາມສ້າງນິຕິກໍາ AI.

ນອກເຫນືອຈາກການໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ໂດຍທົ່ວໄປແລ້ວ, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອຄວບຄຸມການນໍາໃຊ້ຕ່າງໆຂອງ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມ​ພະ​ຍາ​ຍາມ​ເພື່ອ​ຮ່າງ​ກົດ​ໝາຍ​ດັ່ງ​ກ່າວ​ແມ່ນ​ເປັນ​ໄປ​ເທື່ອ​ລະ​ກ້າວ. ຈັນຍາບັນ AI ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.

ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ພວກ​ເຂົາ​ເຈົ້າ​ໄດ້​ເຕືອນ​ລ່ວງ​ໜ້າ​ວ່າ ຖ້າ​ຫາກ​ພວກ​ເຮົາ​ອອກ​ກົດ​ໝາຍ AI ບາງ​ຂໍ້​ນີ້, ພວກ​ເຮົາ​ຈະ​ຂ້າ​ໝີ​ທອງ​ໂດຍ​ການ​ຍຶດ​ໝັ້ນ​ຄວາມ​ກ້າວ​ໜ້າ​ຂອງ AI ທີ່​ໃຫ້​ຄວາມ​ໄດ້​ປຽບ​ທາງ​ສັງ​ຄົມ​ອັນ​ໃຫຍ່​ຫລວງ.

ໃນຄໍລໍາທີ່ຜ່ານມາ, ຂ້າພະເຈົ້າໄດ້ກວມເອົາຄວາມພະຍາຍາມລະດັບຊາດແລະສາກົນຕ່າງໆເພື່ອຫັດຖະກໍາແລະອອກກົດຫມາຍຄວບຄຸມ AI, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກ​ຕົວ​ຢ່າງ. ຂ້າພະເຈົ້າຍັງໄດ້ກວມເອົາຫຼັກການດ້ານຈັນຍາບັນ AI ຕ່າງໆແລະຄໍາແນະນໍາທີ່ປະເທດຕ່າງໆໄດ້ກໍານົດແລະຮັບຮອງເອົາ, ລວມທັງຄວາມພະຍາຍາມຂອງສະຫະປະຊາຊາດເຊັ່ນ: UNESCO ກໍານົດຈັນຍາບັນ AI ທີ່ເກືອບ 200 ປະເທດໄດ້ຮັບຮອງເອົາ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ນີ້ແມ່ນລາຍການຫຼັກທີ່ເປັນປະໂຫຍດຂອງມາດຖານ AI ດ້ານຈັນຍາບັນ ຫຼືຄຸນລັກສະນະກ່ຽວກັບລະບົບ AI ທີ່ຂ້າພະເຈົ້າໄດ້ຄົ້ນຫາຢ່າງໃກ້ຊິດກ່ອນຫນ້ານີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ເຫຼົ່ານັ້ນແມ່ນຄວນຈະຖືກນໍາໃຊ້ຢ່າງຈິງຈັງໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI.

ພາກສ່ວນກ່ຽວຂ້ອງທັງຫມົດຕະຫຼອດວົງຈອນຊີວິດຂອງ AI ທັງຫມົດຂອງການພັດທະນາແລະການນໍາໃຊ້ແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ຖືກສ້າງຕັ້ງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ດັ່ງທີ່ໄດ້ເນັ້ນໜັກໄວ້ກ່ອນນີ້, ມັນຕ້ອງໃຊ້ເວລາບ້ານໜຶ່ງເພື່ອວາງແຜນ ແລະ ປະຕິບັດວຽກງານ AI, ແລະ ເພື່ອໃຫ້ໝູ່ບ້ານທັງໝົດຕ້ອງຮັບຮູ້ ແລະ ປະຕິບັດຕາມຫຼັກຈັນຍາບັນຂອງ AI.

ຂ້າ​ພະ​ເຈົ້າ​ຍັງ​ບໍ່​ດົນ​ມາ​ນີ້​ໄດ້​ກວດ​ກາ​ ກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ເຊິ່ງເປັນຫົວຂໍ້ທີ່ເປັນທາງການຂອງເອກະສານທາງການຂອງລັດຖະບານສະຫະລັດທີ່ມີຊື່ວ່າ "Blueprint for a AI Bill of Rights: ເຮັດໃຫ້ລະບົບອັດຕະໂນມັດເຮັດວຽກສໍາລັບປະຊາຊົນອາເມລິກາ" ເຊິ່ງເປັນຜົນມາຈາກຄວາມພະຍາຍາມເປັນເວລາຫນຶ່ງປີໂດຍຫ້ອງການນະໂຍບາຍວິທະຍາສາດແລະເຕັກໂນໂລຢີ (OSTP. ). OSTP ເປັນໜ່ວຍງານຂອງລັດຖະບານກາງທີ່ໃຫ້ບໍລິການໃຫ້ຄໍາແນະນໍາແກ່ປະທານາທິບໍດີອາເມຣິກາ ແລະຫ້ອງການບໍລິຫານຂອງສະຫະລັດກ່ຽວກັບດ້ານເທັກໂນໂລຍີ, ວິທະຍາສາດ ແລະວິສະວະກຳຕ່າງໆ ທີ່ມີຄວາມສໍາຄັນແຫ່ງຊາດ. ​ໃນ​ຄວາມ​ໝາຍ​ດັ່ງກ່າວ, ທ່ານ​ສາມາດ​ເວົ້າ​ໄດ້​ວ່າ ຮ່າງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ສິດທິ​ຂອງ AI ນີ້​ແມ່ນ​ເອກະສານ​ທີ່​ໄດ້​ຮັບ​ການ​ອະນຸມັດ​ແລະ​ຮັບຮອງ​ຈາກ​ທຳນຽບຂາວ​ຂອງ​ສະຫະລັດ​ທີ່​ມີ​ຢູ່​ແລ້ວ.

ໃນ​ບັນ​ຊີ​ລາຍ​ການ​ສິດ​ທິ AI, ມີ​ຫ້າ​ປະ​ເພດ​ແກນ​:

  • ລະບົບທີ່ປອດໄພແລະມີປະສິດທິພາບ
  • ການປົກປ້ອງການຈໍາແນກແບບວິທີ
  • ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ
  • ແຈ້ງ​ການ​ແລະ​ຄໍາ​ອະ​ທິ​ບາຍ​
  • ທາງເລືອກຂອງມະນຸດ, ການພິຈາລະນາ, ແລະການຫຼຸດລົງ

ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ທົບ​ທວນ​ຄືນ​ລະ​ມັດ​ລະ​ວັງ​ຄໍາ​ສັ່ງ​ເຫຼົ່າ​ນັ້ນ​, ເບິ່ງ​ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຕອນນີ້ຂ້ອຍໄດ້ວາງພື້ນຖານທີ່ເປັນປະໂຫຍດກ່ຽວກັບຫົວຂໍ້ກ່ຽວກັບຈັນຍາບັນຂອງ AI ແລະກົດໝາຍ AI ທີ່ກ່ຽວຂ້ອງເຫຼົ່ານີ້, ພວກເຮົາພ້ອມແລ້ວທີ່ຈະກ້າວເຂົ້າສູ່ຫົວຂໍ້ຫົວເລື່ອງທີ່ວ່າ AI ຄວນມີປ້າຍເຕືອນຫຼືບໍ່.

ຈົ່ງກຽມພ້ອມສໍາລັບການເດີນທາງທີ່ມີຂໍ້ມູນເປີດຕາ.

ການໃສ່ປ້າຍເຕືອນໃສ່ AI ເປັນວິທີການປົກປ້ອງມະນຸດ

ມີສຽງດັງທີ່ເພີ່ມຂຶ້ນເລື້ອຍໆວ່າບາງທີ AI ຄວນມາພ້ອມກັບການເຕືອນບາງປະເພດ.

ຕົວຢ່າງ, ໃນບົດຄວາມທີ່ຜ່ານມາໃນ MIT Technology Review ທີ່ປຶກສາຫາລືກ່ຽວກັບຄວາມສົນໃຈເພີ່ມຂຶ້ນໃນການກວດສອບ AI, ແນວຄວາມຄິດຂອງການສະຫນອງສັນຍານເຕືອນໄພເກີດຂື້ນ: "ການຂະຫຍາຍຕົວຂອງການກວດສອບເຫຼົ່ານີ້ຊີ້ໃຫ້ເຫັນວ່າມື້ຫນຶ່ງພວກເຮົາອາດຈະເຫັນຄໍາເຕືອນແບບຊອງຢາສູບວ່າລະບົບ AI ສາມາດເປັນອັນຕະລາຍຕໍ່ສຸຂະພາບແລະຄວາມປອດໄພຂອງເຈົ້າ. ພາກສ່ວນອື່ນໆ, ເຊັ່ນ: ສານເຄມີແລະອາຫານ, ມີການກວດສອບເປັນປົກກະຕິເພື່ອຮັບປະກັນວ່າຜະລິດຕະພັນມີຄວາມປອດໄພໃນການນໍາໃຊ້. ບາງສິ່ງບາງຢ່າງເຊັ່ນນີ້ອາດຈະກາຍເປັນມາດຕະຖານໃນ AI ບໍ? (MIT Technology Review, Melissa Heikkilä, 24 ຕຸລາ 2022).

ມາລົມກັນເລັກນ້ອຍກ່ຽວກັບສັນຍານເຕືອນ ແລະເຕືອນໄພ.

ພວກເຮົາທຸກຄົນໂດຍທົ່ວໄປແລ້ວແມ່ນຄຸ້ນເຄີຍກັບສັນຍານເຕືອນໄພແລະເຕືອນກ່ຽວກັບຜະລິດຕະພັນແລະການບໍລິການຈໍານວນຫລາຍຂອງທໍາມະຊາດປະຈໍາວັນ. ບາງຄັ້ງປ້າຍຄວາມປອດໄພແມ່ນໄດ້ກໍານົດໄວ້ໃນກົດຫມາຍວ່າມີຄວາມຈໍາເປັນ, ໃນຂະນະທີ່ໃນກໍລະນີອື່ນໆມີການຕັດສິນໃຈທີ່ຈະນໍາໃຊ້ເຄື່ອງຫມາຍດັ່ງກ່າວ. ນອກຈາກນັ້ນ, ບາງປ້າຍຄວາມປອດໄພແມ່ນໄດ້ມາດຕະຖານເຊັ່ນ: ຖືກກໍານົດຕາມມາດຕະຖານ ANSI Z535 ແລະມາດຕະຖານ OSHA 1910.14. ມາດຕະຖານເຫຼົ່ານັ້ນກວມເອົາລັກສະນະເຊັ່ນ: ຄໍາສັບຂອງເຄື່ອງຫມາຍ, ສີແລະຕົວອັກສອນທີ່ໃຊ້, ຮູບຮ່າງຂອງເຄື່ອງຫມາຍ, ແລະລັກສະນະອື່ນໆ.

ມັນເຮັດໃຫ້ຮູ້ສຶກວ່າມີມາດຕະຖານສໍາລັບສັນຍານເຕືອນໄພດັ່ງກ່າວ. ເມື່ອໃດກໍ່ຕາມທີ່ເຈົ້າເຫັນປ້າຍດັ່ງກ່າວ, ຖ້າມັນກົງກັບມາດຕະຖານທີ່ລະບຸໄວ້, ເຈົ້າມັກຈະເຊື່ອວ່າປ້າຍແມ່ນຖືກຕ້ອງ, ບວກກັບເຈົ້າຕ້ອງການການປຸງແຕ່ງສະຕິປັນຍາຫນ້ອຍເພື່ອວິເຄາະແລະເຮັດໃຫ້ຄວາມຮູ້ສຶກຂອງເຄື່ອງຫມາຍ. ສໍາລັບສັນຍານທີ່ບໍ່ແມ່ນວິທີການມາດຕະຖານ, ທ່ານມັກຈະຕ້ອງຄິດໄລ່ຈິດໃຈກ່ຽວກັບສິ່ງທີ່ສັນຍານບອກທ່ານ, ບາງທີອາດສູນເສຍເວລາອັນມີຄ່າໃນການປະຕິບັດຫຼືທ່ານອາດຈະຕັດສິນຜິດກ່ຽວກັບເຄື່ອງຫມາຍແລະບໍ່ສາມາດເຂົ້າໃຈຄໍາເຕືອນໄດ້ຢ່າງຖືກຕ້ອງ.

ຊ່ວງຂອງອາການດັ່ງກ່າວສາມາດມີຢູ່, ເຊິ່ງພວກມັນມັກຈະຖືກຈັດປະເພດບາງຢ່າງເຊັ່ນນີ້:

  • ສັນຍານອັນຕະລາຍ: ຄວາມກັງວົນທີ່ສູງທີ່ສຸດແລະຊີ້ໃຫ້ເຫັນເຖິງອັນຕະລາຍທັນທີທີ່ມີຜົນສະທ້ອນຮ້າຍແຮງ.
  • ສັນຍານເຕືອນໄພ: ບົ່ງບອກເຖິງອັນຕະລາຍທີ່ໜ້ອຍກວ່າ “ອັນຕະລາຍ” ແຕ່ຍັງຂ້ອນຂ້າງຮ້າຍແຮງ
  • ສັນຍານເຕືອນໄພ: ບົ່ງບອກເຖິງອັນຕະລາຍທີ່ອາດມີໜ້ອຍກວ່າ “ຄຳເຕືອນ” ແຕ່ກໍ່ຍັງຈິງຈັງ.
  • ສັນຍານແຈ້ງເຕືອນ: ຊີ້ໃຫ້ເຫັນເຖິງການແຈ້ງຂ່າວທີ່ໜ້ອຍກວ່າ “ຄວາມລະມັດລະວັງ” ແຕ່ຍັງມີລັກສະນະທີ່ໜ້າເປັນຫ່ວງ.

ເນື່ອງຈາກພື້ນຖານທີ່ກ່າວມາຂ້າງເທິງນີ້ກ່ຽວກັບການເຕືອນໄພແລະສັນຍານເຕືອນ, ພວກເຮົາສາມາດສືບຕໍ່ເດີນຫນ້າແລະພະຍາຍາມນໍາໃຊ້ນີ້ຕາມສະພາບການກັບການນໍາໃຊ້ AI.

ກ່ອນອື່ນ ໝົດ, ພວກເຮົາສາມາດຕົກລົງກັນໄດ້ວ່າປ້າຍ AI ອາດຈະຢູ່ໃນລະດັບຄວາມຮ້າຍແຮງທີ່ຄ້າຍຄືກັນຕາມປະເພນີທີ່ມີສັນຍານປະຈໍາວັນ, ເຊັ່ນ:

  • AI ສັນຍານອັນຕະລາຍ: AI ຂອງຄວາມກັງວົນສູງສຸດແລະຊີ້ໃຫ້ເຫັນເຖິງອັນຕະລາຍທັນທີທີ່ມີຜົນສະທ້ອນຮ້າຍແຮງ
  • AI ສັນຍານເຕືອນ: AI ຊີ້ບອກເຖິງອັນຕະລາຍທີ່ໜ້ອຍກວ່າ “ອັນຕະລາຍ” ແຕ່ຍັງຂ້ອນຂ້າງຮ້າຍແຮງ
  • AI ສັນຍານເຕືອນໄພ: AI ຊີ້ບອກເຖິງອັນຕະລາຍທີ່ອາດມີໜ້ອຍກວ່າ “ຄຳເຕືອນ” ແຕ່ກໍ່ຍັງຈິງຈັງ
  • AI Notification Sign: AI ຊີ້ບອກເຖິງການແຈ້ງຂ່າວທີ່ໜ້ອຍກວ່າ “ຄວາມລະມັດລະວັງ” ແຕ່ຍັງມີລັກສະນະທີ່ໜ້າເປັນຫ່ວງ

ພື້ນຖານແມ່ນວ່າບໍ່ແມ່ນ AI ທັງຫມົດຈະມີຄວາມເປັນຫ່ວງເທົ່າທຽມກັນ. ມັນອາດຈະເປັນວ່າ AI ມີຄວາມສ່ຽງອັນໃຫຍ່ຫຼວງຫຼືພຽງແຕ່ມີຄວາມສ່ຽງເລັກນ້ອຍ. ຕາມນັ້ນແລ້ວ, ປ້າຍຄວນສະທ້ອນເຖິງອັນໃດ. ຖ້າຄໍາເຕືອນ AI ທັງຫມົດຫຼືສັນຍານເຕືອນໄດ້ຖືກສະແດງໃຫ້ເຫັນພຽງແຕ່ວ່າມີຂະຫນາດດຽວກັນ, ພວກເຮົາສົມມຸດວ່າຈະບໍ່ຮູ້ຈັກຫຼືຮູ້ເຖິງວ່າຈະເປັນຫ່ວງຫຼາຍຫຼືພຽງແຕ່ເປັນຫ່ວງເລັກນ້ອຍກ່ຽວກັບ AI. ການ​ນໍາ​ໃຊ້​ໂຄງ​ການ​ຄໍາ​ສັບ​ຕ່າງໆ​ທີ່​ມີ​ຄວາມ​ຜິດ​ກົດ​ຫມາຍ​ອາດ​ຈະ​ເຮັດ​ໃຫ້​ຊີ​ວິດ​ງ່າຍ​ຂຶ້ນ​ໃນ​ເວ​ລາ​ທີ່​ເຫັນ​ແລະ​ຕີ​ຄວາມ​ຫມາຍ​ເຕືອນ​ໄພ​ກ່ຽວ​ກັບ AI.

ເຈົ້າອາດຈະສົງໄສວ່າເຄື່ອງໝາຍຈະເວົ້າຫຍັງອີກໃນແງ່ຂອງສະເພາະຂອງຂໍ້ຄວາມທີ່ຈະຖ່າຍທອດ.

ແນ່ນອນວ່າມັນເປັນບັນຫາທີ່ຍາກກວ່າທີ່ຈະແກ້ໄຂ. ຄວາມເປັນໄປໄດ້ຂອງ AI ທີ່ຈະເຮັດສິ່ງຕ່າງໆທີ່ຖືວ່າບໍ່ປອດໄພ ຫຼື ໜ້າເປັນຫ່ວງຈະມີຂະໜາດໃຫຍ່ຫຼວງຫຼາຍ, ເກືອບບໍ່ມີທີ່ສິ້ນສຸດ. ພວກເຮົາສາມາດຕົ້ມພວກມັນເຂົ້າໄປໃນຊຸດປົກກະຕິບາງຢ່າງທີ່ສະກົດຢູ່ໃນພຽງແຕ່ສອງສາມຄໍາ? ຫຼືພວກເຮົາຈະຕ້ອງອະນຸຍາດໃຫ້ມີວິທີການທີ່ມີຮູບແບບທີ່ບໍ່ເສຍຄ່າຫຼາຍຂຶ້ນວ່າຄໍາສັບຈະໄປແນວໃດ?

ຂ້ອຍຈະໃຫ້ເຈົ້າໄຕ່ຕອງຄຳຖາມເປີດນັ້ນ.

ກ້າວຕໍ່ໄປ, ພວກເຮົາມັກຈະເຫັນປ້າຍເຕືອນທີ່ຕິດຢູ່ເທິງວັດຖຸ. ລະບົບ AI ບໍ່ຈໍາເປັນຕ້ອງເປັນ "ວັດຖຸ" ໃນຄວາມຫມາຍດຽວກັນກັບການຕິດປ້າຍຕາມປະເພນີ. ນີ້ເຮັດໃຫ້ເກີດຄໍາຖາມວ່າບ່ອນທີ່ສັນຍານເຕືອນ AI ຈະຖືກນໍາສະເຫນີ.

ມັນອາດຈະເປັນເວລາທີ່ທ່ານກໍາລັງແລ່ນແອັບຯໃນໂທລະສັບສະຫຼາດຂອງທ່ານວ່າຖ້າມັນໃຊ້ AI ຈະມີຂໍ້ຄວາມທີ່ສະແດງໃຫ້ເຫັນວ່າມີຄໍາເຕືອນທີ່ກ່ຽວຂ້ອງກັບ AI. ແອັບຈະແຈ້ງເຕືອນທ່ານກ່ຽວກັບການນຳໃຊ້ AI ພື້ນຖານ. ນີ້ອາດຈະເປັນຂໍ້ຄວາມທີ່ປາກົດຂຶ້ນຫຼືອາດຈະຖືກນໍາສະເຫນີໃນຫຼາຍວິທີທາງສາຍຕາແລະແມ້ກະທັ້ງການຟັງ.

ຍັງມີສະຖານະການທີ່ທ່ານໃຊ້ການບໍລິການທີ່ສະຫນັບສະຫນູນໂດຍ AI, ເຖິງແມ່ນວ່າທ່ານອາດຈະບໍ່ໄດ້ພົວພັນກັບ AI ໂດຍກົງ. ຕົວຢ່າງ, ເຈົ້າສາມາດສົນທະນາກັບຕົວແທນຂອງມະນຸດກ່ຽວກັບການກູ້ຢືມເຮືອນ, ເຊິ່ງຕົວແທນແມ່ນຢູ່ເບື້ອງຫຼັງຢ່າງງຽບໆໂດຍໃຊ້ລະບົບ AI ເພື່ອນໍາພາຄວາມພະຍາຍາມຂອງເຂົາເຈົ້າ.

ດັ່ງນັ້ນ, ພວກເຮົາຄວນຈະຄາດຫວັງວ່າສັນຍານເຕືອນ AI ຄວນຈະມີຢູ່ໃນທັງສອງກໍລະນີການນໍາໃຊ້ AI, ເຊັ່ນວ່າ:

  • AI ສະເພາະຜະລິດຕະພັນ: AI ເປັນຜະລິດຕະພັນຄວນຈະມີ AI ເຕືອນຫຼືສັນຍານເຕືອນໄພ
  • AI ທີ່ເນັ້ນການບໍລິການ: AI ເປັນບໍລິການ (ໂດຍກົງຫຼືທາງອ້ອມ) ຄວນມີ AI ເຕືອນຫຼືສັນຍານເຕືອນ

ບໍ່ຄ່ອຍເຊື່ອງ່າຍໆແນ່ນອນຈະແນະນໍາວ່າປ້າຍເຕືອນ AI ອາດຈະຖືກປອມຕົວໂດຍຜູ້ຜະລິດແອັບຯເພື່ອບໍ່ໃຫ້ການແຈ້ງເຕືອນໂດຍສະເພາະ. ບາງທີການເຕືອນໄພປະກົດຂຶ້ນໃນເວລາສັ້ນໆແລະທ່ານກໍ່ບໍ່ສັງເກດເຫັນວ່າມັນສະແດງໃຫ້ເຫັນ. ເຄັດລັບທີ່ຫຼອກລວງອີກອັນໜຶ່ງແມ່ນການສ້າງເກມປະເພດໜຶ່ງອອກຈາກມັນ, ເບິ່ງຄືວ່າເປັນການຫຼຸດຄວາມຮ້າຍແຮງຂອງການແຈ້ງເຕືອນ ແລະ ຊັກຊວນຄົນໃຫ້ຄິດວ່າການເຕືອນນັ້ນບໍ່ເປັນຜົນຕາມມາ.

ແມ່ນແລ້ວ, ທ່ານສາມາດວາງເດີມພັນໄດ້ຫຼາຍວ່າສັນຍານເຕືອນໄພທີ່ກ່ຽວຂ້ອງກັບ AI ຈະຖືກຫຼອກລວງແລະໃຊ້ໃນທາງທີ່ບໍ່ຢູ່ໃນຈິດໃຈແລະຄວາມຕັ້ງໃຈຂອງຂໍ້ຄວາມເຕືອນທີ່ເຂົາເຈົ້າຄວນຈະຖ່າຍທອດ.

ຄວາມບໍ່ຄ່ອຍເຊື່ອງ່າຍໆເຫຼົ່ານັ້ນໄດ້ກວມເອົາວ່າພວກເຮົາຈະໃຊ້ຈັນຍາບັນ AI ເປັນ "ກົດຫມາຍອ່ອນ" ເພື່ອພະຍາຍາມແລະຊຸກຍູ້ການເຕືອນໄພທີ່ກ່ຽວຂ້ອງກັບ AI, ຫຼືວ່າພວກເຮົາຈະນໍາໃຊ້ "ກົດຫມາຍແຂງ" ລວມທັງກົດຫມາຍທີ່ຖືກກົດຫມາຍທີ່ມີການສະຫນັບສະຫນູນຂອງສານ. ໃນທາງທິດສະດີ, ການຊຸກຍູ້ກົດ ໝາຍ ອ່ອນໆຈະຊ່ວຍໃຫ້ມີຄວາມຄ້າຍຄືກັນກັບເລື່ອງ, ໃນຂະນະທີ່ກົດ ໝາຍ ໃນປື້ມຈະມາພ້ອມກັບທ່າແຮງໃນການບັງຄັບໃຊ້ຂອງລັດຖະບານແລະເຮັດໃຫ້ມີຄວາມເຂັ້ມງວດຫຼາຍຂຶ້ນ.

ຄວາມກັງວົນອີກຢ່າງຫນຶ່ງແມ່ນວ່າປ້າຍ AI ຈະສ້າງຄວາມແຕກຕ່າງໃດໆ.

ການຄົ້ນຄວ້າຫຼາຍຢ່າງກ່ຽວກັບພຶດຕິກໍາຂອງຜູ້ບໍລິໂພກມີແນວໂນ້ມທີ່ຈະສະແດງໃຫ້ເຫັນຜົນໄດ້ຮັບທີ່ຂີ້ຕົວະໃນເວລາທີ່ມັນມາກັບການສະຫນອງປ້າຍເຕືອນສໍາລັບຜູ້ບໍລິໂພກ. ບາງ​ຄັ້ງ​ການ​ເຕືອນ​ໄພ​ແມ່ນ​ມີ​ປະ​ສິດ​ທິ​ຜົນ​, ບາງ​ຄັ້ງ​ບໍ່​ໄດ້​. ໃຫ້ນໍາໃຊ້ບາງການຄົ້ນຄວ້ານັ້ນກັບສະພາບການ AI.

ພິຈາລະນາລັກສະນະເຫຼົ່ານີ້:

  • ການຊອກຄົ້ນຫາ: ຜູ້ທີ່ໃຊ້ AI ທີ່ມີສັນຍານເຕືອນໄພ AI ທີ່ສາມາດສັງເກດເຫັນໄດ້ຢ່າງຈິງຈັງຫຼືກວດພົບວ່າເຄື່ອງຫມາຍຖືກສະແດງໃຫ້ພວກເຂົາ (ສົມມຸດວ່າປ້າຍດັ່ງກ່າວເກີດຂຶ້ນ) ບໍ?
  • ຄວາມເຂົ້າໃຈ: ສໍາລັບຜູ້ທີ່ສັງເກດເຫັນ, ພວກເຂົາຈະເຂົ້າໃຈຫຼືເຂົ້າໃຈສິ່ງທີ່ເຄື່ອງຫມາຍເຕືອນ AI ພະຍາຍາມແນະນໍາພວກເຂົາບໍ?
  • ປະຕິບັດງານ: ສໍາລັບຜູ້ທີ່ເຮັດໃຫ້ຈິດໃຈກ້າວກະໂດດ, ສັນຍານເຕືອນ AI ຈະກະຕຸ້ນໃຫ້ພວກເຂົາປະຕິບັດຫຼືເຮັດຫນ້າທີ່ເພື່ອແນະນໍາພຶດຕິກໍາຂອງພວກເຂົາຕາມຄວາມເຫມາະສົມ?

ທ່ານສາມາດຄາດເດົາໄດ້ວ່າຖ້າມີສັນຍານເຕືອນໄພ AI, ນັກຄົ້ນຄວ້າຈະສຶກສາຢ່າງໃກ້ຊິດກ່ຽວກັບເລື່ອງນີ້. ແນວ​ຄວາມ​ຄິດ​ທີ່​ຈະ​ຊ່ວຍ​ໃຫ້​ຄວາມ​ກະ​ຈ່າງ​ແຈ້ງ​ພາຍ​ໃຕ້​ສະ​ຖາ​ນະ​ການ​ທີ່​ຄໍາ​ເຕືອນ​ແມ່ນ​ເປັນ​ປະ​ໂຫຍດ​ແລະ​ໃນ​ເວ​ລາ​ທີ່​ມັນ​ບໍ່​ແມ່ນ​. ນີ້ໃນແລະເຮັດໃຫ້ການກ່ຽວຂ້ອງກັບການອອກແບບແລະເບິ່ງແລະມີຄວາມຮູ້ສຶກມີສ່ວນຮ່ວມ. ພວກເຮົາຍັງອາດຈະຄາດຫວັງວ່າປະຊາຊົນໃນຈໍານວນຫຼວງຫຼາຍຈະຕ້ອງໄດ້ຮັບການສຶກສາຫຼືແຈ້ງໃຫ້ຊາບກ່ຽວກັບການປະກົດຕົວຂອງສັນຍານເຕືອນ AI ແລະເຕືອນໄພເຫຼົ່ານີ້ເພື່ອໃຫ້ພວກເຂົາຄຸ້ນເຄີຍກັບພວກມັນ.

ມີການບິດເບືອນຫຼາຍຢ່າງທີ່ຈະພິຈາລະນາ.

ຄວນເຕືອນ AI ຫຼືສັນຍານເຕືອນໄພເກີດຂຶ້ນພຽງແຕ່ໃນຕອນເລີ່ມຕົ້ນຂອງ app ທີ່ຖືກນໍາໃຊ້? ບາງທີຈຸດເລີ່ມຕົ້ນບໍ່ພຽງພໍດ້ວຍຕົວມັນເອງ. ຄົນເຮົາເບິ່ງທຳອິດອາດຈະຄິດວ່າແອັບນີ້ກຳລັງຫຼິ້ນມັນຢ່າງປອດໄພໂດຍການໃຊ້ຄຳເຕືອນ, ແລະດັ່ງນັ້ນຈຶ່ງບໍ່ສົນໃຈຄຳເຕືອນຫຼາຍ. ເມື່ອບຸກຄົນນັ້ນຢູ່ເຄິ່ງກາງໃນການນໍາໃຊ້ app, ບາງທີອາດມີຄໍາເຕືອນເພີ່ມເຕີມຈະໄດ້ຮັບການຮັບປະກັນ. ໃນຊ່ວງເວລານັ້ນ, ບຸກຄົນນັ້ນຮູ້ຫຼາຍຂຶ້ນກ່ຽວກັບສິ່ງທີ່ app ກໍາລັງປະຕິບັດແລະພວກເຂົາອາດຈະລືມກ່ຽວກັບຂໍ້ຄວາມເຕືອນທີ່ລະບຸໄວ້ກ່ອນຫນ້ານີ້.

ການເຕືອນຫຼືເຕືອນ AI ອາດຈະເກີດຂື້ນ:

  • ກ່ອນ​ທີ່​ຈະ​ເລີ່ມ​ຕົ້ນ app ແລະ​ພຽງ​ແຕ່​ເປັນ app ແມ່ນ​ກໍາ​ລັງ​ຈະ​ໄດ້​ຮັບ​ການ​ເອີ້ນ​
  • ນໍາສະເຫນີເມື່ອ app ໄດ້ຖືກເລີ່ມຕົ້ນແລະພຽງແຕ່ຢູ່ໃນຈຸດເລີ່ມຕົ້ນ
  • ສະແດງໃຫ້ເຫັນໃນຕອນເລີ່ມຕົ້ນແລະອີກເທື່ອຫນຶ່ງໃນໄລຍະກາງ
  • ສະແດງໃຫ້ເຫັນຫຼາຍຄັ້ງຕະຫຼອດການນໍາໃຊ້ AI
  • ໃຫ້ໃນຕອນທ້າຍຂອງການນໍາໃຊ້ app ໄດ້
  • ສະໜອງໃຫ້ຫຼັງຈາກອອກຈາກແອັບ ແລະ ອາດຈະເປັນນາທີ, ຊົ່ວໂມງ, ຫຼືມື້ຕໍ່ມາ
  • ແລະອື່ນໆ

ທ່ານຄິດວ່າຜູ້ທີ່ໃຊ້ AI ຕ້ອງການຢືນຢັນຫຼືຮັບຮູ້ການເຕືອນ AI ຫຼືສັນຍານເຕືອນໄພດັ່ງກ່າວບໍ?

ບາງ​ຄົນ​ຈະ​ຮຽກ​ຮ້ອງ​ໃຫ້​ຄົນ​ນັ້ນ​ຕ້ອງ​ຮັບ​ຮູ້​ວ່າ​ເຂົາ​ເຈົ້າ​ໄດ້​ເຫັນ​ຄຳ​ເຕືອນ. ອັນນີ້ອາດຈະຂັດຂວາງຜູ້ທີ່ອາດຈະອ້າງວ່າບໍ່ມີຂໍ້ຄວາມເຕືອນໃດໆ. ມັນຍັງສາມາດເຮັດໃຫ້ປະຊາຊົນເອົາຂໍ້ຄວາມຢ່າງຈິງຈັງ, ເນື່ອງຈາກພວກເຂົາຖືກຮ້ອງຂໍໃຫ້ຢືນຢັນວ່າພວກເຂົາສັງເກດເຫັນຕົວຊີ້ບອກເຕືອນ.

ນີ້ແມ່ນຄໍາຖາມທີ່ຍາກສໍາລັບທ່ານ.

ຄວນ ທັງຫມົດ AI ຕ້ອງໃຫ້ຄໍາເຕືອນຫຼືຕົວຊີ້ບອກຄວາມປອດໄພບໍ?

ທ່ານອາດຈະໂຕ້ຖຽງວ່າແມ່ນແລ້ວ, AI ທັງຫມົດຕ້ອງມີສິ່ງນີ້. ເຖິງແມ່ນວ່າ AI ແມ່ນພຽງແຕ່ຄວາມສ່ຽງດ້ານຄວາມປອດໄພ, ມັນຄວນຈະມີບາງຮູບແບບຂອງສັນຍານເຕືອນ, ອາດຈະເປັນພຽງແຕ່ການແຈ້ງເຕືອນຫຼືຕົວຊີ້ບອກຂໍ້ມູນ. ຄົນອື່ນຈະໂຕ້ແຍ້ງການຂັດແຍ້ງນີ້. ເຂົາເຈົ້າຈະໂຕ້ແຍ້ງວ່າເຈົ້າຈະຂ້າມເຮືອໄປ. ບໍ່ແມ່ນ AI ທັງຫມົດຕ້ອງການນີ້. ນອກຈາກນັ້ນ, ຖ້າທ່ານບັງຄັບໃຫ້ AI ທັງຫມົດມີມັນ, ທ່ານຈະເຈືອຈາງຈຸດປະສົງ. ຜູ້ຄົນຈະມຶນງົງເມື່ອເຫັນສັນຍານເຕືອນໄພ. ວິທີການທັງຫມົດຈະກາຍເປັນ farce.

ໃນມຸມທີ່ກ່ຽວຂ້ອງ, ພິຈາລະນາສິ່ງທີ່ຜູ້ຜະລິດ AI ມີແນວໂນ້ມທີ່ຈະເວົ້າ.

ທັດສະນະຫນຶ່ງອາດຈະເປັນວ່ານີ້ແມ່ນຄວາມເຈັບປວດໃນສິ່ງທີ່ເຈົ້າຮູ້ - ສິ່ງທີ່ຄວນເອົາໃຈໃສ່. ມີການປ່ຽນແປງລະບົບ AI ທັງຫມົດຂອງທ່ານແລະເພີ່ມຄຸນສົມບັດນີ້ອາດຈະເປັນຄ່າໃຊ້ຈ່າຍຫຼາຍ. ການເພີ່ມມັນບົນພື້ນຖານກ້າວໄປຂ້າງຫນ້າອາດຈະມີຄ່າໃຊ້ຈ່າຍຫນ້ອຍ, ເຖິງແມ່ນວ່າຢ່າງໃດກໍ່ຕາມມັນມີຄ່າໃຊ້ຈ່າຍທີ່ກ່ຽວຂ້ອງກັບການສະຫນອງນີ້.

ຄວາມຂີ້ຄ້ານແມ່ນເປັນຄໍາຮ້ອງທຸກທີ່ເປັນໄປໄດ້ອີກອັນໜຶ່ງ. ຂໍ້ຄວາມປະເພດໃດທີ່ຕ້ອງການສະແດງ? ຖ້າບໍ່ມີມາດຕະຖານໃດໆ, ນີ້ຫມາຍຄວາມວ່າຜູ້ຜະລິດ AI ຈະຕ້ອງສ້າງສິ່ງໃຫມ່. ບໍ່ພຽງແຕ່ຄ່າໃຊ້ຈ່າຍເພີ່ມເຕີມນີ້, ມັນອາດຈະເປີດປະຕູໃຫ້ໄດ້ຮັບການຟ້ອງຮ້ອງ. ທ່ານສາມາດຈິນຕະນາການວ່າຜູ້ຜະລິດ AI ອາດຈະຖືກປະຕິບັດຫນ້າທີ່ເຕືອນໄພຂອງພວກເຂົາບໍ່ດີເທົ່າກັບລະບົບ AI ອື່ນໆ. ທະນາຍຄວາມຈະສິ້ນສຸດເຖິງການສ້າງມັດຈາກຄວາມສັບສົນທີ່ເກີດຂື້ນ.

ຍັງມີຄວາມກັງວົນວ່າປະຊາຊົນຈະຢ້ານເກີນໄປຈາກຂໍ້ຄວາມຄວາມປອດໄພເຫຼົ່ານີ້.

ຜູ້ຜະລິດ AI ອາດຈະເຫັນການຫຼຸດລົງຢ່າງຫຼວງຫຼາຍຂອງຈໍານວນຜູ້ໃຊ້ເນື່ອງຈາກຂໍ້ຄວາມຄວາມປອດໄພທີ່ມີຈຸດປະສົງເພື່ອສະຫນອງການລະມັດລະວັງຂໍ້ມູນ. ຄົນຈະບໍ່ຮູ້ວ່າຈະສ້າງຂໍ້ຄວາມຫຍັງ. ຖ້າພວກເຂົາບໍ່ເຄີຍເຫັນຂໍ້ຄວາມດັ່ງກ່າວມາກ່ອນ, ພວກເຂົາອາດຈະຮູ້ສຶກຕົກໃຈໃນທັນທີແລະຫຼີກເວັ້ນການນໍາໃຊ້ AI ໂດຍບໍ່ຈໍາເປັນ.

ຂ້າພະເຈົ້າກ່າວເຖິງລັກສະນະເຫຼົ່ານັ້ນເພາະວ່າບາງຄົນປະກາດແລ້ວວ່າ "ມັນບໍ່ສາມາດທໍາຮ້າຍໄດ້" ເພື່ອເລີ່ມຕົ້ນລວມທັງຄໍາເຕືອນ AI ຫຼືຂໍ້ຄວາມຄວາມປອດໄພ. ສໍາລັບພວກເຂົາ, ແນວຄວາມຄິດແມ່ນເຫມາະສົມຄືກັບຫມາກໂປມ. ບໍ່ມີໃຜສາມາດປະຕິເສດຢ່າງຈິງຈັງກ່ຽວກັບຜົນປະໂຫຍດຂອງການຮຽກຮ້ອງໃຫ້ມີຄວາມປອດໄພຫຼືຄໍາເຕືອນທີ່ກ່ຽວຂ້ອງກັບ AI ສະເຫມີ. ແຕ່ແນ່ນອນ, ມັນບໍ່ແມ່ນວິທີການຄິດທີ່ແທ້ຈິງຂອງໂລກ.

ທ່ານຍັງສາມາດໄປຕື່ມອີກແລະອ້າງວ່າຂໍ້ຄວາມເຕືອນ AI ສາມາດສ້າງຮູບແບບຂອງ hysteria ມະຫາຊົນ. ຖ້າພວກເຮົາທຸກຄົນເລີ່ມບັງຄັບໃຫ້ລະບົບ AI ມີຂໍ້ຄວາມດັ່ງກ່າວຢ່າງກະທັນຫັນ, ຄົນເຮົາສາມາດເຂົ້າໃຈຜິດໄດ້. ເຈົ້າເຫັນ, ມີຫຼາຍ ຄຳ ແນະ ນຳ ທີ່ພວກເຮົາກໍາລັງປະເຊີນກັບວິກິດການທີ່ມີຢູ່ແລ້ວຂອງ AI, ເຊິ່ງ AI ຈະຄອບຄອງໂລກແລະລົບລ້າງມະນຸດ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້ ສໍາລັບການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບປະເພດຂອງການຮຽກຮ້ອງເຫຼົ່ານັ້ນ.

ການໃຊ້ຂໍ້ຄວາມເຕືອນ AI ອາດຈະ "ດົນໃຈ" ບາງຄົນໃຫ້ເຊື່ອວ່າຈຸດຈົບແມ່ນຢູ່ໃກ້. ເປັນຫຍັງຂໍ້ຄວາມອື່ນຈຶ່ງຈະປາກົດໃນຕອນນີ້? ແນ່ນອນ, ມັນເປັນຕົວຊີ້ບອກວ່າສຸດທ້າຍ, AI ກໍາລັງກຽມພ້ອມທີ່ຈະກາຍເປັນຜູ້ປົກຄອງທີ່ຂົ່ມເຫັງຂອງພວກເຮົາ.

ປະເພດຂອງຜົນທີ່ເສື່ອມເສຍຢ່າງສິ້ນຫວັງຂອງການພະຍາຍາມເຮັດສິ່ງທີ່ຖືກຕ້ອງໂດຍການເຮັດໃຫ້ສາທາລະນະຮູ້ວ່າ AI ສາມາດຖືກບັນຈຸກັບຄວາມສາມາດຈໍາແນກຫຼືອື່ນໆ. AI ສໍາລັບບໍ່ດີ ດ້ານຕ່າງໆ.

ສະຫຼຸບ

James Russell Lowell, ນັກກະວີທີ່ມີຊື່ສຽງຂອງຊາວອາເມລິກາ, ເຄີຍເວົ້າເລື່ອງນີ້ວ່າ: "ປະສົບການຫນຶ່ງຂອງໜາມແມ່ນສົມຄວນທີ່ຈະເຕືອນໄພປ່າທໍາມະຊາດ."

ຂ້າພະເຈົ້າຍົກເອົາຂໍ້ສັງເກດອັນສູງສົ່ງເພື່ອໃຫ້ຄໍາເຫັນສະຫຼຸບສອງສາມຢ່າງກ່ຽວກັບເລື່ອງຂອງຄໍາເຕືອນ AI ຫຼືຂໍ້ຄວາມຄວາມປອດໄພ.

ໂອກາດແມ່ນວ່າຈົນກ່ວາພວກເຮົາມີຄວາມເຂົ້າໃຈຢ່າງກວ້າງຂວາງກ່ຽວກັບ AI ເຮັດການກະທໍາທີ່ບໍ່ດີ, ມັນຈະບໍ່ມີສຽງຮ້ອງຫຼາຍສໍາລັບຂໍ້ຄວາມເຕືອນທີ່ກ່ຽວຂ້ອງກັບ AI. ຜູ້ຜະລິດ AI ເຫຼົ່ານັ້ນທີ່ເລືອກທີ່ຈະເຮັດແນວນັ້ນດ້ວຍຄວາມສະໝັກໃຈບາງທີອາດຈະໄດ້ຮັບການຊົມເຊີຍ, ເຖິງແມ່ນວ່າພວກເຂົາອາດຈະພົບວ່າຕົນເອງຖືກຂົ່ມເຫັງທີ່ບໍ່ຍຸດຕິທໍາໂດຍບໍ່ໄດ້ຕັ້ງໃຈ. ນັກສຶກສາບາງຄົນອາດຈະຕິດຕາມພວກເຂົາເພື່ອໃຊ້ປະໂຫຍດຈາກ AI ທີ່ເບິ່ງຄືວ່າຕ້ອງການການເຕືອນໄພ, ເພື່ອເລີ່ມຕົ້ນດ້ວຍ, ໃນຂະນະດຽວກັນ, ການລະເລີຍທີ່ຈະຮັບຮູ້ວ່າພວກເຂົາພະຍາຍາມໄປກ່ອນແລະຜູ້ຜະລິດ AI ອື່ນໆທັງຫມົດແມ່ນຊັກຊ້າ.

Darned ຖ້າ​ຫາກ​ວ່າ​ທ່ານ​ເຮັດ, ບາງ​ທີ​ອາດ​ຈະ​ບໍ່ darned ຖ້າ​ຫາກ​ວ່າ​ທ່ານ​ບໍ່​ໄດ້.

ການພິຈາລະນາອີກອັນໜຶ່ງເວົ້າເຖິງການຫັນສິ່ງທີ່ເບິ່ງຄືວ່າເປັນແນວຄວາມຄິດທີ່ດີ ໄປສູ່ການປະຕິບັດຕົວຈິງ ແລະເປັນປະໂຫຍດ. ມັນງ່າຍທີ່ຈະໂບກມືຂອງເຈົ້າແລະຮ້ອງອອກມາຢ່າງຈະແຈ້ງຕໍ່ລົມວ່າ AI ຄວນມີຂໍ້ຄວາມເຕືອນໄພແລະຄວາມປອດໄພ. ພາກສ່ວນທີ່ຍາກແມ່ນເກີດຂື້ນໃນເວລາທີ່ຕັດສິນໃຈວ່າຂໍ້ຄວາມເຫຼົ່ານັ້ນຄວນຈະເປັນແນວໃດ, ເວລາໃດແລະບ່ອນທີ່ພວກເຂົາຄວນຈະຖືກນໍາສະເຫນີ, ບໍ່ວ່າຈະເປັນຫຼືລະດັບໃດທີ່ຄ່າໃຊ້ຈ່າຍຂອງພວກເຂົາໄດ້ຮັບຜົນປະໂຫຍດພຽງພໍ, ແລະອື່ນໆ.

ໃນທີ່ນີ້ພວກເຮົາຈະໃຫ້ James Russell Lowell ເປັນຄໍາສຸດທ້າຍ ( poetically ດັ່ງນັ້ນ) ກ່ຽວກັບຫົວຂໍ້ນີ້ສໍາລັບໃນປັດຈຸບັນ: "ຄວາມຄິດສ້າງສັນບໍ່ແມ່ນການຊອກຫາຂອງສິ່ງຫນຶ່ງ, ແຕ່ການເຮັດໃຫ້ບາງສິ່ງບາງຢ່າງອອກຈາກມັນຫຼັງຈາກມັນພົບເຫັນ."

ເດົາ​ວ່າ​ມັນ​ເປັນ​ເວ​ລາ​ທີ່​ຈະ​ມ້ວນ​ແຂນ​ຂອງ​ພວກ​ເຮົາ​ແລະ​ໄປ​ເຮັດ​ວຽກ​ກ່ຽວ​ກັບ​ການ​ນີ້​. ແລະນັ້ນບໍ່ພຽງແຕ່ເປັນການເຕືອນໄພ, ມັນເປັນການກະທໍາ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- ຄຳເຕືອນ-on-all-existing-and-future-ai/