ກິດຈະກຳປະຈຳວັນຂອງເຈົ້າຖືກລະເບີດຢ່າງບໍ່ຕ້ອງສົງໄສດ້ວຍການເຕືອນສະຕິລະວັງຕົວເປັນພັນໆ ຫຼື ຫຼາຍກວ່າປະເພດໃດນຶ່ງ.
ພະຍາຍາມເຫຼົ່ານີ້ສໍາລັບຂະຫນາດ:
- ແວ່ນຕານິລະໄພຕ້ອງໃສ່ຕະຫຼອດເວລາ
- ອັນຕະລາຍ: ສານເຄມີອັນຕະລາຍຢູ່ໃກ້ໆ
- ແຮງດັນສູງ - ຮັກສາອອກ
- ຄຳເຕືອນ: ຈົ່ງລະວັງສິ່ງອ້ອມຂ້າງຂອງເຈົ້າ
- ວັດຖຸຢູ່ໃນກະຈົກແມ່ນຢູ່ໃກ້ກວ່າທີ່ປາກົດ
- ເອົາເດັກອອກກ່ອນພັບ (ຕາມທີ່ລະບຸໄວ້ໃນລົດເຂັນເດັກນ້ອຍ)
- ຂໍ້ຄວນລະວັງ: ໃຫ້ແນ່ໃຈວ່າຈະບໍ່ສົນໃຈຂໍ້ຄວາມນີ້
ສ່ວນໃຫຍ່ຂອງສິ່ງເຫຼົ່ານັ້ນແມ່ນເຄື່ອງໝາຍທີ່ມີປະໂຫຍດ ແລະເປັນເຄື່ອງໝາຍທີ່ຄິດໄດ້ທັງໝົດທີ່ໃຫ້ບໍລິການເພື່ອຮັກສາພວກເຮົາຢ່າງປອດໄພ ແລະປອດໄພ.
ກະລຸນາຮັບຊາບວ່າຂ້ອຍໄດ້ເອົາ "outliers" ຈໍານວນຫນ້ອຍຢູ່ໃນບັນຊີລາຍຊື່ເພື່ອເຮັດໃຫ້ບາງຈຸດທີ່ຫນ້າສັງເກດ.
ສໍາລັບຕົວຢ່າງ, ບາງຄົນເຊື່ອວ່າມັນເປັນເລື່ອງທີ່ຫນ້າເບື່ອທີ່ລົດເຂັນເດັກນ້ອຍມີປ້າຍຕິດກັນທີ່ເຕືອນເຈົ້າບໍ່ໃຫ້ພັບ stroller ໃນຂະນະທີ່ເດັກນ້ອຍຍັງນັ່ງຢູ່ພາຍໃນ contraption. ເຖິງແມ່ນວ່າເຄື່ອງຫມາຍແມ່ນແນ່ນອນທີ່ເຫມາະສົມແລະເປັນປະໂຫຍດຕາມລໍາດັບ, ມັນເບິ່ງຄືວ່າຄວາມຮູ້ສຶກທົ່ວໄປພື້ນຖານຈະພຽງພໍແລ້ວ.
ຄົນໃດທີ່ບໍ່ໄດ້ຕາມຄວາມຕັ້ງໃຈຂອງຕົນເອງທີ່ຮູ້ວ່າພວກເຂົາຕ້ອງເອົາລູກອອກກ່ອນ?
ດີ, ຄົນອື່ນເນັ້ນຫນັກວ່າປ້າຍດັ່ງກ່າວຮັບໃຊ້ຈຸດປະສົງທີ່ສໍາຄັນ. ທໍາອິດ, ບາງຄົນອາດຈະລືມແທ້ໆວ່າພວກເຂົາຕ້ອງການເອົາເດັກນ້ອຍອອກກ່ອນທີ່ຈະພັບຂຶ້ນ stroller. ບາງທີບຸກຄົນດັ່ງກ່າວສົມມຸດວ່າ stroller ໄດ້ຖືກອອກແບບຢ່າງສະຫລາດເພື່ອຮັບປະກັນວ່າການປະຕິບັດການພັບຈະບໍ່ເປັນອັນຕະລາຍຕໍ່ເດັກນ້ອຍ. ຫຼືອາດມີຄຸນສົມບັດດ້ານຄວາມປອດໄພໃນຕົວທີ່ປ້ອງກັນການພັບໄດ້ທຸກຄັ້ງທີ່ມີເດັກນ້ອຍຢູ່ໃນ stroller. ເປັນຕົ້ນ.
ນອກຈາກນີ້, ມັນອາດຈະວ່າຄົນນັ້ນຖືກລົບກວນແລະຈະພັບລົດຍ່າງຢ່າງບໍ່ມີສະຕິ, ກວມເອົາເດັກນ້ອຍແລະທຸກຄົນ, ແຕ່ປ້າຍດັ່ງກ່າວໂຊກດີທີ່ຄົນນັ້ນບໍ່ເຮັດແນວນັ້ນ (ບາງຄົນຈະໂຕ້ຖຽງວ່າເບິ່ງຄືວ່າບໍ່ຫນ້າຈະສັງເກດເຫັນປ້າຍດັ່ງກ່າວ. ແລ້ວ). ຍັງມີຄວາມຈິງທີ່ວ່າບາງຄົນອາດຈະຟ້ອງຜູ້ຜະລິດຂອງ stroller ຖ້າປ້າຍດັ່ງກ່າວບໍ່ຢູ່. ເຈົ້າສາມາດຈິນຕະນາການເຖິງການຟ້ອງຮ້ອງອັນໜັກໜ່ວງທີ່ເດັກນ້ອຍໄດ້ຮັບບາດເຈັບ ແລະພໍ່ແມ່ໄດ້ຕັດສິນໃຈເກັບເງິນຈຳນວນໜຶ່ງລ້ານໂດລາ ເພາະວ່າລົດເຂັນບໍ່ມີປ້າຍເຕືອນທີ່ຕິດຢູ່ເທິງມັນ. ບໍລິສັດ stroller ຈະເສຍໃຈທີ່ບໍ່ໄດ້ໃຊ້ເວລາສອງສາມເຊັນເພື່ອເຮັດແລະວາງປ້າຍເຕືອນໃສ່ລົດ strollers ຂອງເຂົາເຈົ້າ.
ໃຫ້ເບິ່ງໃກ້ໆກັບຂໍ້ຄວາມເຕືອນສຸດທ້າຍທີ່ຂ້ອຍໄດ້ລະບຸໄວ້ຂ້າງເທິງ.
ຂ້ອຍເລືອກທີ່ຈະວາງຂໍ້ຄວາມທີ່ຂີ້ຕົວະກ່ຽວກັບການເຮັດໃຫ້ແນ່ໃຈວ່າຈະບໍ່ສົນໃຈຂໍ້ຄວາມເພາະວ່າມີປ້າຍເຕືອນໄພປອມຈໍານວນຫຼາຍທີ່ຄົນຊື້ຫຼືເຮັດເພື່ອຄວາມມ່ວນໃນມື້ນີ້. ອັນນີ້ແມ່ນເປັນ philosophical ທີ່ແທ້ຈິງ bender ຈິດໃຈ. ຖ້າເຈົ້າອ່ານຄໍາເຕືອນທີ່ບອກວ່າບໍ່ສົນໃຈຄໍາເຕືອນ, ເຈົ້າຈະເຮັດແນວໃດແນ່ນອນເມື່ອໄດ້ອ່ານຄໍາເຕືອນ? ເຈົ້າໄດ້ອ່ານມັນແລ້ວ, ສະນັ້ນມັນຢູ່ໃນໃຈຂອງເຈົ້າຢ່າງແນ່ນອນ. ແນ່ນອນ, ທ່ານສາມາດລະເລີຍມັນ, ແຕ່ຫຼັງຈາກນັ້ນ, ອີກເທື່ອຫນຶ່ງ, ທ່ານບໍ່ໄດ້ຖືກແນະນໍາທັງຫມົດກ່ຽວກັບສິ່ງທີ່ມັນແມ່ນວ່າທ່ານຄວນຈະບໍ່ສົນໃຈ. ຕະຫຼອດແລະຕະຫຼອດ, joke ນີ້ໄປ.
ແນ່ນອນ, ປ້າຍເຕືອນໄພ bona fide ປົກກະຕິແລ້ວບໍ່ແມ່ນເລື່ອງຕະຫຼົກ ຫຼືຕະຫຼົກ.
ພວກເຮົາຄວນຈະເອົາຄໍາເຕືອນຢ່າງຈິງຈັງ.
ໂດຍປົກກະຕິແລ້ວ, ຖ້າທ່ານບໍ່ປະຕິບັດຕາມຄໍາເຕືອນທີ່ບັນທຶກໄວ້, ທ່ານຈະມີຄວາມສ່ຽງຕໍ່ຄວາມໂສກເສົ້າສ່ວນຕົວ. ແລະ, ມັນອາດຈະເປັນວ່າຖ້າທ່ານບໍ່ສັງເກດເຫັນແລະປະຕິບັດຕາມຄໍາເຕືອນ, ທ່ານອາດຈະເຮັດໃຫ້ຄົນອື່ນມີຄວາມສ່ຽງເກີນໄປ. ພິຈາລະນາການກະທໍາຂອງການຂັບຂີ່ລົດ. ເວລາທີ່ທ່ານຢູ່ຫລັງລໍ້ຂອງລົດ, ການກະ ທຳ ຂອງທ່ານໃນຖານະຜູ້ຂັບຂີ່ສາມາດເປັນອັນຕະລາຍຕໍ່ຕົວທ່ານເອງ, ບວກກັບເຈົ້າສາມາດເປັນອັນຕະລາຍຕໍ່ຜູ້ໂດຍສານຂອງເຈົ້າ, ແລະເຈົ້າສາມາດເປັນອັນຕະລາຍຕໍ່ຄົນອື່ນເຊັ່ນຄົນຢູ່ໃນລົດອື່ນໆຫຼືຄົນຍ່າງທາງໃກ້ຄຽງ. ໃນຄວາມໝາຍນັ້ນ, ຄຳເຕືອນບໍ່ແມ່ນເພື່ອຜົນປະໂຫຍດຂອງເຈົ້າພຽງແຕ່ເທົ່ານັ້ນ, ມັນກໍເປັນຜົນປະໂຫຍດຂອງຄົນອື່ນຄືກັນ.
ເປັນຫຍັງຂ້ອຍຈຶ່ງກວມເອົາລັກສະນະການເຕືອນໄພ ແລະປ້າຍເຕືອນໄພເຫຼົ່ານີ້?
ເນື່ອງຈາກວ່າບາງຄົນຢືນຢັນຢ່າງຈິງຈັງວ່າພວກເຮົາຕ້ອງການສັນຍານເຕືອນໄພແລະເຕືອນໄພກ່ຽວກັບປັນຍາປະດິດ (AI).
ແທ້ຈິງແລ້ວ, ແນວຄວາມຄິດແມ່ນການໃສ່ປ້າຍດັ່ງກ່າວໃສ່ AI ຂອງມື້ນີ້ແລະ AI ໃນອະນາຄົດເຊັ່ນກັນ. ທັງຫມົດ, AI ທັງຫມົດຈະສິ້ນສຸດເຖິງມີບາງຮູບແບບຫຼື variants ຂອງຄໍາເຕືອນຫຼືຕົວຊີ້ບອກລະມັດລະວັງທີ່ກ່ຽວຂ້ອງກັບມັນ.
ຄວາມຄິດທີ່ດີຫຼືຄວາມຄິດທີ່ບໍ່ດີ?
ປະຕິບັດຫຼືປະຕິບັດບໍ່ໄດ້?
ໃຫ້ສືບຕໍ່ເດີນຫນ້າແລະ unpack ແນວຄວາມຄິດແລະເບິ່ງສິ່ງທີ່ພວກເຮົາສາມາດເຮັດໃຫ້ມັນ.
ຂ້າພະເຈົ້າຕ້ອງການທໍາອິດວາງພື້ນຖານທີ່ສໍາຄັນບາງຢ່າງກ່ຽວກັບ AI ແລະໂດຍສະເພາະຈັນຍາບັນຂອງ AI ແລະກົດຫມາຍ AI, ການເຮັດດັ່ງນັ້ນເພື່ອໃຫ້ແນ່ໃຈວ່າຫົວຂໍ້ຂອງຄໍາເຕືອນ AI ຈະມີຄວາມສົມເຫດສົມຜົນກັບສະພາບການ. ສໍາລັບຜູ້ທີ່ສົນໃຈໂດຍທົ່ວໄປກ່ຽວກັບ AI ດ້ານຈັນຍາບັນແລະກົດຫມາຍ AI, ເບິ່ງການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.
ຄວາມຮັບຮູ້ທີ່ເພີ່ມຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນແລະກົດຫມາຍ AI
ຍຸກທີ່ຜ່ານມາຂອງ AI ໄດ້ຖືກເບິ່ງໃນເບື້ອງຕົ້ນວ່າເປັນ AI ສໍາລັບທີ່ດີ, ຊຶ່ງຫມາຍຄວາມວ່າພວກເຮົາສາມາດນໍາໃຊ້ AI ສໍາລັບການປັບປຸງຂອງມະນຸດ. ສຸດ heels ຂອງ AI ສໍາລັບທີ່ດີ ມາເຖິງການຮັບຮູ້ວ່າພວກເຮົາຍັງຈົມຢູ່ໃນ AI ສໍາລັບບໍ່ດີ. ນີ້ຮວມເຖິງ AI ທີ່ຖືກວາງແຜນ ຫຼືປ່ຽນແປງຕົນເອງໃຫ້ເປັນການຈຳແນກ ແລະເຮັດໃຫ້ການເລືອກທາງຄຳນວນເຮັດໃຫ້ມີຄວາມລຳອຽງທີ່ບໍ່ເໝາະສົມ. ບາງຄັ້ງ AI ໄດ້ຖືກສ້າງຂື້ນແບບນັ້ນ, ໃນຂະນະທີ່ໃນກໍລະນີອື່ນໆ, ມັນເຂົ້າໄປໃນອານາເຂດທີ່ບໍ່ເຂົ້າໃຈນັ້ນ.
ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.
ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).
ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າພວກເຮົາຕ້ອງການຄາດເດົາຢ່າງຈິງຈັງກ່ຽວກັບ AI ທີ່ມີຄວາມຮູ້ສຶກ, ການສົນທະນານີ້ອາດຈະໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນມັນສະ ໝອງ ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ເນື່ອງຈາກບາງການຄາດເດົາວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດລົງໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).
ຂ້ອຍຂໍແນະ ນຳ ຢ່າງແຂງແຮງວ່າພວກເຮົາເກັບສິ່ງຂອງລົງມາສູ່ໂລກແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄອມພິວເຕີ້ໃນມື້ນີ້.
ຮັບຮູ້ວ່າ AI ໃນທຸກມື້ນີ້ບໍ່ສາມາດ “ຄິດ” ໃນແບບໃດກໍຕາມເທົ່າກັບການຄິດຂອງມະນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.
ຈົ່ງລະມັດລະວັງຫຼາຍຕໍ່ການເປັນມະນຸດຂອງ AI ໃນມື້ນີ້.
ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.
ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.
ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຕົວແບບທີ່ກົງກັບຮູບແບບຂອງ ML/DL.
ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.
ບໍ່ດີ.
ທັງຫມົດນີ້ມີຜົນກະທົບດ້ານຈັນຍາບັນຂອງ AI ທີ່ສໍາຄັນແລະສະເຫນີປ່ອງຢ້ຽມທີ່ເປັນປະໂຫຍດເຂົ້າໄປໃນບົດຮຽນທີ່ຖອດຖອນໄດ້ (ເຖິງແມ່ນວ່າກ່ອນທີ່ບົດຮຽນທັງຫມົດຈະເກີດຂື້ນ) ເມື່ອເວົ້າເຖິງການພະຍາຍາມສ້າງນິຕິກໍາ AI.
ນອກເຫນືອຈາກການໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ໂດຍທົ່ວໄປແລ້ວ, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອຄວບຄຸມການນໍາໃຊ້ຕ່າງໆຂອງ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມພະຍາຍາມເພື່ອຮ່າງກົດໝາຍດັ່ງກ່າວແມ່ນເປັນໄປເທື່ອລະກ້າວ. ຈັນຍາບັນ AI ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.
ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ພວກເຂົາເຈົ້າໄດ້ເຕືອນລ່ວງໜ້າວ່າ ຖ້າຫາກພວກເຮົາອອກກົດໝາຍ AI ບາງຂໍ້ນີ້, ພວກເຮົາຈະຂ້າໝີທອງໂດຍການຍຶດໝັ້ນຄວາມກ້າວໜ້າຂອງ AI ທີ່ໃຫ້ຄວາມໄດ້ປຽບທາງສັງຄົມອັນໃຫຍ່ຫລວງ.
ໃນຄໍລໍາທີ່ຜ່ານມາ, ຂ້າພະເຈົ້າໄດ້ກວມເອົາຄວາມພະຍາຍາມລະດັບຊາດແລະສາກົນຕ່າງໆເພື່ອຫັດຖະກໍາແລະອອກກົດຫມາຍຄວບຄຸມ AI, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້, ຍົກຕົວຢ່າງ. ຂ້າພະເຈົ້າຍັງໄດ້ກວມເອົາຫຼັກການດ້ານຈັນຍາບັນ AI ຕ່າງໆແລະຄໍາແນະນໍາທີ່ປະເທດຕ່າງໆໄດ້ກໍານົດແລະຮັບຮອງເອົາ, ລວມທັງຄວາມພະຍາຍາມຂອງສະຫະປະຊາຊາດເຊັ່ນ: UNESCO ກໍານົດຈັນຍາບັນ AI ທີ່ເກືອບ 200 ປະເທດໄດ້ຮັບຮອງເອົາ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້.
ນີ້ແມ່ນລາຍການຫຼັກທີ່ເປັນປະໂຫຍດຂອງມາດຖານ AI ດ້ານຈັນຍາບັນ ຫຼືຄຸນລັກສະນະກ່ຽວກັບລະບົບ AI ທີ່ຂ້າພະເຈົ້າໄດ້ຄົ້ນຫາຢ່າງໃກ້ຊິດກ່ອນຫນ້ານີ້:
- ຄວາມໂປ່ງໃສ
- ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
- ຄວາມບໍ່ເປັນອັນຕະລາຍ
- ຄວາມຮັບຜິດຊອບ
- ຄວາມເປັນສ່ວນຕົວ
- ຜົນປະໂຫຍດ
- ເສລີພາບ & ການປົກຄອງຕົນເອງ
- ຄວາມໄວ້ວາງໃຈ
- ຄວາມຍືນຍົງ
- ກຽດຕິຍົດ
- ຄວາມສົມດຸນ
ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ເຫຼົ່ານັ້ນແມ່ນຄວນຈະຖືກນໍາໃຊ້ຢ່າງຈິງຈັງໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI.
ພາກສ່ວນກ່ຽວຂ້ອງທັງຫມົດຕະຫຼອດວົງຈອນຊີວິດຂອງ AI ທັງຫມົດຂອງການພັດທະນາແລະການນໍາໃຊ້ແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ຖືກສ້າງຕັ້ງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ດັ່ງທີ່ໄດ້ເນັ້ນໜັກໄວ້ກ່ອນນີ້, ມັນຕ້ອງໃຊ້ເວລາບ້ານໜຶ່ງເພື່ອວາງແຜນ ແລະ ປະຕິບັດວຽກງານ AI, ແລະ ເພື່ອໃຫ້ໝູ່ບ້ານທັງໝົດຕ້ອງຮັບຮູ້ ແລະ ປະຕິບັດຕາມຫຼັກຈັນຍາບັນຂອງ AI.
ຂ້າພະເຈົ້າຍັງບໍ່ດົນມານີ້ໄດ້ກວດກາ ກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ເຊິ່ງເປັນຫົວຂໍ້ທີ່ເປັນທາງການຂອງເອກະສານທາງການຂອງລັດຖະບານສະຫະລັດທີ່ມີຊື່ວ່າ "Blueprint for a AI Bill of Rights: ເຮັດໃຫ້ລະບົບອັດຕະໂນມັດເຮັດວຽກສໍາລັບປະຊາຊົນອາເມລິກາ" ເຊິ່ງເປັນຜົນມາຈາກຄວາມພະຍາຍາມເປັນເວລາຫນຶ່ງປີໂດຍຫ້ອງການນະໂຍບາຍວິທະຍາສາດແລະເຕັກໂນໂລຢີ (OSTP. ). OSTP ເປັນໜ່ວຍງານຂອງລັດຖະບານກາງທີ່ໃຫ້ບໍລິການໃຫ້ຄໍາແນະນໍາແກ່ປະທານາທິບໍດີອາເມຣິກາ ແລະຫ້ອງການບໍລິຫານຂອງສະຫະລັດກ່ຽວກັບດ້ານເທັກໂນໂລຍີ, ວິທະຍາສາດ ແລະວິສະວະກຳຕ່າງໆ ທີ່ມີຄວາມສໍາຄັນແຫ່ງຊາດ. ໃນຄວາມໝາຍດັ່ງກ່າວ, ທ່ານສາມາດເວົ້າໄດ້ວ່າ ຮ່າງກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ນີ້ແມ່ນເອກະສານທີ່ໄດ້ຮັບການອະນຸມັດແລະຮັບຮອງຈາກທຳນຽບຂາວຂອງສະຫະລັດທີ່ມີຢູ່ແລ້ວ.
ໃນບັນຊີລາຍການສິດທິ AI, ມີຫ້າປະເພດແກນ:
- ລະບົບທີ່ປອດໄພແລະມີປະສິດທິພາບ
- ການປົກປ້ອງການຈໍາແນກແບບວິທີ
- ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ
- ແຈ້ງການແລະຄໍາອະທິບາຍ
- ທາງເລືອກຂອງມະນຸດ, ການພິຈາລະນາ, ແລະການຫຼຸດລົງ
ຂ້າພະເຈົ້າໄດ້ທົບທວນຄືນລະມັດລະວັງຄໍາສັ່ງເຫຼົ່ານັ້ນ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.
ຕອນນີ້ຂ້ອຍໄດ້ວາງພື້ນຖານທີ່ເປັນປະໂຫຍດກ່ຽວກັບຫົວຂໍ້ກ່ຽວກັບຈັນຍາບັນຂອງ AI ແລະກົດໝາຍ AI ທີ່ກ່ຽວຂ້ອງເຫຼົ່ານີ້, ພວກເຮົາພ້ອມແລ້ວທີ່ຈະກ້າວເຂົ້າສູ່ຫົວຂໍ້ຫົວເລື່ອງທີ່ວ່າ AI ຄວນມີປ້າຍເຕືອນຫຼືບໍ່.
ຈົ່ງກຽມພ້ອມສໍາລັບການເດີນທາງທີ່ມີຂໍ້ມູນເປີດຕາ.
ການໃສ່ປ້າຍເຕືອນໃສ່ AI ເປັນວິທີການປົກປ້ອງມະນຸດ
ມີສຽງດັງທີ່ເພີ່ມຂຶ້ນເລື້ອຍໆວ່າບາງທີ AI ຄວນມາພ້ອມກັບການເຕືອນບາງປະເພດ.
ຕົວຢ່າງ, ໃນບົດຄວາມທີ່ຜ່ານມາໃນ MIT Technology Review ທີ່ປຶກສາຫາລືກ່ຽວກັບຄວາມສົນໃຈເພີ່ມຂຶ້ນໃນການກວດສອບ AI, ແນວຄວາມຄິດຂອງການສະຫນອງສັນຍານເຕືອນໄພເກີດຂື້ນ: "ການຂະຫຍາຍຕົວຂອງການກວດສອບເຫຼົ່ານີ້ຊີ້ໃຫ້ເຫັນວ່າມື້ຫນຶ່ງພວກເຮົາອາດຈະເຫັນຄໍາເຕືອນແບບຊອງຢາສູບວ່າລະບົບ AI ສາມາດເປັນອັນຕະລາຍຕໍ່ສຸຂະພາບແລະຄວາມປອດໄພຂອງເຈົ້າ. ພາກສ່ວນອື່ນໆ, ເຊັ່ນ: ສານເຄມີແລະອາຫານ, ມີການກວດສອບເປັນປົກກະຕິເພື່ອຮັບປະກັນວ່າຜະລິດຕະພັນມີຄວາມປອດໄພໃນການນໍາໃຊ້. ບາງສິ່ງບາງຢ່າງເຊັ່ນນີ້ອາດຈະກາຍເປັນມາດຕະຖານໃນ AI ບໍ? (MIT Technology Review, Melissa Heikkilä, 24 ຕຸລາ 2022).
ມາລົມກັນເລັກນ້ອຍກ່ຽວກັບສັນຍານເຕືອນ ແລະເຕືອນໄພ.
ພວກເຮົາທຸກຄົນໂດຍທົ່ວໄປແລ້ວແມ່ນຄຸ້ນເຄີຍກັບສັນຍານເຕືອນໄພແລະເຕືອນກ່ຽວກັບຜະລິດຕະພັນແລະການບໍລິການຈໍານວນຫລາຍຂອງທໍາມະຊາດປະຈໍາວັນ. ບາງຄັ້ງປ້າຍຄວາມປອດໄພແມ່ນໄດ້ກໍານົດໄວ້ໃນກົດຫມາຍວ່າມີຄວາມຈໍາເປັນ, ໃນຂະນະທີ່ໃນກໍລະນີອື່ນໆມີການຕັດສິນໃຈທີ່ຈະນໍາໃຊ້ເຄື່ອງຫມາຍດັ່ງກ່າວ. ນອກຈາກນັ້ນ, ບາງປ້າຍຄວາມປອດໄພແມ່ນໄດ້ມາດຕະຖານເຊັ່ນ: ຖືກກໍານົດຕາມມາດຕະຖານ ANSI Z535 ແລະມາດຕະຖານ OSHA 1910.14. ມາດຕະຖານເຫຼົ່ານັ້ນກວມເອົາລັກສະນະເຊັ່ນ: ຄໍາສັບຂອງເຄື່ອງຫມາຍ, ສີແລະຕົວອັກສອນທີ່ໃຊ້, ຮູບຮ່າງຂອງເຄື່ອງຫມາຍ, ແລະລັກສະນະອື່ນໆ.
ມັນເຮັດໃຫ້ຮູ້ສຶກວ່າມີມາດຕະຖານສໍາລັບສັນຍານເຕືອນໄພດັ່ງກ່າວ. ເມື່ອໃດກໍ່ຕາມທີ່ເຈົ້າເຫັນປ້າຍດັ່ງກ່າວ, ຖ້າມັນກົງກັບມາດຕະຖານທີ່ລະບຸໄວ້, ເຈົ້າມັກຈະເຊື່ອວ່າປ້າຍແມ່ນຖືກຕ້ອງ, ບວກກັບເຈົ້າຕ້ອງການການປຸງແຕ່ງສະຕິປັນຍາຫນ້ອຍເພື່ອວິເຄາະແລະເຮັດໃຫ້ຄວາມຮູ້ສຶກຂອງເຄື່ອງຫມາຍ. ສໍາລັບສັນຍານທີ່ບໍ່ແມ່ນວິທີການມາດຕະຖານ, ທ່ານມັກຈະຕ້ອງຄິດໄລ່ຈິດໃຈກ່ຽວກັບສິ່ງທີ່ສັນຍານບອກທ່ານ, ບາງທີອາດສູນເສຍເວລາອັນມີຄ່າໃນການປະຕິບັດຫຼືທ່ານອາດຈະຕັດສິນຜິດກ່ຽວກັບເຄື່ອງຫມາຍແລະບໍ່ສາມາດເຂົ້າໃຈຄໍາເຕືອນໄດ້ຢ່າງຖືກຕ້ອງ.
ຊ່ວງຂອງອາການດັ່ງກ່າວສາມາດມີຢູ່, ເຊິ່ງພວກມັນມັກຈະຖືກຈັດປະເພດບາງຢ່າງເຊັ່ນນີ້:
- ສັນຍານອັນຕະລາຍ: ຄວາມກັງວົນທີ່ສູງທີ່ສຸດແລະຊີ້ໃຫ້ເຫັນເຖິງອັນຕະລາຍທັນທີທີ່ມີຜົນສະທ້ອນຮ້າຍແຮງ.
- ສັນຍານເຕືອນໄພ: ບົ່ງບອກເຖິງອັນຕະລາຍທີ່ໜ້ອຍກວ່າ “ອັນຕະລາຍ” ແຕ່ຍັງຂ້ອນຂ້າງຮ້າຍແຮງ
- ສັນຍານເຕືອນໄພ: ບົ່ງບອກເຖິງອັນຕະລາຍທີ່ອາດມີໜ້ອຍກວ່າ “ຄຳເຕືອນ” ແຕ່ກໍ່ຍັງຈິງຈັງ.
- ສັນຍານແຈ້ງເຕືອນ: ຊີ້ໃຫ້ເຫັນເຖິງການແຈ້ງຂ່າວທີ່ໜ້ອຍກວ່າ “ຄວາມລະມັດລະວັງ” ແຕ່ຍັງມີລັກສະນະທີ່ໜ້າເປັນຫ່ວງ.
ເນື່ອງຈາກພື້ນຖານທີ່ກ່າວມາຂ້າງເທິງນີ້ກ່ຽວກັບການເຕືອນໄພແລະສັນຍານເຕືອນ, ພວກເຮົາສາມາດສືບຕໍ່ເດີນຫນ້າແລະພະຍາຍາມນໍາໃຊ້ນີ້ຕາມສະພາບການກັບການນໍາໃຊ້ AI.
ກ່ອນອື່ນ ໝົດ, ພວກເຮົາສາມາດຕົກລົງກັນໄດ້ວ່າປ້າຍ AI ອາດຈະຢູ່ໃນລະດັບຄວາມຮ້າຍແຮງທີ່ຄ້າຍຄືກັນຕາມປະເພນີທີ່ມີສັນຍານປະຈໍາວັນ, ເຊັ່ນ:
- AI ສັນຍານອັນຕະລາຍ: AI ຂອງຄວາມກັງວົນສູງສຸດແລະຊີ້ໃຫ້ເຫັນເຖິງອັນຕະລາຍທັນທີທີ່ມີຜົນສະທ້ອນຮ້າຍແຮງ
- AI ສັນຍານເຕືອນ: AI ຊີ້ບອກເຖິງອັນຕະລາຍທີ່ໜ້ອຍກວ່າ “ອັນຕະລາຍ” ແຕ່ຍັງຂ້ອນຂ້າງຮ້າຍແຮງ
- AI ສັນຍານເຕືອນໄພ: AI ຊີ້ບອກເຖິງອັນຕະລາຍທີ່ອາດມີໜ້ອຍກວ່າ “ຄຳເຕືອນ” ແຕ່ກໍ່ຍັງຈິງຈັງ
- AI Notification Sign: AI ຊີ້ບອກເຖິງການແຈ້ງຂ່າວທີ່ໜ້ອຍກວ່າ “ຄວາມລະມັດລະວັງ” ແຕ່ຍັງມີລັກສະນະທີ່ໜ້າເປັນຫ່ວງ
ພື້ນຖານແມ່ນວ່າບໍ່ແມ່ນ AI ທັງຫມົດຈະມີຄວາມເປັນຫ່ວງເທົ່າທຽມກັນ. ມັນອາດຈະເປັນວ່າ AI ມີຄວາມສ່ຽງອັນໃຫຍ່ຫຼວງຫຼືພຽງແຕ່ມີຄວາມສ່ຽງເລັກນ້ອຍ. ຕາມນັ້ນແລ້ວ, ປ້າຍຄວນສະທ້ອນເຖິງອັນໃດ. ຖ້າຄໍາເຕືອນ AI ທັງຫມົດຫຼືສັນຍານເຕືອນໄດ້ຖືກສະແດງໃຫ້ເຫັນພຽງແຕ່ວ່າມີຂະຫນາດດຽວກັນ, ພວກເຮົາສົມມຸດວ່າຈະບໍ່ຮູ້ຈັກຫຼືຮູ້ເຖິງວ່າຈະເປັນຫ່ວງຫຼາຍຫຼືພຽງແຕ່ເປັນຫ່ວງເລັກນ້ອຍກ່ຽວກັບ AI. ການນໍາໃຊ້ໂຄງການຄໍາສັບຕ່າງໆທີ່ມີຄວາມຜິດກົດຫມາຍອາດຈະເຮັດໃຫ້ຊີວິດງ່າຍຂຶ້ນໃນເວລາທີ່ເຫັນແລະຕີຄວາມຫມາຍເຕືອນໄພກ່ຽວກັບ AI.
ເຈົ້າອາດຈະສົງໄສວ່າເຄື່ອງໝາຍຈະເວົ້າຫຍັງອີກໃນແງ່ຂອງສະເພາະຂອງຂໍ້ຄວາມທີ່ຈະຖ່າຍທອດ.
ແນ່ນອນວ່າມັນເປັນບັນຫາທີ່ຍາກກວ່າທີ່ຈະແກ້ໄຂ. ຄວາມເປັນໄປໄດ້ຂອງ AI ທີ່ຈະເຮັດສິ່ງຕ່າງໆທີ່ຖືວ່າບໍ່ປອດໄພ ຫຼື ໜ້າເປັນຫ່ວງຈະມີຂະໜາດໃຫຍ່ຫຼວງຫຼາຍ, ເກືອບບໍ່ມີທີ່ສິ້ນສຸດ. ພວກເຮົາສາມາດຕົ້ມພວກມັນເຂົ້າໄປໃນຊຸດປົກກະຕິບາງຢ່າງທີ່ສະກົດຢູ່ໃນພຽງແຕ່ສອງສາມຄໍາ? ຫຼືພວກເຮົາຈະຕ້ອງອະນຸຍາດໃຫ້ມີວິທີການທີ່ມີຮູບແບບທີ່ບໍ່ເສຍຄ່າຫຼາຍຂຶ້ນວ່າຄໍາສັບຈະໄປແນວໃດ?
ຂ້ອຍຈະໃຫ້ເຈົ້າໄຕ່ຕອງຄຳຖາມເປີດນັ້ນ.
ກ້າວຕໍ່ໄປ, ພວກເຮົາມັກຈະເຫັນປ້າຍເຕືອນທີ່ຕິດຢູ່ເທິງວັດຖຸ. ລະບົບ AI ບໍ່ຈໍາເປັນຕ້ອງເປັນ "ວັດຖຸ" ໃນຄວາມຫມາຍດຽວກັນກັບການຕິດປ້າຍຕາມປະເພນີ. ນີ້ເຮັດໃຫ້ເກີດຄໍາຖາມວ່າບ່ອນທີ່ສັນຍານເຕືອນ AI ຈະຖືກນໍາສະເຫນີ.
ມັນອາດຈະເປັນເວລາທີ່ທ່ານກໍາລັງແລ່ນແອັບຯໃນໂທລະສັບສະຫຼາດຂອງທ່ານວ່າຖ້າມັນໃຊ້ AI ຈະມີຂໍ້ຄວາມທີ່ສະແດງໃຫ້ເຫັນວ່າມີຄໍາເຕືອນທີ່ກ່ຽວຂ້ອງກັບ AI. ແອັບຈະແຈ້ງເຕືອນທ່ານກ່ຽວກັບການນຳໃຊ້ AI ພື້ນຖານ. ນີ້ອາດຈະເປັນຂໍ້ຄວາມທີ່ປາກົດຂຶ້ນຫຼືອາດຈະຖືກນໍາສະເຫນີໃນຫຼາຍວິທີທາງສາຍຕາແລະແມ້ກະທັ້ງການຟັງ.
ຍັງມີສະຖານະການທີ່ທ່ານໃຊ້ການບໍລິການທີ່ສະຫນັບສະຫນູນໂດຍ AI, ເຖິງແມ່ນວ່າທ່ານອາດຈະບໍ່ໄດ້ພົວພັນກັບ AI ໂດຍກົງ. ຕົວຢ່າງ, ເຈົ້າສາມາດສົນທະນາກັບຕົວແທນຂອງມະນຸດກ່ຽວກັບການກູ້ຢືມເຮືອນ, ເຊິ່ງຕົວແທນແມ່ນຢູ່ເບື້ອງຫຼັງຢ່າງງຽບໆໂດຍໃຊ້ລະບົບ AI ເພື່ອນໍາພາຄວາມພະຍາຍາມຂອງເຂົາເຈົ້າ.
ດັ່ງນັ້ນ, ພວກເຮົາຄວນຈະຄາດຫວັງວ່າສັນຍານເຕືອນ AI ຄວນຈະມີຢູ່ໃນທັງສອງກໍລະນີການນໍາໃຊ້ AI, ເຊັ່ນວ່າ:
- AI ສະເພາະຜະລິດຕະພັນ: AI ເປັນຜະລິດຕະພັນຄວນຈະມີ AI ເຕືອນຫຼືສັນຍານເຕືອນໄພ
- AI ທີ່ເນັ້ນການບໍລິການ: AI ເປັນບໍລິການ (ໂດຍກົງຫຼືທາງອ້ອມ) ຄວນມີ AI ເຕືອນຫຼືສັນຍານເຕືອນ
ບໍ່ຄ່ອຍເຊື່ອງ່າຍໆແນ່ນອນຈະແນະນໍາວ່າປ້າຍເຕືອນ AI ອາດຈະຖືກປອມຕົວໂດຍຜູ້ຜະລິດແອັບຯເພື່ອບໍ່ໃຫ້ການແຈ້ງເຕືອນໂດຍສະເພາະ. ບາງທີການເຕືອນໄພປະກົດຂຶ້ນໃນເວລາສັ້ນໆແລະທ່ານກໍ່ບໍ່ສັງເກດເຫັນວ່າມັນສະແດງໃຫ້ເຫັນ. ເຄັດລັບທີ່ຫຼອກລວງອີກອັນໜຶ່ງແມ່ນການສ້າງເກມປະເພດໜຶ່ງອອກຈາກມັນ, ເບິ່ງຄືວ່າເປັນການຫຼຸດຄວາມຮ້າຍແຮງຂອງການແຈ້ງເຕືອນ ແລະ ຊັກຊວນຄົນໃຫ້ຄິດວ່າການເຕືອນນັ້ນບໍ່ເປັນຜົນຕາມມາ.
ແມ່ນແລ້ວ, ທ່ານສາມາດວາງເດີມພັນໄດ້ຫຼາຍວ່າສັນຍານເຕືອນໄພທີ່ກ່ຽວຂ້ອງກັບ AI ຈະຖືກຫຼອກລວງແລະໃຊ້ໃນທາງທີ່ບໍ່ຢູ່ໃນຈິດໃຈແລະຄວາມຕັ້ງໃຈຂອງຂໍ້ຄວາມເຕືອນທີ່ເຂົາເຈົ້າຄວນຈະຖ່າຍທອດ.
ຄວາມບໍ່ຄ່ອຍເຊື່ອງ່າຍໆເຫຼົ່ານັ້ນໄດ້ກວມເອົາວ່າພວກເຮົາຈະໃຊ້ຈັນຍາບັນ AI ເປັນ "ກົດຫມາຍອ່ອນ" ເພື່ອພະຍາຍາມແລະຊຸກຍູ້ການເຕືອນໄພທີ່ກ່ຽວຂ້ອງກັບ AI, ຫຼືວ່າພວກເຮົາຈະນໍາໃຊ້ "ກົດຫມາຍແຂງ" ລວມທັງກົດຫມາຍທີ່ຖືກກົດຫມາຍທີ່ມີການສະຫນັບສະຫນູນຂອງສານ. ໃນທາງທິດສະດີ, ການຊຸກຍູ້ກົດ ໝາຍ ອ່ອນໆຈະຊ່ວຍໃຫ້ມີຄວາມຄ້າຍຄືກັນກັບເລື່ອງ, ໃນຂະນະທີ່ກົດ ໝາຍ ໃນປື້ມຈະມາພ້ອມກັບທ່າແຮງໃນການບັງຄັບໃຊ້ຂອງລັດຖະບານແລະເຮັດໃຫ້ມີຄວາມເຂັ້ມງວດຫຼາຍຂຶ້ນ.
ຄວາມກັງວົນອີກຢ່າງຫນຶ່ງແມ່ນວ່າປ້າຍ AI ຈະສ້າງຄວາມແຕກຕ່າງໃດໆ.
ການຄົ້ນຄວ້າຫຼາຍຢ່າງກ່ຽວກັບພຶດຕິກໍາຂອງຜູ້ບໍລິໂພກມີແນວໂນ້ມທີ່ຈະສະແດງໃຫ້ເຫັນຜົນໄດ້ຮັບທີ່ຂີ້ຕົວະໃນເວລາທີ່ມັນມາກັບການສະຫນອງປ້າຍເຕືອນສໍາລັບຜູ້ບໍລິໂພກ. ບາງຄັ້ງການເຕືອນໄພແມ່ນມີປະສິດທິຜົນ, ບາງຄັ້ງບໍ່ໄດ້. ໃຫ້ນໍາໃຊ້ບາງການຄົ້ນຄວ້ານັ້ນກັບສະພາບການ AI.
ພິຈາລະນາລັກສະນະເຫຼົ່ານີ້:
- ການຊອກຄົ້ນຫາ: ຜູ້ທີ່ໃຊ້ AI ທີ່ມີສັນຍານເຕືອນໄພ AI ທີ່ສາມາດສັງເກດເຫັນໄດ້ຢ່າງຈິງຈັງຫຼືກວດພົບວ່າເຄື່ອງຫມາຍຖືກສະແດງໃຫ້ພວກເຂົາ (ສົມມຸດວ່າປ້າຍດັ່ງກ່າວເກີດຂຶ້ນ) ບໍ?
- ຄວາມເຂົ້າໃຈ: ສໍາລັບຜູ້ທີ່ສັງເກດເຫັນ, ພວກເຂົາຈະເຂົ້າໃຈຫຼືເຂົ້າໃຈສິ່ງທີ່ເຄື່ອງຫມາຍເຕືອນ AI ພະຍາຍາມແນະນໍາພວກເຂົາບໍ?
- ປະຕິບັດງານ: ສໍາລັບຜູ້ທີ່ເຮັດໃຫ້ຈິດໃຈກ້າວກະໂດດ, ສັນຍານເຕືອນ AI ຈະກະຕຸ້ນໃຫ້ພວກເຂົາປະຕິບັດຫຼືເຮັດຫນ້າທີ່ເພື່ອແນະນໍາພຶດຕິກໍາຂອງພວກເຂົາຕາມຄວາມເຫມາະສົມ?
ທ່ານສາມາດຄາດເດົາໄດ້ວ່າຖ້າມີສັນຍານເຕືອນໄພ AI, ນັກຄົ້ນຄວ້າຈະສຶກສາຢ່າງໃກ້ຊິດກ່ຽວກັບເລື່ອງນີ້. ແນວຄວາມຄິດທີ່ຈະຊ່ວຍໃຫ້ຄວາມກະຈ່າງແຈ້ງພາຍໃຕ້ສະຖານະການທີ່ຄໍາເຕືອນແມ່ນເປັນປະໂຫຍດແລະໃນເວລາທີ່ມັນບໍ່ແມ່ນ. ນີ້ໃນແລະເຮັດໃຫ້ການກ່ຽວຂ້ອງກັບການອອກແບບແລະເບິ່ງແລະມີຄວາມຮູ້ສຶກມີສ່ວນຮ່ວມ. ພວກເຮົາຍັງອາດຈະຄາດຫວັງວ່າປະຊາຊົນໃນຈໍານວນຫຼວງຫຼາຍຈະຕ້ອງໄດ້ຮັບການສຶກສາຫຼືແຈ້ງໃຫ້ຊາບກ່ຽວກັບການປະກົດຕົວຂອງສັນຍານເຕືອນ AI ແລະເຕືອນໄພເຫຼົ່ານີ້ເພື່ອໃຫ້ພວກເຂົາຄຸ້ນເຄີຍກັບພວກມັນ.
ມີການບິດເບືອນຫຼາຍຢ່າງທີ່ຈະພິຈາລະນາ.
ຄວນເຕືອນ AI ຫຼືສັນຍານເຕືອນໄພເກີດຂຶ້ນພຽງແຕ່ໃນຕອນເລີ່ມຕົ້ນຂອງ app ທີ່ຖືກນໍາໃຊ້? ບາງທີຈຸດເລີ່ມຕົ້ນບໍ່ພຽງພໍດ້ວຍຕົວມັນເອງ. ຄົນເຮົາເບິ່ງທຳອິດອາດຈະຄິດວ່າແອັບນີ້ກຳລັງຫຼິ້ນມັນຢ່າງປອດໄພໂດຍການໃຊ້ຄຳເຕືອນ, ແລະດັ່ງນັ້ນຈຶ່ງບໍ່ສົນໃຈຄຳເຕືອນຫຼາຍ. ເມື່ອບຸກຄົນນັ້ນຢູ່ເຄິ່ງກາງໃນການນໍາໃຊ້ app, ບາງທີອາດມີຄໍາເຕືອນເພີ່ມເຕີມຈະໄດ້ຮັບການຮັບປະກັນ. ໃນຊ່ວງເວລານັ້ນ, ບຸກຄົນນັ້ນຮູ້ຫຼາຍຂຶ້ນກ່ຽວກັບສິ່ງທີ່ app ກໍາລັງປະຕິບັດແລະພວກເຂົາອາດຈະລືມກ່ຽວກັບຂໍ້ຄວາມເຕືອນທີ່ລະບຸໄວ້ກ່ອນຫນ້ານີ້.
ການເຕືອນຫຼືເຕືອນ AI ອາດຈະເກີດຂື້ນ:
- ກ່ອນທີ່ຈະເລີ່ມຕົ້ນ app ແລະພຽງແຕ່ເປັນ app ແມ່ນກໍາລັງຈະໄດ້ຮັບການເອີ້ນ
- ນໍາສະເຫນີເມື່ອ app ໄດ້ຖືກເລີ່ມຕົ້ນແລະພຽງແຕ່ຢູ່ໃນຈຸດເລີ່ມຕົ້ນ
- ສະແດງໃຫ້ເຫັນໃນຕອນເລີ່ມຕົ້ນແລະອີກເທື່ອຫນຶ່ງໃນໄລຍະກາງ
- ສະແດງໃຫ້ເຫັນຫຼາຍຄັ້ງຕະຫຼອດການນໍາໃຊ້ AI
- ໃຫ້ໃນຕອນທ້າຍຂອງການນໍາໃຊ້ app ໄດ້
- ສະໜອງໃຫ້ຫຼັງຈາກອອກຈາກແອັບ ແລະ ອາດຈະເປັນນາທີ, ຊົ່ວໂມງ, ຫຼືມື້ຕໍ່ມາ
- ແລະອື່ນໆ
ທ່ານຄິດວ່າຜູ້ທີ່ໃຊ້ AI ຕ້ອງການຢືນຢັນຫຼືຮັບຮູ້ການເຕືອນ AI ຫຼືສັນຍານເຕືອນໄພດັ່ງກ່າວບໍ?
ບາງຄົນຈະຮຽກຮ້ອງໃຫ້ຄົນນັ້ນຕ້ອງຮັບຮູ້ວ່າເຂົາເຈົ້າໄດ້ເຫັນຄຳເຕືອນ. ອັນນີ້ອາດຈະຂັດຂວາງຜູ້ທີ່ອາດຈະອ້າງວ່າບໍ່ມີຂໍ້ຄວາມເຕືອນໃດໆ. ມັນຍັງສາມາດເຮັດໃຫ້ປະຊາຊົນເອົາຂໍ້ຄວາມຢ່າງຈິງຈັງ, ເນື່ອງຈາກພວກເຂົາຖືກຮ້ອງຂໍໃຫ້ຢືນຢັນວ່າພວກເຂົາສັງເກດເຫັນຕົວຊີ້ບອກເຕືອນ.
ນີ້ແມ່ນຄໍາຖາມທີ່ຍາກສໍາລັບທ່ານ.
ຄວນ ທັງຫມົດ AI ຕ້ອງໃຫ້ຄໍາເຕືອນຫຼືຕົວຊີ້ບອກຄວາມປອດໄພບໍ?
ທ່ານອາດຈະໂຕ້ຖຽງວ່າແມ່ນແລ້ວ, AI ທັງຫມົດຕ້ອງມີສິ່ງນີ້. ເຖິງແມ່ນວ່າ AI ແມ່ນພຽງແຕ່ຄວາມສ່ຽງດ້ານຄວາມປອດໄພ, ມັນຄວນຈະມີບາງຮູບແບບຂອງສັນຍານເຕືອນ, ອາດຈະເປັນພຽງແຕ່ການແຈ້ງເຕືອນຫຼືຕົວຊີ້ບອກຂໍ້ມູນ. ຄົນອື່ນຈະໂຕ້ແຍ້ງການຂັດແຍ້ງນີ້. ເຂົາເຈົ້າຈະໂຕ້ແຍ້ງວ່າເຈົ້າຈະຂ້າມເຮືອໄປ. ບໍ່ແມ່ນ AI ທັງຫມົດຕ້ອງການນີ້. ນອກຈາກນັ້ນ, ຖ້າທ່ານບັງຄັບໃຫ້ AI ທັງຫມົດມີມັນ, ທ່ານຈະເຈືອຈາງຈຸດປະສົງ. ຜູ້ຄົນຈະມຶນງົງເມື່ອເຫັນສັນຍານເຕືອນໄພ. ວິທີການທັງຫມົດຈະກາຍເປັນ farce.
ໃນມຸມທີ່ກ່ຽວຂ້ອງ, ພິຈາລະນາສິ່ງທີ່ຜູ້ຜະລິດ AI ມີແນວໂນ້ມທີ່ຈະເວົ້າ.
ທັດສະນະຫນຶ່ງອາດຈະເປັນວ່ານີ້ແມ່ນຄວາມເຈັບປວດໃນສິ່ງທີ່ເຈົ້າຮູ້ - ສິ່ງທີ່ຄວນເອົາໃຈໃສ່. ມີການປ່ຽນແປງລະບົບ AI ທັງຫມົດຂອງທ່ານແລະເພີ່ມຄຸນສົມບັດນີ້ອາດຈະເປັນຄ່າໃຊ້ຈ່າຍຫຼາຍ. ການເພີ່ມມັນບົນພື້ນຖານກ້າວໄປຂ້າງຫນ້າອາດຈະມີຄ່າໃຊ້ຈ່າຍຫນ້ອຍ, ເຖິງແມ່ນວ່າຢ່າງໃດກໍ່ຕາມມັນມີຄ່າໃຊ້ຈ່າຍທີ່ກ່ຽວຂ້ອງກັບການສະຫນອງນີ້.
ຄວາມຂີ້ຄ້ານແມ່ນເປັນຄໍາຮ້ອງທຸກທີ່ເປັນໄປໄດ້ອີກອັນໜຶ່ງ. ຂໍ້ຄວາມປະເພດໃດທີ່ຕ້ອງການສະແດງ? ຖ້າບໍ່ມີມາດຕະຖານໃດໆ, ນີ້ຫມາຍຄວາມວ່າຜູ້ຜະລິດ AI ຈະຕ້ອງສ້າງສິ່ງໃຫມ່. ບໍ່ພຽງແຕ່ຄ່າໃຊ້ຈ່າຍເພີ່ມເຕີມນີ້, ມັນອາດຈະເປີດປະຕູໃຫ້ໄດ້ຮັບການຟ້ອງຮ້ອງ. ທ່ານສາມາດຈິນຕະນາການວ່າຜູ້ຜະລິດ AI ອາດຈະຖືກປະຕິບັດຫນ້າທີ່ເຕືອນໄພຂອງພວກເຂົາບໍ່ດີເທົ່າກັບລະບົບ AI ອື່ນໆ. ທະນາຍຄວາມຈະສິ້ນສຸດເຖິງການສ້າງມັດຈາກຄວາມສັບສົນທີ່ເກີດຂື້ນ.
ຍັງມີຄວາມກັງວົນວ່າປະຊາຊົນຈະຢ້ານເກີນໄປຈາກຂໍ້ຄວາມຄວາມປອດໄພເຫຼົ່ານີ້.
ຜູ້ຜະລິດ AI ອາດຈະເຫັນການຫຼຸດລົງຢ່າງຫຼວງຫຼາຍຂອງຈໍານວນຜູ້ໃຊ້ເນື່ອງຈາກຂໍ້ຄວາມຄວາມປອດໄພທີ່ມີຈຸດປະສົງເພື່ອສະຫນອງການລະມັດລະວັງຂໍ້ມູນ. ຄົນຈະບໍ່ຮູ້ວ່າຈະສ້າງຂໍ້ຄວາມຫຍັງ. ຖ້າພວກເຂົາບໍ່ເຄີຍເຫັນຂໍ້ຄວາມດັ່ງກ່າວມາກ່ອນ, ພວກເຂົາອາດຈະຮູ້ສຶກຕົກໃຈໃນທັນທີແລະຫຼີກເວັ້ນການນໍາໃຊ້ AI ໂດຍບໍ່ຈໍາເປັນ.
ຂ້າພະເຈົ້າກ່າວເຖິງລັກສະນະເຫຼົ່ານັ້ນເພາະວ່າບາງຄົນປະກາດແລ້ວວ່າ "ມັນບໍ່ສາມາດທໍາຮ້າຍໄດ້" ເພື່ອເລີ່ມຕົ້ນລວມທັງຄໍາເຕືອນ AI ຫຼືຂໍ້ຄວາມຄວາມປອດໄພ. ສໍາລັບພວກເຂົາ, ແນວຄວາມຄິດແມ່ນເຫມາະສົມຄືກັບຫມາກໂປມ. ບໍ່ມີໃຜສາມາດປະຕິເສດຢ່າງຈິງຈັງກ່ຽວກັບຜົນປະໂຫຍດຂອງການຮຽກຮ້ອງໃຫ້ມີຄວາມປອດໄພຫຼືຄໍາເຕືອນທີ່ກ່ຽວຂ້ອງກັບ AI ສະເຫມີ. ແຕ່ແນ່ນອນ, ມັນບໍ່ແມ່ນວິທີການຄິດທີ່ແທ້ຈິງຂອງໂລກ.
ທ່ານຍັງສາມາດໄປຕື່ມອີກແລະອ້າງວ່າຂໍ້ຄວາມເຕືອນ AI ສາມາດສ້າງຮູບແບບຂອງ hysteria ມະຫາຊົນ. ຖ້າພວກເຮົາທຸກຄົນເລີ່ມບັງຄັບໃຫ້ລະບົບ AI ມີຂໍ້ຄວາມດັ່ງກ່າວຢ່າງກະທັນຫັນ, ຄົນເຮົາສາມາດເຂົ້າໃຈຜິດໄດ້. ເຈົ້າເຫັນ, ມີຫຼາຍ ຄຳ ແນະ ນຳ ທີ່ພວກເຮົາກໍາລັງປະເຊີນກັບວິກິດການທີ່ມີຢູ່ແລ້ວຂອງ AI, ເຊິ່ງ AI ຈະຄອບຄອງໂລກແລະລົບລ້າງມະນຸດ, ເບິ່ງ. ການເຊື່ອມຕໍ່ທີ່ນີ້ ສໍາລັບການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບປະເພດຂອງການຮຽກຮ້ອງເຫຼົ່ານັ້ນ.
ການໃຊ້ຂໍ້ຄວາມເຕືອນ AI ອາດຈະ "ດົນໃຈ" ບາງຄົນໃຫ້ເຊື່ອວ່າຈຸດຈົບແມ່ນຢູ່ໃກ້. ເປັນຫຍັງຂໍ້ຄວາມອື່ນຈຶ່ງຈະປາກົດໃນຕອນນີ້? ແນ່ນອນ, ມັນເປັນຕົວຊີ້ບອກວ່າສຸດທ້າຍ, AI ກໍາລັງກຽມພ້ອມທີ່ຈະກາຍເປັນຜູ້ປົກຄອງທີ່ຂົ່ມເຫັງຂອງພວກເຮົາ.
ປະເພດຂອງຜົນທີ່ເສື່ອມເສຍຢ່າງສິ້ນຫວັງຂອງການພະຍາຍາມເຮັດສິ່ງທີ່ຖືກຕ້ອງໂດຍການເຮັດໃຫ້ສາທາລະນະຮູ້ວ່າ AI ສາມາດຖືກບັນຈຸກັບຄວາມສາມາດຈໍາແນກຫຼືອື່ນໆ. AI ສໍາລັບບໍ່ດີ ດ້ານຕ່າງໆ.
ສະຫຼຸບ
James Russell Lowell, ນັກກະວີທີ່ມີຊື່ສຽງຂອງຊາວອາເມລິກາ, ເຄີຍເວົ້າເລື່ອງນີ້ວ່າ: "ປະສົບການຫນຶ່ງຂອງໜາມແມ່ນສົມຄວນທີ່ຈະເຕືອນໄພປ່າທໍາມະຊາດ."
ຂ້າພະເຈົ້າຍົກເອົາຂໍ້ສັງເກດອັນສູງສົ່ງເພື່ອໃຫ້ຄໍາເຫັນສະຫຼຸບສອງສາມຢ່າງກ່ຽວກັບເລື່ອງຂອງຄໍາເຕືອນ AI ຫຼືຂໍ້ຄວາມຄວາມປອດໄພ.
ໂອກາດແມ່ນວ່າຈົນກ່ວາພວກເຮົາມີຄວາມເຂົ້າໃຈຢ່າງກວ້າງຂວາງກ່ຽວກັບ AI ເຮັດການກະທໍາທີ່ບໍ່ດີ, ມັນຈະບໍ່ມີສຽງຮ້ອງຫຼາຍສໍາລັບຂໍ້ຄວາມເຕືອນທີ່ກ່ຽວຂ້ອງກັບ AI. ຜູ້ຜະລິດ AI ເຫຼົ່ານັ້ນທີ່ເລືອກທີ່ຈະເຮັດແນວນັ້ນດ້ວຍຄວາມສະໝັກໃຈບາງທີອາດຈະໄດ້ຮັບການຊົມເຊີຍ, ເຖິງແມ່ນວ່າພວກເຂົາອາດຈະພົບວ່າຕົນເອງຖືກຂົ່ມເຫັງທີ່ບໍ່ຍຸດຕິທໍາໂດຍບໍ່ໄດ້ຕັ້ງໃຈ. ນັກສຶກສາບາງຄົນອາດຈະຕິດຕາມພວກເຂົາເພື່ອໃຊ້ປະໂຫຍດຈາກ AI ທີ່ເບິ່ງຄືວ່າຕ້ອງການການເຕືອນໄພ, ເພື່ອເລີ່ມຕົ້ນດ້ວຍ, ໃນຂະນະດຽວກັນ, ການລະເລີຍທີ່ຈະຮັບຮູ້ວ່າພວກເຂົາພະຍາຍາມໄປກ່ອນແລະຜູ້ຜະລິດ AI ອື່ນໆທັງຫມົດແມ່ນຊັກຊ້າ.
Darned ຖ້າຫາກວ່າທ່ານເຮັດ, ບາງທີອາດຈະບໍ່ darned ຖ້າຫາກວ່າທ່ານບໍ່ໄດ້.
ການພິຈາລະນາອີກອັນໜຶ່ງເວົ້າເຖິງການຫັນສິ່ງທີ່ເບິ່ງຄືວ່າເປັນແນວຄວາມຄິດທີ່ດີ ໄປສູ່ການປະຕິບັດຕົວຈິງ ແລະເປັນປະໂຫຍດ. ມັນງ່າຍທີ່ຈະໂບກມືຂອງເຈົ້າແລະຮ້ອງອອກມາຢ່າງຈະແຈ້ງຕໍ່ລົມວ່າ AI ຄວນມີຂໍ້ຄວາມເຕືອນໄພແລະຄວາມປອດໄພ. ພາກສ່ວນທີ່ຍາກແມ່ນເກີດຂື້ນໃນເວລາທີ່ຕັດສິນໃຈວ່າຂໍ້ຄວາມເຫຼົ່ານັ້ນຄວນຈະເປັນແນວໃດ, ເວລາໃດແລະບ່ອນທີ່ພວກເຂົາຄວນຈະຖືກນໍາສະເຫນີ, ບໍ່ວ່າຈະເປັນຫຼືລະດັບໃດທີ່ຄ່າໃຊ້ຈ່າຍຂອງພວກເຂົາໄດ້ຮັບຜົນປະໂຫຍດພຽງພໍ, ແລະອື່ນໆ.
ໃນທີ່ນີ້ພວກເຮົາຈະໃຫ້ James Russell Lowell ເປັນຄໍາສຸດທ້າຍ ( poetically ດັ່ງນັ້ນ) ກ່ຽວກັບຫົວຂໍ້ນີ້ສໍາລັບໃນປັດຈຸບັນ: "ຄວາມຄິດສ້າງສັນບໍ່ແມ່ນການຊອກຫາຂອງສິ່ງຫນຶ່ງ, ແຕ່ການເຮັດໃຫ້ບາງສິ່ງບາງຢ່າງອອກຈາກມັນຫຼັງຈາກມັນພົບເຫັນ."
ເດົາວ່າມັນເປັນເວລາທີ່ຈະມ້ວນແຂນຂອງພວກເຮົາແລະໄປເຮັດວຽກກ່ຽວກັບການນີ້. ແລະນັ້ນບໍ່ພຽງແຕ່ເປັນການເຕືອນໄພ, ມັນເປັນການກະທໍາ.
ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- ຄຳເຕືອນ-on-all-existing-and-future-ai/