ນີ້ແມ່ນເຫດຜົນທີ່ນັກທຸລະກິດມີຄວາມສໍາພັນຄວາມຮັກ - ຄວາມກຽດຊັງທີ່ສັບສົນກັບກະດານຈັນຍາບັນ AI

ທຸລະກິດຄວນສ້າງຕັ້ງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ບໍ?

ເຈົ້າອາດຈະຕົກຕະລຶງທີ່ຮູ້ວ່ານີ້ບໍ່ແມ່ນຄຳຕອບທີ່ງ່າຍ ຫຼື ບໍ່.

ກ່ອນທີ່ຂ້ອຍຈະເຂົ້າໄປໃນຄວາມສັບສົນທີ່ຕິດພັນກັບຂໍ້ດີແລະຂໍ້ເສຍຂອງການຈັດວາງຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI, ໃຫ້ແນ່ໃຈວ່າພວກເຮົາທັງຫມົດຢູ່ໃນຫນ້າດຽວກັນກັບສິ່ງທີ່ຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ປະກອບດ້ວຍແລະເປັນຫຍັງມັນຈຶ່ງເພີ່ມຂຶ້ນໃນລະດັບຫົວຂໍ້. ຊື່ສຽງ.

ດັ່ງທີ່ທຸກຄົນຮູ້, Artificial Intelligence (AI) ແລະການນໍາໃຊ້ຕົວຈິງຂອງ AI ສໍາລັບກິດຈະກໍາທາງທຸລະກິດໄດ້ຜ່ານມຸງເປັນສິ່ງທີ່ຕ້ອງມີສໍາລັບບໍລິສັດທີ່ທັນສະໄຫມ. ເຈົ້າຈະແຂງກະດ້າງທີ່ຈະໂຕ້ແຍ້ງຢ່າງອື່ນ. ໃນລະດັບໃດຫນຶ່ງ, ້ໍາຕົ້ມຂອງ AI ໄດ້ເຮັດໃຫ້ຜະລິດຕະພັນແລະການບໍລິການທີ່ດີກວ່າ, ບວກກັບບາງຄັ້ງເຮັດໃຫ້ຄ່າໃຊ້ຈ່າຍຕ່ໍາທີ່ກ່ຽວຂ້ອງກັບການສະຫນອງຜະລິດຕະພັນແລະການບໍລິການດັ່ງກ່າວ. ບັນຊີລາຍຊື່ອັນດີຂອງປະສິດທິພາບ ແລະ ປະສິດທິພາບທີ່ເພີ່ມຂຶ້ນສາມາດເປັນປັດໄຈທີ່ອາດມີຢູ່ໃນການນໍາໃຊ້ທີ່ເໝາະສົມ ແລະ ເໝາະສົມຂອງ AI. ໃນສັ້ນ, ການເພີ່ມຫຼືການຂະຫຍາຍສິ່ງທີ່ທ່ານເຮັດໂດຍການລວມເອົາ AI ສາມາດເປັນຂໍ້ສະເຫນີທີ່ມີກໍາໄລຫຼາຍ.

ຍັງມີສິ່ງທີ່ພວກເຮົາຈະເວົ້າ splash ໃຫຍ່ ທີ່ມາພ້ອມກັບການເພີ່ມ AI ເຂົ້າໃນຄວາມພະຍາຍາມຂອງບໍລິສັດຂອງທ່ານ.

ທຸລະກິດມີສຽງດັງແລະພູມໃຈໃນການນໍາໃຊ້ AI ຂອງເຂົາເຈົ້າ. ຖ້າ AI ເກີດຂຶ້ນເພື່ອປັບປຸງເຄື່ອງຂອງຂອງເຈົ້າ, ມັນດີຫຼາຍ. ໃນຂະນະດຽວກັນ, ການຮຽກຮ້ອງຂອງການໃຊ້ AI ແມ່ນການດຶງດູດຄວາມສົນໃຈຢ່າງພຽງພໍທີ່ເຈົ້າສາມາດເຮັດສິ່ງດຽວກັນທີ່ເຈົ້າໄດ້ເຮັດກ່ອນ, ແຕ່ເກັບເງິນຫຼາຍຫຼືຕາຫຼາຍໂດຍການຖິ້ມໃສ່ປ້າຍໂຄສະນາຂອງ AI ເປັນສ່ວນຫນຶ່ງຂອງຍຸດທະສາດທຸລະກິດຂອງທ່ານແລະອອກ. ສິນຄ້າປະຕູ.

ຈຸດສຸດທ້າຍນັ້ນກ່ຽວກັບບາງຄັ້ງການພິຈາລະນາເລັກນ້ອຍກ່ຽວກັບວ່າ AI ຖືກໃຊ້ແທ້ໆເຮັດໃຫ້ພວກເຮົາເຂົ້າໄປໃນສະຫນາມກິລາຂອງຈັນຍາບັນ AI. ມີການອ້າງສິດທີ່ບໍ່ຖືກຕ້ອງທັງໝົດກ່ຽວກັບ AI ໂດຍທຸລະກິດ. ຮ້າຍແຮງກວ່າເກົ່າ, ບາງທີອາດ, ປະກອບດ້ວຍການນໍາໃຊ້ AI ທີ່ປ່ຽນເປັນອັນທີ່ເອີ້ນວ່າ AI ສໍາລັບບໍ່ດີ.

ຕົວຢ່າງ, ເຈົ້າໄດ້ອ່ານຢ່າງບໍ່ຕ້ອງສົງໄສກ່ຽວກັບຫຼາຍໆກໍລະນີຂອງລະບົບ AI ໂດຍໃຊ້ Machine Learning (ML) ຫຼື Deep Learning (DL) ທີ່ມີອະຄະຕິທາງເຊື້ອຊາດ, ຄວາມອະຄະຕິທາງເພດ, ແລະການປະຕິບັດການຈໍາແນກທີ່ບໍ່ເຫມາະສົມອື່ນໆ. ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບເລື່ອງເຫຼົ່ານີ້ທີ່ກ່ຽວຂ້ອງກັບ AI ທີ່ບໍ່ດີແລະການປະກົດຕົວຂອງການຮຽກຮ້ອງກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ດັ່ງນັ້ນ, ພວກເຮົາມີຕົວຂັບສົ້ມເຫຼົ່ານີ້ທີ່ເຊື່ອງໄວ້ພາຍໃນການນໍາໃຊ້ AI ທີ່ເບິ່ງຄືວ່າມີຊີວິດຊີວາໂດຍທຸລະກິດ:

  • ການອ້າງວ່າເປັນຮູຂອງການໃຊ້ AI ເມື່ອຄວາມຈິງແລ້ວບໍ່ມີ AI ຫຼື AI infusion ທີ່ບໍ່ສໍາຄັນ
  • ການອ້າງສິດທີ່ບໍ່ຖືກຕ້ອງກ່ຽວກັບການນໍາໃຊ້ AI ທີ່ມີຈຸດປະສົງເພື່ອຫຼອກລວງ
  • ການລວມເອົາ AI ໂດຍບໍ່ຕັ້ງໃຈທີ່ເຮັດໃຫ້ເກີດຄວາມບໍ່ອຽງທີ່ບໍ່ເໝາະສົມ ແລະເປັນການຈຳແນກ.
  • AI ສ້າງຮູບຊົງຢ່າງຕັ້ງໃຈເພື່ອປະກາດຄວາມລຳອຽງທີ່ບໍ່ດີ ແລະ ການກະທຳຈຳແນກທີ່ໜ້າລັງກຽດ
  • ອື່ນ ໆ

ປະເພດຂອງການປະຕິບັດທີ່ບໍ່ມີຄວາມຄິດຫຼືຫນ້າກຽດເຫຼົ່ານີ້ເກີດຂື້ນໃນບໍລິສັດແນວໃດ?

ສິ່ງໜຶ່ງທີ່ໂດດເດັ່ນຂອງການປິດສະໜາແມ່ນການຂາດຄວາມຮູ້ດ້ານຈັນຍາບັນຂອງ AI.

ຜູ້ບໍລິຫານລະດັບສູງອາດຈະບໍ່ຮູ້ເຖິງແນວຄິດຂອງການສ້າງ AI ທີ່ປະຕິບັດຕາມຫຼັກຈັນຍາບັນຂອງ AI. ນັກພັດທະນາ AI ໃນບໍລິສັດດັ່ງກ່າວອາດຈະມີຄວາມຮັບຮູ້ບາງຢ່າງກ່ຽວກັບເລື່ອງນີ້, ເຖິງແມ່ນວ່າພວກເຂົາພຽງແຕ່ຄຸ້ນເຄີຍກັບທິດສະດີຈັນຍາບັນຂອງ AI ແລະບໍ່ຮູ້ວິທີການສ້າງຊ່ອງຫວ່າງໃນຄວາມພະຍາຍາມພັດທະນາ AI ປະຈໍາວັນ. ຍັງມີສະຖານະການຂອງນັກພັດທະນາ AI ທີ່ຕ້ອງການຮັບເອົາຈັນຍາບັນ AI ແຕ່ຫຼັງຈາກນັ້ນໄດ້ຮັບການຊຸກຍູ້ຢ່າງແຂງແຮງເມື່ອຜູ້ຈັດການແລະຜູ້ບໍລິຫານເຊື່ອວ່ານີ້ຈະຊ້າລົງໂຄງການ AI ຂອງພວກເຂົາແລະເພີ່ມຄ່າໃຊ້ຈ່າຍໃນການອອກແບບ AI.

ຜູ້ບໍລິຫານລະດັບສູງຫຼາຍຄົນບໍ່ຮູ້ວ່າການຂາດການປະຕິບັດຕາມຈັນຍາບັນຂອງ AI ອາດຈະສິ້ນສຸດເຖິງການເຕະພວກເຂົາແລະບໍລິສັດໃນດ້ານຫລັງຂອງພວກເຂົາເມື່ອການປ່ອຍ AI ທີ່ເຕັມໄປດ້ວຍບັນຫາທີ່ຂີ້ຮ້າຍແລະຂີ້ຮ້າຍທັງຫມົດ. ບໍ​ລິ​ສັດ​ສາ​ມາດ​ໄດ້​ຮັບ​ການ​ຈັບ​ໄດ້​ກັບ AI ທີ່​ບໍ່​ດີ​ໃນ​ທ່າມ​ກາງ​ຂອງ​ຕົນ​ທີ່​ຈະ​ທໍາ​ລາຍ​ຊື່​ສຽງ​ທີ່​ມີ​ມາ​ດົນ​ນານ​ຂອງ​ບໍ​ລິ​ສັດ (ຄວາມສ່ຽງຊື່ສຽງ). ລູກຄ້າອາດຈະເລືອກທີ່ຈະບໍ່ໃຊ້ຜະລິດຕະພັນ ແລະການບໍລິການຂອງບໍລິສັດອີກຕໍ່ໄປ (ຄວາມ​ສ່ຽງ​ການ​ສູນ​ເສຍ​ລູກ​ຄ້າ​). ຄູ່ແຂ່ງອາດຈະໃຊ້ປະໂຫຍດຈາກຄວາມລົ້ມເຫລວນີ້ (ຄວາມສ່ຽງດ້ານການແຂ່ງຂັນ). ແລະມີທະນາຍຄວາມຈໍານວນຫລາຍພ້ອມທີ່ຈະຊ່ວຍເຫຼືອຜູ້ທີ່ຖືກລ່ວງລະເມີດ, ໂດຍມີຈຸດປະສົງເພື່ອຍື່ນຟ້ອງຕໍ່ບໍລິສັດທີ່ອະນຸຍາດໃຫ້ AI ເນົ່າເປື່ອຍເຂົ້າໄປໃນເຄື່ອງຂອງບໍລິສັດຂອງພວກເຂົາ (ຄວາມ​ສ່ຽງ​ທາງ​ດ້ານ​ກົດ​ຫມາຍ).

ໂດຍຫຍໍ້, ROI (ຜົນຕອບແທນຂອງການລົງທຶນ) ສໍາລັບການນໍາໃຊ້ທີ່ເຫມາະສົມຂອງຈັນຍາບັນ AI ແມ່ນເກືອບແນ່ນອນວ່າມີຜົນປະໂຫຍດຫຼາຍກ່ວາເມື່ອສົມທຽບກັບຄ່າໃຊ້ຈ່າຍຕ່ໍາທີ່ກ່ຽວຂ້ອງກັບການນັ່ງຢູ່ເທິງຍອດຂອງ AI ທີ່ບໍ່ດີທີ່ບໍ່ຄວນຈະຖືກວາງແຜນຫຼືປ່ອຍອອກມາ.

ປະກົດວ່າບໍ່ແມ່ນທຸກຄົນໄດ້ຮັບບັນທຶກນັ້ນ, ສະນັ້ນເວົ້າ.

ຈັນຍາບັນຂອງ AI ແມ່ນພຽງແຕ່ຄ່ອຍໆໄດ້ຮັບການດຶງດູດ.

ບາງ​ຄົນ​ເຊື່ອ​ວ່າ​ກົດໝາຍ​ທີ່​ຍາວ​ນານ​ອາດ​ຈະ​ເປັນ​ສິ່ງ​ທີ່​ຫຼີກ​ລ່ຽງບໍ່​ໄດ້​ເພື່ອ​ຊຸກຍູ້​ການ​ນຳ​ເອົາ​ວິທີ​ການ AI ດ້ານ​ຈັນຍາບັນ.

ນອກເຫນືອຈາກການໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ໂດຍທົ່ວໄປແລ້ວ, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍທີ່ໂດດເດັ່ນເພື່ອປົກຄອງການພັດທະນາແລະການນໍາໃຊ້ AI ຕ່າງໆ. ແທ້ຈິງແລ້ວ, ກົດຫມາຍໃຫມ່ແມ່ນໄດ້ຖືກລ້ອມຮອບໃນລະດັບສາກົນ, ລັດຖະບານກາງ, ລັດ, ແລະທ້ອງຖິ່ນທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງແຜນ. ຄວາມ​ພະ​ຍາ​ຍາມ​ໃນ​ການ​ຮ່າງ​ກົດ​ຫມາຍ​ດັ່ງ​ກ່າວ​ແມ່ນ​ມາດ​ຕະ​ການ. ຈັນຍາບັນຂອງ AI ເຮັດຫນ້າທີ່ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.

ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ໃນຄວາມເປັນຈິງ, ພວກເຂົາເຕືອນວ່າຖ້າພວກເຮົາປະກາດກົດຫມາຍ AI ເຫຼົ່ານີ້, ພວກເຮົາຈະຂ້າ goose ທອງໂດຍການຍຶດຫມັ້ນໃນຄວາມກ້າວຫນ້າໃນ AI ທີ່ສະເຫນີຂໍ້ໄດ້ປຽບຂອງສັງຄົມອັນໃຫຍ່ຫຼວງ. ເບິ່ງຕົວຢ່າງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາທຸກຄົນຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບສິ່ງທີ່ພື້ນຖານຂອງຈັນຍາບັນ AI ມີ.

ໃນການຄຸ້ມຄອງຄໍລໍາຂອງຂ້ອຍ, ກ່ອນຫນ້ານີ້ຂ້າພະເຈົ້າໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກການດ້ານຈັນຍາບັນຂອງ AI, ເຊັ່ນ: ການປະເມີນນີ້ຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ເຊິ່ງສະເຫນີບັນຊີລາຍຊື່ສໍາຄັນທີ່ເປັນປະໂຫຍດຂອງເງື່ອນໄຂ AI ດ້ານຈັນຍາບັນຫຼືຄຸນລັກສະນະກ່ຽວກັບລະບົບ AI:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ເຫຼົ່ານັ້ນແມ່ນຄວນຈະຖືກນໍາໃຊ້ຢ່າງຈິງຈັງໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI.

ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ມັນໃຊ້ເວລາບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ວິທີການພະຍາຍາມແນະນໍາແລະຮັກສາຄວາມສົນໃຈແບບຍືນຍົງກ່ຽວກັບການນໍາໃຊ້ກົດລະບຽບຈັນຍາບັນຂອງ AI ສາມາດປະຕິບັດໄດ້ບາງສ່ວນໂດຍຜ່ານການສ້າງຕັ້ງຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI.

ພວກເຮົາຈະເປີດຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ຕໍ່ໄປ.

ກະດານຈັນຍາບັນ AI ແລະວິທີການເຮັດຢ່າງຖືກຕ້ອງ

ບໍລິສັດສາມາດຢູ່ໃນຂັ້ນຕອນຕ່າງໆຂອງການຮັບຮອງເອົາ AI, ແລະເຊັ່ນດຽວກັນໃນຂັ້ນຕອນທີ່ແຕກຕ່າງກັນຂອງການຮັບເອົາຈັນຍາບັນ AI.

ຈິນຕະນາການບໍລິສັດທີ່ຕ້ອງການທີ່ຈະກ້າວໄປສູ່ການຍອມຮັບຈັນຍາບັນ AI ແຕ່ບໍ່ແນ່ໃຈວ່າຈະເຮັດແນວນັ້ນໄດ້ແນວໃດ. ສະຖານະການອີກອັນຫນຶ່ງອາດຈະເປັນບໍລິສັດທີ່ຕິດຢູ່ແລ້ວກັບຈັນຍາບັນ AI ແຕ່ເບິ່ງຄືວ່າບໍ່ແນ່ໃຈວ່າສິ່ງທີ່ຕ້ອງເຮັດໃນຄວາມພະຍາຍາມຕື່ມອີກ. ສະຖານະການທີສາມອາດຈະເປັນບໍລິສັດທີ່ໄດ້ວາງແຜນຢ່າງຫ້າວຫັນແລະນໍາໃຊ້ AI ແລະພາຍໃນໄດ້ເຮັດຫຼາຍຢ່າງເພື່ອປະຕິບັດຈັນຍາບັນຂອງ AI, ເຖິງແມ່ນວ່າພວກເຂົາຮູ້ວ່າມີໂອກາດທີ່ພວກເຂົາຈະຂາດຄວາມເຂົ້າໃຈອື່ນໆທີ່ອາດຈະເປັນຍ້ອນການຄິດພາຍໃນກຸ່ມ.

ສໍາລັບສະຖານະການໃດກໍ່ຕາມ, ການຈັດວາງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ອາດຈະມີຄວາມລະມັດລະວັງ.

ແນວຄວາມຄິດແມ່ນກົງໄປກົງມາຫຼາຍ (ດີ, ເພື່ອຄວາມກະຈ່າງແຈ້ງ, ແນວຄິດໂດຍລວມແມ່ນຄໍາສຸພາສິດຂອງພູກ້ອນຫີນແລະມານແມ່ນແນ່ນອນທີ່ສຸດໃນລາຍລະອຽດ, ດັ່ງທີ່ພວກເຮົາຈະກວມເອົາໃນທັນທີ).

ຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ໂດຍປົກກະຕິປະກອບດ້ວຍທີ່ປຶກສາພາຍນອກຕົ້ນຕໍທີ່ຖືກຮ້ອງຂໍໃຫ້ຮັບໃຊ້ໃນຄະນະທີ່ປຶກສາພິເສດຫຼືຄະນະກໍາມະການສໍາລັບບໍລິສັດ. ອາດຈະມີຜູ້ເຂົ້າຮ່ວມພາຍໃນຈໍານວນຫນຶ່ງລວມຢູ່ໃນຄະນະ, ເຖິງແມ່ນວ່າປົກກະຕິແລ້ວແນວຄວາມຄິດແມ່ນເພື່ອລວບລວມທີ່ປຶກສາຈາກພາຍນອກບໍລິສັດແລະສາມາດນໍາເອົາທັດສະນະເຄິ່ງເອກະລາດກັບສິ່ງທີ່ບໍລິສັດກໍາລັງເຮັດ.

ຂ້າພະເຈົ້າເວົ້າວ່າ ເຄິ່ງເອກະລາດ ນັບຕັ້ງແຕ່ ແນ່ນອນວ່າຈະມີຄວາມຂັດແຍ້ງກ່ຽວກັບຄວາມເປັນເອກະລາດທີ່ອາດຈະເກີດຂຶ້ນກັບສະມາຊິກທີ່ເລືອກຂອງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI. ຖ້າບໍລິສັດຈ່າຍເງິນໃຫ້ທີ່ປຶກສາ, ມັນເຮັດໃຫ້ເກີດຄໍາຖາມທີ່ຊັດເຈນວ່າສະມາຊິກທີ່ໄດ້ຮັບຄ່າຈ້າງຮູ້ສຶກເພິ່ງພາອາໄສບໍລິສັດສໍາລັບເງິນເດືອນຫຼືວ່າພວກເຂົາອາດຈະບໍ່ສະບາຍໃຈທີ່ຈະວິພາກວິຈານມ້າຂອງຂວັນທີ່ເຂົາເຈົ້າມີຢູ່ໃນມື. ໃນທາງກົງກັນຂ້າມ, ທຸລະກິດແມ່ນຖືກນໍາໃຊ້ເພື່ອນໍາໃຊ້ທີ່ປຶກສາທີ່ໄດ້ຮັບຄ່າຈ້າງຈາກພາຍນອກສໍາລັບທຸກໆຄວາມຄິດເຫັນທີ່ເປັນເອກະລາດ, ດັ່ງນັ້ນນີ້ແມ່ນປະເພນີບາງຢ່າງແລະຄາດວ່າຈະມີຢ່າງໃດກໍ່ຕາມ.

ປົກກະຕິແລ້ວຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ມັກຈະຖືກຖາມໃຫ້ປະຊຸມເປັນໄລຍະ, ບໍ່ວ່າຈະຢູ່ໃນຕົວ ຫຼື ບົນພື້ນຖານທາງໄກສະເໝືອນ. ພວກມັນຖືກໃຊ້ເປັນກະດານສຽງໂດຍບໍລິສັດ. ຄວາມບໍ່ລົງຮອຍກັນແມ່ນເກີນໄປທີ່ສະມາຊິກໄດ້ຖືກສະຫນອງໃຫ້ກັບເອກະສານພາຍໃນຕ່າງໆ, ບົດລາຍງານ, ແລະບັນທຶກຊ່ວຍຈໍາກ່ຽວກັບຄວາມພະຍາຍາມທີ່ກ່ຽວຂ້ອງກັບ AI ຂອງບໍລິສັດ. ສະມາຊິກໂດຍສະເພາະຂອງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ອາດຈະຖືກຮ້ອງຂໍໃຫ້ເຂົ້າຮ່ວມກອງປະຊຸມພາຍໃນທີ່ເຫມາະສົມກັບຄວາມຊ່ຽວຊານສະເພາະຂອງພວກເຂົາ. ເປັນຕົ້ນ.

ນອກເຫນືອຈາກການສາມາດເບິ່ງສິ່ງທີ່ເກີດຂື້ນກັບ AI ພາຍໃນບໍລິສັດແລະໃຫ້ສາຍຕາສົດຊື່ນ, ຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ມັກຈະມີບົດບາດສອງຢ່າງຂອງການເປັນຜູ້ເກັບຂໍ້ມູນພາຍນອກເຖິງພາຍໃນຂອງຫລ້າສຸດໃນ AI ແລະຈັນຍາບັນ AI. ຊັບພະຍາກອນພາຍໃນອາດຈະບໍ່ມີເວລາທີ່ຈະຂຸດຄົ້ນສິ່ງທີ່ເກີດຂື້ນຢູ່ນອກບໍລິສັດແລະ ergo ສາມາດໄດ້ຮັບຄວາມສົນໃຈຢ່າງຈິງຈັງແລະປັບແຕ່ງທັດສະນະທີ່ທັນສະໄຫມຈາກສະມາຊິກຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI.

ຍັງມີການນໍາໃຊ້ພາຍໃນເຖິງພາຍນອກຂອງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ເຊັ່ນກັນ.

ນີ້ສາມາດເປັນ tricky.

ແນວຄວາມຄິດແມ່ນວ່າຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ຖືກນໍາໃຊ້ເພື່ອໃຫ້ໂລກພາຍນອກຮູ້ວ່າບໍລິສັດກໍາລັງເຮັດຫຍັງເມື່ອເວົ້າເຖິງຈັນຍາບັນຂອງ AI ແລະ AI. ນີ້ສາມາດເປັນປະໂຫຍດເປັນວິທີການຊຸກຍູ້ຊື່ສຽງຂອງບໍລິສັດ. ຜະລິດຕະພັນ ແລະການບໍລິການທີ່ບັນຈຸ AI ອາດຈະຖືກຮັບຮູ້ວ່າມີຄວາມໜ້າເຊື່ອຖືຫຼາຍຂຶ້ນ ເນື່ອງຈາກການປະທັບຕາທອງຂອງການອະນຸມັດຈາກຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI. ນອກຈາກນັ້ນ, ການຮຽກຮ້ອງໃຫ້ບໍລິສັດດໍາເນີນການເພີ່ມເຕີມກ່ຽວກັບຈັນຍາບັນ AI ສາມາດຖືກບິດເບືອນບາງຢ່າງໂດຍການຊີ້ໃຫ້ເຫັນວ່າຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ໄດ້ຖືກນໍາມາໃຊ້ໂດຍບໍລິສັດແລ້ວ.

ຄໍາຖາມທີ່ມັກຈະຖືກນໍາໄປຫາຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ໂດຍບໍລິສັດທີ່ນໍາໃຊ້ກົນໄກດັ່ງກ່າວມັກຈະປະກອບມີ:

  • ບໍລິສັດຄວນໃຊ້ AI ສໍາລັບຜະລິດຕະພັນຫຼືການບໍລິການສະເພາະໃດຫນຶ່ງ, ຫຼືເບິ່ງຄືວ່າບັນຫາຫຼາຍເກີນໄປບໍ?
  • ບໍລິສັດໄດ້ຄໍານຶງເຖິງຂອບເຂດອັນເຕັມທີ່ຂອງການພິຈາລະນາຈັນຍາບັນ AI ໃນຄວາມພະຍາຍາມ AI ຂອງເຂົາເຈົ້າບໍ?
  • ບໍລິສັດໄດ້ຕົກຢູ່ໃນການຄິດເປັນກຸ່ມແລະບໍ່ເຕັມໃຈຫຼືບໍ່ສາມາດເຫັນການຫຼຸດລົງທາງດ້ານຈັນຍາບັນຂອງ AI ທີ່ອາດຈະລົບກວນລໍຖ້າຄວາມພະຍາຍາມເຫຼົ່ານີ້ບໍ?
  • ປະເພດໃດແດ່ຂອງວິທີການຫລ້າສຸດກ່ຽວກັບຈັນຍາບັນ AI ບໍລິສັດຄວນຈະຊອກຫາທີ່ຈະຮັບຮອງເອົາ?
  • ມັນເປັນໄປໄດ້ບໍທີ່ຈະໃຫ້ຄໍາຊົມເຊີຍຈາກພາຍນອກສໍາລັບຄວາມພະຍາຍາມດ້ານຈັນຍາບັນ AI ຂອງພວກເຮົາ ແລະຄໍາຫມັ້ນສັນຍາໃນນັ້ນ?
  • ອື່ນ ໆ

ການເຂົ້າໄປໃນຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ແນ່ນອນເຮັດໃຫ້ຄວາມຮູ້ສຶກແລະບໍລິສັດໄດ້ກ້າວໄປສູ່ເສັ້ນທາງນີ້ຫຼາຍຂຶ້ນ.

ກະລຸນາຮັບຊາບວ່າມີອີກດ້ານໜຶ່ງຂອງຫຼຽນນີ້.

ຢູ່ຂ້າງຫນຶ່ງຂອງຫຼຽນ, ຄະນະກໍາມະການໃຫ້ຄໍາປຶກສາດ້ານຈັນຍາບັນ AI ສາມາດເປັນສິ່ງທີ່ດີທີ່ສຸດຕໍ່ໄປນັບຕັ້ງແຕ່ເຂົ້າຈີ່. ຢ່າປະຖິ້ມອີກດ້ານຫນຶ່ງຂອງຫຼຽນ, ຄືພວກເຂົາຍັງສາມາດເປັນອາການເຈັບຫົວທີ່ໃຫຍ່ຫຼວງແລະທ່ານອາດຈະເສຍໃຈທີ່ທ່ານເຂົ້າໄປໃນອານາເຂດຂອງ dicey ນີ້ (ດັ່ງທີ່ທ່ານຈະເຫັນໃນການສົນທະນານີ້, ການຫຼຸດລົງສາມາດຈັດການໄດ້, ຖ້າທ່ານຮູ້ວ່າທ່ານແມ່ນຫຍັງ. ກໍາລັງເຮັດ).

ບໍລິສັດກໍາລັງເລີ່ມຮັບຮູ້ວ່າເຂົາເຈົ້າສາມາດຊອກຫາຕົນເອງໃນເລັກນ້ອຍຂອງ pickle ໃນເວລາທີ່ເລືອກທີ່ຈະໄປເສັ້ນທາງຄະນະກໍາມະຈັນຍາບັນ AI. ເຈົ້າສາມາດຢືນຢັນໄດ້ວ່າເຄື່ອງຈັກນີ້ແມ່ນຄ້າຍຄືກັບການຫຼີ້ນກັບໄຟ. ເຈົ້າເຫັນ, ໄຟເປັນອົງປະກອບທີ່ມີປະສິດທິພາບຫຼາຍທີ່ທ່ານສາມາດນໍາໃຊ້ເພື່ອແຕ່ງກິນ, ປົກປ້ອງເຈົ້າຈາກຜູ້ລ້າໃນຂະນະທີ່ຢູ່ໃນຖິ່ນແຫ້ງແລ້ງກັນດານ, ເຮັດໃຫ້ທ່ານອົບອຸ່ນ, ເຮັດໃຫ້ມີແສງສະຫວ່າງ, ແລະສະຫນອງຜົນປະໂຫຍດທີ່ສໍາຄັນແລະມີປະໂຫຍດຫຼາຍ.

ໄຟຍັງສາມາດເຮັດໃຫ້ເຈົ້າໄໝ້ໄດ້ ຖ້າເຈົ້າບໍ່ສາມາດຮັບມືກັບມັນໄດ້ດີ.

ມີຫົວຂໍ້ຂ່າວຕ່າງໆຂອງບັນທຶກທີ່ຜ່ານມາສະແດງໃຫ້ເຫັນຢ່າງຈະແຈ້ງກ່ຽວກັບອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນຂອງການມີຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI. ຖ້າສະມາຊິກສະຫຼຸບໂດຍຫຍໍ້ວ່າພວກເຂົາບໍ່ເຊື່ອວ່າບໍລິສັດກໍາລັງດໍາເນີນກິດຈະກໍາ AI ທີ່ຖືກຕ້ອງຕາມຈັນຍາບັນ, ສະມາຊິກທີ່ບໍ່ພໍໃຈອາດຈະເຊົາໃນເລື່ອງໃຫຍ່. ສົມມຸດວ່າບຸກຄົນດັ່ງກ່າວມີແນວໂນ້ມທີ່ຈະເປັນທີ່ຮູ້ຈັກໃນພາກສະຫນາມ AI ຫຼືອຸດສາຫະກໍາທັງຫມົດທີ່ບອກ, ເຮືອໂດດຂອງພວກເຂົາຖືກຜູກມັດເພື່ອດຶງດູດຄວາມສົນໃຈຂອງສື່ມວນຊົນຢ່າງກວ້າງຂວາງ.

ຫຼັງຈາກນັ້ນ, ບໍລິສັດຈະຕ້ອງໄປປ້ອງກັນ.

ເປັນຫຍັງສະມາຊິກຈຶ່ງອອກໄປ?

ບໍລິສັດແມ່ນຂຶ້ນກັບຫຍັງ?

ບາງບໍລິສັດຮຽກຮ້ອງໃຫ້ສະມາຊິກຂອງຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ເຊັນ NDAs (ຂໍ້ຕົກລົງທີ່ບໍ່ເປີດເຜີຍ), ເຊິ່ງເບິ່ງຄືວ່າຈະປົກປ້ອງບໍລິສັດຖ້າສະມາຊິກຕັດສິນໃຈ "ຂີ້ຕົວະ" ແລະຂີ້ເຫຍື້ອບໍລິສັດ. ບັນຫາແມ່ນວ່າເຖິງແມ່ນວ່າບຸກຄົນດັ່ງກ່າວຍັງງຽບສະຫງົບ, ຢ່າງໃດກໍຕາມ, ມັນອາດຈະເປັນການຍອມຮັບວ່າພວກເຂົາບໍ່ໄດ້ຮັບໃຊ້ຢູ່ໃນຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ອີກຕໍ່ໄປ. ນີ້, ໂດຍຕົວຂອງມັນເອງ, ຈະຍົກຄໍາຖາມທຸກປະເພດຂອງ eyebrow.

ຍິ່ງໄປກວ່ານັ້ນ, ເຖິງແມ່ນວ່າ NDA ມີຢູ່, ບາງຄັ້ງສະມາຊິກຈະພະຍາຍາມຫລີກລ້ຽງການສະຫນອງ. ນີ້ອາດຈະປະກອບມີການອ້າງອີງໃສ່ "ກໍລະນີສຶກສາ" ທົ່ວໄປທີ່ບໍ່ມີຊື່ wink-wink ເພື່ອຊີ້ໃຫ້ເຫັນຄວາມຜິດກະຕິດ້ານຈັນຍາບັນຂອງ AI ທີ່ພວກເຂົາເຊື່ອວ່າບໍລິສັດກໍາລັງປະຕິບັດຢ່າງຈິງຈັງ.

ສະມາຊິກທີ່ຫຼຸດລົງອາດຈະ brazen ຢ່າງເຕັມສ່ວນແລະອອກມາໂດຍກົງຊື່ຄວາມກັງວົນຂອງເຂົາເຈົ້າກ່ຽວກັບບໍລິສັດ. ບໍ່ວ່າຈະເປັນການລ່ວງລະເມີດຢ່າງຈະແຈ້ງຂອງ NDA ແມ່ນບາງທີອາດມີຄວາມສໍາຄັນຫນ້ອຍກວ່າຄວາມຈິງທີ່ວ່າຄໍາທີ່ຖືກເຜີຍແຜ່ກ່ຽວກັບຈັນຍາບັນ AI qualms. ບໍລິສັດທີ່ພະຍາຍາມຟ້ອງສະມາຊິກສໍາລັບການລະເມີດ NDA ສາມາດເຮັດໃຫ້ນ້ໍາຮ້ອນເຂົ້າໄປໃນຕົວເອງຢ່າງໂຫດຮ້າຍ, ເພີ່ມຄວາມສົນໃຈຕໍ່ການຂັດແຍ້ງແລະປະກົດວ່າເປັນຄລາສສິກ David ທຽບກັບ Goliath duel (ບໍລິສັດແມ່ນ "ສັດຮ້າຍ" ຂະຫນາດໃຫຍ່).

ຜູ້ບໍລິຫານລະດັບສູງບາງຄົນສົມມຸດວ່າພວກເຂົາພຽງແຕ່ສາມາດບັນລຸການຕົກລົງທາງດ້ານການເງິນກັບສະມາຊິກຂອງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ທີ່ຮູ້ສຶກວ່າບໍລິສັດກໍາລັງເຮັດສິ່ງທີ່ຜິດພາດລວມທັງການບໍ່ສົນໃຈຫຼືຫຼຸດລົງຄວາມກັງວົນທີ່ມີສຽງ.

ອັນນີ້ອາດຈະບໍ່ງ່າຍເທົ່າທີ່ຄິດ.

ເລື້ອຍໆ, ສະມາຊິກມີຈັນຍາບັນທີ່ອຸທິດຕົນຢ່າງຈິງຈັງ ແລະຈະບໍ່ຍອມຖອຍຫຼັງຈາກສິ່ງທີ່ເຂົາເຈົ້າຮັບຮູ້ວ່າເປັນການຕໍ່ສູ້ທີ່ຖືກຕ້ອງ-ຜິດກັບຈັນຍາບັນ. ເຂົາເຈົ້າອາດຈະມີຄວາມໝັ້ນຄົງທາງດ້ານການເງິນ ແລະບໍ່ເຕັມໃຈທີ່ຈະໂກນຫນວດຕາມຈັນຍາບັນຂອງເຂົາເຈົ້າ ຫຼືເຂົາເຈົ້າອາດຈະໄດ້ຮັບການຈ້າງງານອື່ນໆທີ່ຍັງບໍ່ຖືກສໍາຜັດກັບເຂົາເຈົ້າໄດ້ອອກຈາກຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI.

ດັ່ງທີ່ອາດຈະເຫັນໄດ້ຊັດເຈນ, ຕໍ່ມາບາງຄົນຮັບຮູ້ວ່າຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ແມ່ນດາບສອງດ້ານ. ມີຄຸນຄ່າອັນມະຫາສານ ແລະຄວາມເຂົ້າໃຈອັນສຳຄັນທີ່ກຸ່ມດັ່ງກ່າວສາມາດບົ່ງບອກໄດ້. ໃນເວລາດຽວກັນ, ທ່ານກໍາລັງຫຼີ້ນກັບໄຟ. ມັນອາດຈະເປັນທີ່ສະມາຊິກຫຼືສະມາຊິກຕັດສິນໃຈວ່າພວກເຂົາບໍ່ເຊື່ອວ່າບໍລິສັດກໍາລັງເຮັດວຽກດ້ານຈັນຍາບັນ AI ທີ່ເຊື່ອຖືໄດ້. ໃນຂ່າວໄດ້ຊີ້ໃຫ້ເຫັນເຖິງບາງຄັ້ງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ທັງຫມົດໄດ້ຢຸດເຊົາຮ່ວມກັນ, ທັງຫມົດໃນເວລາດຽວ, ຫຼືມີສະມາຊິກບາງຄົນປະກາດວ່າພວກເຂົາຈະອອກໄປ.

ກຽມພ້ອມສໍາລັບສິ່ງທີ່ດີແລະບັນຫາທີ່ສາມາດເກີດຂື້ນກັບຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI.

ແນ່ນອນ, ມີບາງຄັ້ງທີ່ບໍລິສັດບໍ່ໄດ້ເຮັດສິ່ງທີ່ເຫມາະສົມໃນເວລາທີ່ມັນມາກັບຈັນຍາບັນ AI.

ດັ່ງນັ້ນ, ພວກເຮົາຫວັງວ່າແລະຄາດຫວັງວ່າຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ຢູ່ບໍລິສັດດັ່ງກ່າວຈະກ້າວຂຶ້ນເພື່ອເຮັດໃຫ້ອັນນີ້ເປັນທີ່ຮູ້ຈັກ, ຄາດວ່າພາຍໃນບໍລິສັດກ່ອນ. ຖ້າບໍລິສັດສືບຕໍ່ຢູ່ໃນເສັ້ນທາງທີ່ບໍ່ດີ, ສະມາຊິກແນ່ນອນເບິ່ງຄືວ່າມີຄວາມຜູກມັດທາງດ້ານຈັນຍາບັນ (ອາດຈະຖືກກົດຫມາຍເຊັ່ນກັນ) ທີ່ຈະດໍາເນີນການອື່ນໆຍ້ອນວ່າພວກເຂົາເຊື່ອວ່າເຫມາະສົມ (ສະມາຊິກຄວນປຶກສາທະນາຍຄວາມສ່ວນຕົວຂອງເຂົາເຈົ້າສໍາລັບຄໍາແນະນໍາທາງດ້ານກົດຫມາຍ). ມັນອາດຈະເປັນວ່ານີ້ແມ່ນວິທີດຽວທີ່ຈະເຮັດໃຫ້ບໍລິສັດປ່ຽນແປງວິທີການຂອງຕົນ. ການກະທຳທີ່ຮຸນແຮງໂດຍສະມາຊິກ ຫຼືກຸ່ມສະມາຊິກອາດເບິ່ງຄືວ່າເປັນວິທີສຸດທ້າຍທີ່ສະມາຊິກຫວັງວ່າຈະປ່ຽນກະແສ. ນອກຈາກນັ້ນ, ສະມາຊິກເຫຼົ່ານັ້ນອາດບໍ່ຢາກເປັນສ່ວນໜຶ່ງຂອງສິ່ງທີ່ເຂົາເຈົ້າເຊື່ອຢ່າງໜັກແໜ້ນວ່າໄດ້ຫຼົງທາງຈາກຈັນຍາບັນ AI.

ວິທີທີ່ເປັນປະໂຫຍດເພື່ອພິຈາລະນາຄວາມເປັນໄປໄດ້ເຫຼົ່ານີ້ແມ່ນ:

  • ບໍລິສັດກໍາລັງຫຼົງທາງ, ສະມາຊິກເລືອກທີ່ຈະອອກຍ້ອນການຂາດການປະຕິບັດຕາມຢ່າງຫນັກແຫນ້ນ.
  • ບໍ​ລິ​ສັດ​ບໍ່​ໄດ້​ຫລົງ​ທາງ​ໄປ, ແຕ່​ສະ​ມາ​ຊິກ​ເຊື່ອ​ວ່າ​ບໍ​ລິ​ສັດ​ແມ່ນ​ແລະ​ດັ່ງ​ນັ້ນ​ການ​ອອກ​ເນື່ອງ​ຈາກ​ການ​ຮັບ​ຮູ້​ວ່າ​ການ​ຂາດ​ການ​ປະ​ຕິ​ບັດ​ຕາມ​.

ໂລກພາຍນອກຈະບໍ່ຈໍາເປັນຕ້ອງຮູ້ວ່າສະມາຊິກທີ່ອອກຈາກນັ້ນມີພື້ນຖານທີ່ຖືກຕ້ອງສໍາລັບຄວາມກັງວົນກ່ຽວກັບບໍລິສັດຫຼືວ່າມັນອາດຈະເປັນຄວາມໂງ່ຫຼືຄວາມບໍ່ປະທັບໃຈຂອງສະມາຊິກ. ນອກຈາກນີ້ຍັງມີຄວາມເປັນໄປໄດ້ທີ່ກົງໄປກົງມາຂອງສະມາຊິກທີ່ອອກຈາກກຸ່ມເນື່ອງຈາກຄໍາຫມັ້ນສັນຍາອື່ນໆຫຼືສໍາລັບເຫດຜົນສ່ວນຕົວທີ່ບໍ່ມີຫຍັງກ່ຽວຂ້ອງກັບສິ່ງທີ່ບໍລິສັດກໍາລັງເຮັດ.

ຄວາມສໍາຄັນແມ່ນວ່າມັນເປັນສິ່ງສໍາຄັນສໍາລັບບໍລິສັດໃດຫນຶ່ງທີ່ຮັບຮອງເອົາຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ທີ່ຈະຄິດຢ່າງລະມັດລະວັງໂດຍຜ່ານໄລຍະທັງຫມົດຂອງວົງຈອນຊີວິດທີ່ກ່ຽວຂ້ອງກັບກຸ່ມ.

ດ້ວຍການເວົ້າເລື່ອງບັນຫາທັງໝົດນັ້ນ, ຂ້ອຍບໍ່ຢາກສະແດງເຖິງຄວາມປະທັບໃຈຂອງການມີຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI. ນັ້ນບໍ່ແມ່ນຂໍ້ຄວາມ. ພື້ນຖານທີ່ແທ້ຈິງແມ່ນການມີຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ແລະໃຫ້ແນ່ໃຈວ່າທ່ານເຮັດແນວນັ້ນໃນທາງທີ່ຖືກຕ້ອງ. ເຮັດໃຫ້ມັນເຂົ້າໄປໃນ mantra ທີ່ຫນ້າຮັກຂອງເຈົ້າ.

ນີ້ແມ່ນບາງຜົນປະໂຫຍດທີ່ໄດ້ກ່າວມາເລື້ອຍໆຂອງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI:

  • ມີວິທີທີ່ຈະຕີໂຄງການ AI ແລະແນວຄວາມຄິດອອກຈາກກຸ່ມເອກະຊົນເຄິ່ງເອກະລາດ
  • ສ້າງຄວາມຊ່ຽວຊານໃນຈັນຍາບັນ AI ທີ່ມາຈາກພາຍນອກຂອງບໍລິສັດ
  • ສູ້ຊົນເພື່ອຫຼີກເວັ້ນການ guffaws ດ້ານຈັນຍາບັນຂອງ AI ແລະໄພພິບັດຢ່າງແທ້ຈິງໂດຍບໍລິສັດ
  • ເປັນຜູ້ຊຸກຍູ້ການພົວພັນສາທາລະນະສໍາລັບບໍລິສັດແລະລະບົບ AI ຂອງມັນ
  • ການແຍກກຸ່ມຄວາມຄິດພາຍໃນກ່ຽວກັບ AI ແລະຈັນຍາບັນ AI
  • ສ້າງຄວາມສົດຊື່ນໃຫ້ກັບນະວັດຕະກໍາ AI ແລະການປະຕິບັດຕົວຈິງຂອງພວກມັນ
  • ເສີມ​ຂະ​ຫຍາຍ​ການ​ຢືນ​ແລະ stature ຂອງ​ບໍ​ລິ​ສັດ​
  • ຮັບໃຊ້ເປັນສຽງທີ່ໄຮ້ດຽງສາສໍາລັບເວລາທີ່ຄວາມພະຍາຍາມ AI ທີ່ຫນັກແຫນ້ນແມ່ນ kilter
  • ອື່ນ ໆ

ນີ້ແມ່ນວິທີການທົ່ວໄປທີ່ບໍລິສັດເຮັດໃຫ້ເກິດຂຶ້ນ ແລະຕັດຕໍ່ຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI (ຢ່າເຮັດແນວນີ້!):

  • ໃຫ້ທິດທາງທີ່ບໍ່ຊັດເຈນ ແລະສັບສົນກ່ຽວກັບພາລະກິດ ແລະຈຸດປະສົງ
  • ພຽງແຕ່ປຶກສາຫາລືເລັກນ້ອຍແລະມັກຈະບໍ່ສະບາຍເວລາຫຼັງຈາກມ້າອອກຈາກ barn ແລ້ວ
  • ເກັບຮັກສາໄວ້ໃນຄວາມມືດ
  • Fed ຂໍ້ມູນການກັ່ນຕອງຫຼາຍທີ່ສະຫນອງການສະແດງຄວາມເຂົ້າໃຈຜິດຂອງສິ່ງຕ່າງໆ
  • ໃຊ້ເປັນບ່ອນວາງສະແດງເທົ່ານັ້ນ ແລະບໍ່ມີເປົ້າໝາຍສ້າງມູນຄ່າອື່ນ
  • ບໍ່ໄດ້ຮັບອະນຸຍາດໃຫ້ເຮັດການສຳຫຼວດກ່ຽວກັບເລື່ອງພາຍໃນ
  • ຂາດຊັບພະຍາກອນຢ່າງພຽງພໍເພື່ອປະຕິບັດວຽກງານຂອງຕົນຢ່າງພຽງພໍ
  • ຂາດຄວາມເປັນຜູ້ນໍາທີ່ຊັດເຈນພາຍໃນກຸ່ມ
  • ການຂາດຄວາມສົນໃຈໂດຍການນໍາພາຂອງບໍລິສັດກ່ຽວກັບກຸ່ມ
  • ຄາດວ່າຈະໃຫ້ການອະນຸມັດຕາບອດກັບສິ່ງທີ່ຖືກນໍາສະເຫນີ
  • Haphazard ກ່ຽວກັບສະມາຊິກທີ່ເລືອກ
  • ປະຕິບັດດ້ວຍຄວາມເຄົາລົບເລັກນ້ອຍ ແລະເບິ່ງຄືວ່າເປັນພຽງເຄື່ອງໝາຍກວດກາ
  • ອື່ນ ໆ

ບັນຫາທີ່ສັບສົນເລື້ອຍໆອີກອັນໜຶ່ງແມ່ນກ່ຽວຂ້ອງກັບລັກສະນະ ແລະພຶດຕິກຳຂອງສະມາຊິກຕ່າງໆ ທີ່ຮັບໃຊ້ຢູ່ໃນຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI, ເຊິ່ງບາງຄັ້ງອາດເປັນບັນຫາໃນລັກສະນະເຫຼົ່ານີ້:

  • ສະມາຊິກບາງຄົນອາດຈະເປັນພຽງແຕ່ແນວຄວາມຄິດດ້ານຈັນຍາບັນຂອງ AI ເທົ່ານັ້ນແທນທີ່ຈະມີຈັນຍາບັນຂອງ AI ເປັນການປະຕິບັດແລະດັ່ງນັ້ນຈຶ່ງສະຫນອງຄວາມເຂົ້າໃຈທາງດ້ານທຸລະກິດຫນ້ອຍທີ່ສຸດ.
  • ບາງຄົນສາມາດເປັນລະເບີດໃນເວລາທີ່ມັນມາກັບຈັນຍາບັນ AI ແລະມີຄວາມຫຍຸ້ງຍາກພິເສດທີ່ຈະຈັດການກັບຕະຫຼອດການເຂົ້າຮ່ວມຂອງເຂົາເຈົ້າ.
  • ການຕໍ່ສູ້ສາມາດກາຍເປັນສິ່ງລົບກວນທີ່ສໍາຄັນ, ມັກຈະມີການປະທະກັນຂອງ egos ຂະຫນາດໃຫຍ່, ແລະເຮັດໃຫ້ກຸ່ມພັດທະນາໄປສູ່ຄວາມຜິດປົກກະຕິ.
  • ບາງຄົນອາດຈະຫຍຸ້ງຫລາຍເກີນໄປ ແລະ ຕົກຢູ່ໃນສະພາບທີ່ເຂົາເຈົ້າຢູ່ຫ່າງໆຈາກຄວາມພະຍາຍາມໃຫ້ຄໍາປຶກສາດ້ານຈັນຍາບັນຂອງ AI
  • ບາງຄົນມີຄວາມຄິດເຫັນທີ່ບໍ່ປ່ຽນແປງຢ່າງເລິກເຊິ່ງກ່ຽວກັບຈັນຍາບັນ AI ທີ່ປ່ຽນແປງໄດ້ ແລະບໍ່ມີຄວາມເປັນຈິງ
  • ບາງຄົນມັກຈະມີອາລົມຫຼາຍກວ່າການວິເຄາະ ແລະພິຈາລະນາລະບົບທີ່ຕິດພັນກັບຈັນຍາບັນ AI
  • ສາມາດຄ້າຍຄືກັບຄຳສຸພາສິດທີ່ມີຊື່ສຽງຂອງການເປັນຄືກັບຝູງແມວທີ່ຈະບໍ່ຕັ້ງໃຈ ແລະ ເດີນໄປຢ່າງບໍ່ມີເປົ້າໝາຍ.
  • ອື່ນ ໆ

ບາງບໍລິສັດເບິ່ງຄືວ່າຈະເອົາຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ຮ່ວມກັນບົນພື້ນຖານທີ່ບໍ່ຄ່ອຍຈະແຈ້ງ. ບໍ່​ມີ​ຄວາມ​ຄິດ​ກ່ຽວ​ກັບ​ສະ​ມາ​ຊິກ​ທີ່​ຈະ​ໄດ້​ຮັບ​ການ​ຄັດ​ເລືອກ​. ບໍ່ມີຄວາມຄິດໃດໆກ່ຽວກັບສິ່ງທີ່ພວກເຂົາແຕ່ລະຄົນເອົາມາໃຫ້ໂຕະ. ບໍ່ມີຄວາມຄິດໃດໆກ່ຽວກັບຄວາມຖີ່ຂອງການປະຊຸມ ແລະວິທີການປະຊຸມຈະດໍາເນີນໄປແນວໃດ. ບໍ່ມີຄວາມຄິດໃດໆທີ່ຈະດໍາເນີນການຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI, ບອກທັງຫມົດ. ເປັນຕົ້ນ.

ໃນຄວາມຫມາຍ, ໂດຍການຂາດຊັບພະຍາກອນຂອງຕົນເອງ, ເຈົ້າອາດຈະເຮັດໃຫ້ລົດໄຟຕົກຢູ່ໃນການເຄື່ອນໄຫວ.

ຢ່າເຮັດແນວນັ້ນ.

ບາງທີບັນຊີລາຍຊື່ຂອງ ສິ່ງທີ່ຖືກຕ້ອງທີ່ຈະເຮັດ ດຽວນີ້ເຫັນໄດ້ຢ່າງຈະແຈ້ງສຳລັບເຈົ້າໂດຍອີງໃສ່ບົດປາໄສມາເຖິງຕອນນັ້ນ, ແຕ່ເຈົ້າອາດຈະຕົກໃຈທີ່ຮູ້ວ່າມີບາງບໍລິສັດເບິ່ງຄືວ່າໄດ້ຮັບສິດນີ້:

  • ກຳນົດພາລະກິດ ແລະຈຸດປະສົງຂອງຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ຢ່າງຈະແຈ້ງ
  • ໃຫ້ແນ່ໃຈວ່າກຸ່ມຈະໄດ້ຮັບຄວາມສົນໃຈໃນລະດັບສູງສຸດທີ່ເຫມາະສົມ
  • ກໍານົດປະເພດຂອງສະມາຊິກທີ່ຈະເຫມາະສົມທີ່ສຸດສໍາລັບກຸ່ມ
  • ເຂົ້າຫາສະມາຊິກທີ່ຕ້ອງການ ແລະກວດສອບຄວາມເໝາະສົມຂອງກຸ່ມ
  • ເຮັດການຈັດການທີ່ເຫມາະສົມກັບສະມາຊິກທີ່ເລືອກ
  • ສ້າງຕັ້ງການຂົນສົ່ງຂອງກອງປະຊຸມ, ຄວາມຖີ່, ແລະອື່ນໆ.
  • ກໍານົດຫນ້າທີ່ຂອງສະມາຊິກ, ຂອບເຂດ, ແລະຄວາມເລິກ
  • ຄາດ​ຄະ​ເນ​ຊັບ​ພະ​ຍາ​ກອນ​ພາຍ​ໃນ​ທີ່​ຈໍາ​ເປັນ​ສໍາ​ລັບ​ການ​ຊ່ວຍ​ເຫຼືອ​ກຸ່ມ​
  • ຈັດສັນຊັບພະຍາກອນໃຫ້ພຽງພໍກັບກຸ່ມຕົນເອງ
  • ຮັກສາຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ເຄື່ອນໄຫວ ແລະ ຕິດຕໍ່ກັນ
  • ມີການວາງແຜນການເພີ່ມຂຶ້ນລ່ວງໜ້າເມື່ອມີຄວາມກັງວົນເກີດຂຶ້ນ
  • ຊີ້ບອກວ່າເຫດການສຸກເສີນ ຫຼືວິກິດການຈະເກີດຂຶ້ນແນວໃດ
  • ໝຸນ​ສະມາຊິກ​ອອກ ຫຼື​ເຂົ້າ​ຕາມ​ຄວາມ​ຕ້ອງການ​ເພື່ອ​ຮັກສາ​ຄວາມ​ເໝາະ​ສົມ
  • ລ່ວງໜ້າມີເສັ້ນທາງອອກສຳລັບສະມາຊິກ
  • ອື່ນ ໆ

ສະຫຼຸບ

ສອງສາມປີກ່ອນ, ຜູ້ຜະລິດລົດໃຫຍ່ແລະບໍລິສັດເຕັກໂນໂລຢີຂັບລົດດ້ວຍຕົນເອງຫຼາຍແຫ່ງທີ່ກໍາລັງເລີ່ມອອກແບບລົດຂັບລົດດ້ວຍຕົນເອງທີ່ໃຊ້ AI ໄດ້ຖືກກະຕຸ້ນຢ່າງກະທັນຫັນເພື່ອຮັບຮອງເອົາຄະນະກໍາມະການດ້ານຈັນຍາບັນຂອງ AI. ຈົນມາຮອດຈຸດເວລານັ້ນ, ເບິ່ງຄືວ່າບໍ່ຄ່ອຍມີສະຕິກ່ຽວກັບການມີກຸ່ມດັ່ງກ່າວ. ມັນໄດ້ຖືກສົມມຸດວ່າການສຸມໃສ່ພາຍໃນກ່ຽວກັບຈັນຍາບັນ AI ຈະພຽງພໍ.

ຂ້າພະເຈົ້າໄດ້ສົນທະນາຍາວຢູ່ໃນຄໍລໍາຂອງຂ້ອຍກ່ຽວກັບຄວາມໂຊກຮ້າຍຂອງຈັນຍາບັນ AI ທີ່ລ້າສະໄຫມຫຼືການກວດກາທີ່ບາງຄັ້ງນໍາໄປສູ່ບັນຫາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເຊັ່ນ: ອຸປະຕິເຫດລົດໃຫຍ່ເລັກນ້ອຍ, ການປະທະກັນຂອງລົດໃຫຍ່, ແລະໄພພິບັດອື່ນໆ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ຄວາມສໍາຄັນຂອງຄວາມປອດໄພຂອງ AI ແລະການປົກປ້ອງຄ້າຍຄືຈະຕ້ອງພິຈາລະນາສູງສຸດສໍາລັບຜູ້ທີ່ສ້າງຍານພາຫະນະອັດຕະໂນມັດ. ກະດານໃຫ້ຄໍາປຶກສາດ້ານຈັນຍາບັນ AI ໃນຊ່ອງນີ້ຊ່ວຍຮັກສາຄວາມປອດໄພຂອງ AI ເປັນບູລິມະສິດອັນສຳຄັນຂອງຈິດໃຈ.

ວິທີທີ່ຂ້ອຍມັກທີ່ສຸດໃນການສະແດງການເປີດເຜີຍແບບນີ້ກ່ຽວກັບຈັນຍາບັນ AI ແມ່ນການປຽບທຽບເລື່ອງດັ່ງກ່າວກັບແຜ່ນດິນໄຫວ.

ຊາວຄາລິຟໍເນຍແມ່ນຂຶ້ນກັບແຜ່ນດິນໄຫວເປັນບາງເວລາ, ບາງຄັ້ງກໍ່ມີຄວາມຮຸນແຮງ. ເຈົ້າອາດຈະຄິດວ່າການກຽມພ້ອມແຜ່ນດິນໄຫວຈະເປັນການພິຈາລະນາທີ່ເຄີຍມີມາ. ບໍ່ດັ່ງນັ້ນ. ວົງຈອນເຮັດວຽກດ້ວຍວິທີນີ້. ແຜ່ນດິນໄຫວຢ່າງຫຼວງຫຼາຍເກີດຂຶ້ນແລະປະຊາຊົນໄດ້ຮັບການເຕືອນກ່ຽວກັບການກະກຽມແຜ່ນດິນໄຫວ. ໃນເວລາສັ້ນໆ, ມີຄວາມຮີບດ່ວນທີ່ຈະດໍາເນີນການກະກຽມດັ່ງກ່າວ. ຫຼັງຈາກທີ່ໃນຂະນະທີ່, ຄວາມສົນໃຈກັບ wanes ນີ້. ການ​ກະ​ກຽມ​ຕົກ​ຢູ່​ທາງ​ຂ້າງ​ຫຼື​ບໍ່​ດັ່ງ​ນັ້ນ​ຖືກ​ລະ​ເລີຍ. ບູມ, ແຜ່ນດິນໄຫວອີກຄັ້ງໜຶ່ງ, ແລະສິ່ງທີ່ຄວນກະກຽມທັງໝົດແມ່ນ “ບໍ່ຮູ້ຕົວ” ຄືກັບວ່າພວກເຂົາບໍ່ຮູ້ວ່າຈະເກີດແຜ່ນດິນໄຫວໃນມື້ໃດມື້ໜຶ່ງ.

ບໍລິສັດມັກຈະເຮັດແບບດຽວກັນກັບຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI.

ເຂົາເຈົ້າບໍ່ເລີ່ມຕົ້ນອັນໜຶ່ງ ແລະຈາກນັ້ນທັນທີທັນໃດ, ເມື່ອເກີດໄພພິບັດກ່ຽວກັບ AI ຂອງເຂົາເຈົ້າ, ເຂົາເຈົ້າໄດ້ຖືກກະຕຸ້ນໃຫ້ເກີດການກະທຳຢ່າງຈິງຈັງ. ພວກເຂົາເຈົ້າເລີ່ມຕົ້ນຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ຢ່າງຄ່ອງແຄ້ວ. ມັນມີບັນຫາຫຼາຍຢ່າງທີ່ຂ້ອຍໄດ້ກ່າວເຖິງກ່ອນຫນ້ານີ້ໃນນີ້. ຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນຂອງ AI ລົ້ມລະລາຍ. ຂໍອະໄພ, ໄພພິບັດ AI ໃໝ່ພາຍໃນບໍລິສັດເຮັດໃຫ້ຄວາມຕ້ອງການສໍາລັບຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AI ຄືນໃໝ່.

ລ້າງ, ລ້າງອອກ, ແລະເຮັດຊ້ໍາອີກ.

ທຸລະກິດເຫັນໄດ້ຢ່າງແນ່ນອນວ່າພວກເຂົາມີຄວາມສໍາພັນໃນຄວາມຮັກ - ຄວາມກຽດຊັງກັບຄວາມພະຍາຍາມຂອງຄະນະກໍາມະການດ້ານຈັນຍາບັນ AI ຂອງພວກເຂົາ. ເມື່ອເຮັດສິ່ງທີ່ຖືກຕ້ອງ, ຄວາມຮັກແມ່ນຢູ່ໃນອາກາດ. ເມື່ອ​ເຮັດ​ໃນ​ສິ່ງ​ທີ່​ຜິດ, ຄວາມ​ກຽດ​ຊັງ​ກໍ​ເກີດ​ຂຶ້ນ. ໃຫ້ແນ່ໃຈວ່າທ່ານເຮັດໃນສິ່ງທີ່ຈໍາເປັນເພື່ອຮັກສາຄວາມຮັກຕໍ່ໄປແລະຫລີກລ້ຽງຄວາມກຽດຊັງໃນເວລາທີ່ມັນມາກັບການສ້າງຕັ້ງແລະຮັກສາຄະນະກໍາມະການທີ່ປຶກສາດ້ານຈັນຍາບັນ AI.

ຂໍ​ໃຫ້​ປ່ຽນ​ສິ່ງ​ນີ້​ໃຫ້​ເປັນ​ຄວາມ​ສຳພັນ​ຮັກ​ແພງ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/