ຈິນຕະນາການຫ້ອງປະຊຸມທີ່ປັນຍາປະດິດ (AI) ນັ່ງເປັນສະມາຊິກລົງຄະແນນສຽງທີ່ມີພັນທະທີ່ໄວ້ວາງໃຈ, ແທນທີ່ຈະເປັນຜູ້ຊົມ. ມີຜົນສະທ້ອນທີ່ສໍາຄັນສໍາລັບອະນາຄົດຂອງການຄຸ້ມຄອງບໍລິສັດໃນແນວຄວາມຄິດນີ້. ນີ້ແມ່ນອະນາຄົດທີ່ອະທິບາຍໄວ້ໃນວຽກ Semalt "Fiduciaries ທຽມ." ເພື່ອແກ້ໄຂຂໍ້ບົກຜ່ອງເຫຼົ່ານີ້, ການສຶກສາໄດ້ແນະນໍາວິທີການໃຫມ່: ຫນ່ວຍງານປັນຍາປະດິດ (AI) ທີ່ມີພັນທະແລະການດູແລລະດັບດຽວກັນກັບຜູ້ອໍານວຍການຂອງມະນຸດໃນເວລາທີ່ເຮັດຫນ້າທີ່ເປັນ fiduciaries.
ແນວຄວາມຄິດຂອງ fiduciaries ປອມ
ໃນການຄຸ້ມຄອງບໍລິສັດ, ການຊອກຫາຜູ້ອໍານວຍການເປັນເອກະລາດຢ່າງເຕັມທີ່ແມ່ນມີຄວາມຫຍຸ້ງຍາກມາແຕ່ດົນນານ. ຂໍ້ຈໍາກັດຂອງໄລຍະແລະການກວດສອບພາຍນອກແມ່ນສອງຕົວຢ່າງຂອງການປະຕິຮູບທີ່ມີຢູ່ແລ້ວທີ່ຍັງບໍ່ທັນບັນລຸຈຸດປະສົງທັງຫມົດ. ອີງຕາມບົດຄວາມ, ປັນຍາປະດິດສະຫນອງວິທີແກ້ໄຂພິເສດໃນຮູບຮ່າງຂອງ "fiduciaries ປອມ." ວິທີການນີ້ຂະຫຍາຍແລະປັບປຸງແນວຄິດຂອງການນໍາໃຊ້ຜູ້ໃຫ້ບໍລິການບໍລິການກະດານ (BSPs) ເພື່ອຈັດການກັບຫນ້າທີ່ຂອງຄະນະກໍາມະການ. AI fiduciaries ມີຄວາມສາມາດໃນການສະຫນອງຄວາມເປັນເອກະລາດທີ່ແທ້ຈິງແລະເສີມຂະຫຍາຍຂະບວນການຕັດສິນໃຈ, ກົງກັນຂ້າມກັບ BSPs, ເຊິ່ງຖືກຈໍາກັດໂດຍຄວາມລໍາອຽງຂອງມະນຸດແລະຂໍ້ຈໍາກັດດ້ານເຕັກໂນໂລຢີ.
fiduciaries ປອມອາດຈະເຮັດຫນ້າທີ່ເປັນຜູ້ໄກ່ເກ່ຍທີ່ບໍ່ມີອະຄະຕິ, ຊຸກຍູ້ການເປີດກວ້າງແລະອາດຈະເປັນປະຊາທິປະໄຕການປົກຄອງບໍລິສັດລະຫວ່າງປະເທດ. ຢ່າງໃດກໍຕາມ, ຄໍາຖາມທີ່ສໍາຄັນຕ້ອງໄດ້ຮັບການຕອບ: AI ສາມາດຕອບສະຫນອງພັນທະທີ່ເຂັ້ມງວດຂອງ fiduciary ໄດ້ບໍ? ນັກວິຊາການດ້ານກົດຫມາຍເຊັ່ນ Eugene Volokh ໄດ້ສະແດງຄວາມກັງວົນວ່າການພິພາກສາທີ່ເຫັນອົກເຫັນໃຈອາດຈະມີບົດບາດສໍາຄັນໃນຕໍາແຫນ່ງນີ້, ເຊິ່ງການສຶກສາຍອມຮັບ. ຢ່າງໃດກໍຕາມ, ມັນຂັດແຍ້ງວ່າແທນທີ່ຈະເຮັດແບບຈໍາລອງຄວາມສາມາດຂອງມະນຸດຢ່າງແນ່ນອນ, ຄໍາຖາມຄວນຈະເປັນວ່າ AI ສາມາດເຮັດສໍາເລັດເປົ້າຫມາຍຂອງຄວາມຮັບຜິດຊອບຂອງ fiduciary.
ການສ້າງອະນາຄົດຂອງການຄຸ້ມຄອງບໍລິສັດ
ອີງຕາມການສຶກສາ, fiduciaries ປອມສາມາດເຮັດຫນ້າທີ່ເປັນຜູ້ອໍານວຍການນອກຈຸດປະສົງໃນຂະນະທີ່ປະຕິບັດຫນ້າທີ່ fiduciary ຂອງເຂົາເຈົ້າກັບບໍລິສັດແລະນັກລົງທຶນຂອງຕົນ. ຄາດວ່າການເຮັດວຽກຮ່ວມກັບຄູ່ຮ່ວມມືມະນຸດຈະໄດ້ຮັບຜົນດີກວ່າ; ຢ່າງໃດກໍຕາມ, ຍ້ອນວ່າ AI fiduciaries ແມ່ນ algorithmic ໂດຍທໍາມະຊາດ, ຫນ້າທີ່ສະເພາະຂອງເຂົາເຈົ້າອາດຈະແຕກຕ່າງກັນ. ບົດຂຽນໄດ້ຊີ້ໃຫ້ເຫັນເຖິງຄວາມຈໍາເປັນສໍາລັບຄວາມຍືດຫຍຸ່ນໃນຂະນະທີ່ຮັກສາມາດຕະຖານການປະພຶດທີ່ສູງແລະອະທິບາຍວິທີການປະຕິບັດຫນ້າທີ່ຂອງການດູແລແລະຄວາມສັດຊື່ສາມາດຂະຫຍາຍໄປສູ່ fiduciaries ປອມ.
ຢ່າງໃດກໍຕາມ, ການສຶກສາບໍ່ໄດ້ຫຼີກເວັ້ນການປຶກສາຫາລືກ່ຽວກັບຂໍ້ບົກຜ່ອງທີ່ເປັນໄປໄດ້. ການວິເຄາະຢ່າງລະອຽດແມ່ນເຮັດໃນບັນຫາຕ່າງໆເຊັ່ນ: ຄວາມລໍາອຽງ, ການຂາດຄວາມໂປ່ງໃສ (ບັນຫາ "ກ່ອງດໍາ"), ອັນຕະລາຍດ້ານຄວາມປອດໄພ, ແລະທ່າແຮງສໍາລັບຜູ້ອໍານວຍການທີ່ສະຫລາດທີ່ສຸດທີ່ຈະຄວບຄຸມການສົນທະນາ. ເພື່ອຫຼຸດຜ່ອນອັນຕະລາຍເຫຼົ່ານີ້, ບົດລາຍງານແນະນໍາກອບດ້ານຈັນຍາບັນ, ນະໂຍບາຍຄວາມໂປ່ງໃສ, ແລະມາດຕະຖານທີ່ຊັດເຈນສໍາລັບຂັ້ນຕອນການຕັດສິນໃຈຂອງ AI. ການສົນທະນານີ້ເພີ່ມຢ່າງຫຼວງຫຼາຍຕໍ່ການສົນທະນາໃນປະຈຸບັນກ່ຽວກັບຄວາມຍຸຕິທໍາ algorithmic ໃນການພັດທະນາ AI.
ບົດຂຽນຍັງອອກຄໍາເຕືອນຕໍ່ການເບິ່ງ AI ເປັນພຽງແຕ່ເຄື່ອງມື. ແນວຄວາມຄິດແມ່ນວ່າ fiduciaries ປອມຄວນຈະສາມາດຕັດສິນດ້ວຍຕົນເອງ, ບໍ່ເສຍຄ່າຈາກຂໍ້ຈໍາກັດຂອງລະບົບກ່ອນໂຄງການ. ເພື່ອແກ້ໄຂຂໍ້ ຈຳ ກັດດ້ານທຶນຮອນທາງສັງຄົມແລະບັນຫາດ້ານຈັນຍາບັນທີ່ສັບສົນ, ການສຶກສາໄດ້ສະ ເໜີ ຮູບແບບການຮ່ວມມືທີ່ມະນຸດສະ ທຳ ແລະປັນຍາປະດິດຮ່ວມມືໃນຂະນະທີ່ ນຳ ໃຊ້ຄວາມເຂັ້ມແຂງທີ່ກ່ຽວຂ້ອງ. ໃນການຮ່ວມມືນີ້, ການກວດສອບຂອງມະນຸດແມ່ນຈໍາເປັນເພື່ອຮັບປະກັນວ່າຄໍາແນະນໍາທີ່ດີທີ່ສຸດໄດ້ຖືກປະຕິບັດ, ແລະການຕັດສິນໃຈຂອງ AI ແມ່ນຂຶ້ນກັບມາດຕະຖານດ້ານຈັນຍາບັນທີ່ເຄັ່ງຄັດ.
ມີອິດທິພົນຕໍ່ການຄຸ້ມຄອງບໍລິສັດໃນອະນາຄົດ
ພາກສຸດທ້າຍຂອງເອກະສານພິຈາລະນາວິທີການຄຸ້ມຄອງບໍລິສັດຈະປ່ຽນແປງຍ້ອນວ່າ AI ກາຍເປັນປະສົມປະສານຫຼາຍຂຶ້ນ. ມັນແນະນໍາກອບນິຕິກໍາເພື່ອສະກັດກັ້ນການເກີດໃຫມ່ຂອງ fiduciaries ປອມ. ການສືບສວນນີ້ບໍ່ພຽງແຕ່ກະຕຸ້ນການສົນທະນາທາງວິຊາການ, ແຕ່ຍັງເປັນການໂທຫາການປະຕິບັດສໍາລັບຜູ້ສ້າງນິຕິກໍາເພື່ອດັດແປງກົດຫມາຍໃນປະຈຸບັນແລະເປີດປະຕູສໍາລັບການປະຕິບັດດ້ານຈັນຍາບັນຂອງ AI ໃນການຕັ້ງຄ່າຄະນະກໍາມະ. ຄໍາຖາມຍັງຢືນຢູ່ວ່າ: ພວກເຮົາກຽມພ້ອມທີ່ຈະຍອມຮັບ AI ເປັນຄູ່ຮ່ວມງານການຄຸ້ມຄອງບໍລິສັດທີ່ເຊື່ອຖືໄດ້ບໍ?
ທີ່ມາ: https://www.cryptopolitan.com/ai-corporate-governance-ai-fiduciaries/