ຈັນຍາບັນຂອງ AI ລະວັງກ່ຽວກັບການຮ້າຍແຮງຂຶ້ນຂອງ AI Asymmetry ທ່າມກາງມະນຸດໄດ້ຮັບຈຸດຈົບສັ້ນຂອງໄມ້

ບາງ​ຄັ້ງ​ທ່ານ​ຢູ່​ໃນ​ຕອນ​ທ້າຍ​ທີ່​ຜິດ​ພາດ​ຂອງ​ໄມ້​.

ນິຍາມນັ້ນສາມາດນຳໃຊ້ກັບແນວຄິດຂອງຄວາມບໍ່ສົມມາໄດ້.

ແມ່ນແລ້ວ, ຂ້ອຍຈະເວົ້າກ່ຽວກັບ asymmetry. ດັ່ງທີ່ເຈົ້າອາດຈະໄດ້ພົບກັບໂລກທີ່ເຄັ່ງຕຶງທີ່ເຮົາອາໄສຢູ່ນີ້, ມີບາງໂອກາດທີ່ເຈົ້າອາດຈະພົບວ່າຕົນເອງມີຄວາມຮູ້ໜ້ອຍກວ່າກ່ຽວກັບເລື່ອງທີ່ຂ້ອນຂ້າງສຳຄັນສຳລັບເຈົ້າ. ນີ້ແມ່ນເອີ້ນວ່າຢ່າງເປັນທາງການ Asymmetry ຂໍ້ມູນ.

ສິ່ງທີ່ ສຳ ຄັນແມ່ນເຈົ້າມີຄວາມຮູ້ຫລືຂໍ້ມູນ ໜ້ອຍ ກວ່າທີ່ເຈົ້າຕ້ອງການ, ບວກກັບເຈົ້າມີ ໜ້ອຍ ກວ່າອີກຝ່າຍທີ່ກ່ຽວຂ້ອງກັບເລື່ອງນີ້. ເຈົ້າມີຈຸດເສຍປຽບທີ່ແຕກຕ່າງເມື່ອປຽບທຽບກັບອີກຝ່າຍ. ພວກເຂົາຮູ້ບາງສິ່ງທີ່ເຈົ້າບໍ່ຮູ້. ພວກ​ເຂົາ​ເຈົ້າ​ສາ​ມາດ​ນໍາ​ໃຊ້​ສິ່ງ​ທີ່​ເຂົາ​ເຈົ້າ​ຮູ້​, ໂດຍ​ສະ​ເພາະ​ແມ່ນ​ໃນ​ແງ່​ຂອງ​ສິ່ງ​ທີ່​ທ່ານ​ບໍ່​ຮູ້​, ແລະ​ໄດ້​ຮັບ​ມື​ເທິງ​ໃນ​ການ​ເຈ​ລະ​ຈາ​ຫຼື​ການ​ເຈ​ລະ​ຈາ​ທີ່​ຫຍາບ​ຄາຍ​ກັບ​ທ່ານ​.

ດີ, ມີເດັກນ້ອຍໃຫມ່ຢູ່ໃນຕົວເມືອງ, ເອີ້ນວ່າ AI Asymmetry.

ປະໂຫຍກຫຼ້າສຸດນີ້ຫມາຍເຖິງຄວາມເປັນໄປໄດ້ທີ່ເຈົ້າຈະຕໍ່ສູ້ກັບຄົນທີ່ປະກອບອາວຸດ AI, ໃນຂະນະທີ່ເຈົ້າບໍ່ມີອາວຸດ.

ພວກເຂົາເຈົ້າມີ AI ຢູ່ຂ້າງຂອງເຂົາເຈົ້າ, ໃນຂະນະທີ່ທ່ານມີ, ດີ, ພຽງແຕ່ທ່ານ. ສິ່ງ​ທີ່​ຖືກ​ຫລອກ​ລວງ. ທ່ານຢູ່ໃນຂໍ້ເສຍປຽບທີ່ສົມມຸດຕິຖານ. ອີກດ້ານ ໜຶ່ງ ຈະສາມາດແລ່ນເປັນວົງອ້ອມຮອບຕົວເຈົ້າໄດ້ເນື່ອງຈາກຖືກເສີມໂດຍ AI. ນັ້ນອາດຈະຢູ່ໃນຄໍາເວົ້າທີ່ມີຊື່ສຽງວ່າທັງຫມົດແມ່ນຍຸດຕິທໍາໃນຄວາມຮັກແລະສົງຄາມ (ຄໍາສຸພາສິດທີ່ຍາວນານທີ່ສ້າງຂຶ້ນໃນ ອີພູ ໂດຍ John Lyly, 1578), ເຖິງແມ່ນວ່ານະໂຍບາຍດ້ານແລະອັນຕະລາຍຂອງ AI Asymmetry ເຮັດໃຫ້ເກີດສິ່ງທ້າທາຍດ້ານຈັນຍາບັນ AI. ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ກ່ອນທີ່ພວກເຮົາຈະກະໂດດເຂົ້າໄປໃນອານາຈັກ AI ແລະຄວາມຊັບຊ້ອນອັນອຸດົມສົມບູນຂອງມັນກ່ຽວກັບ AI Asymmetry, ທໍາອິດໃຫ້ພວກເຮົາຄົ້ນຫາສະບັບປົກກະຕິປະຈໍາວັນຂອງຂໍ້ມູນ Asymmetry ເກົ່າທໍາມະດາ. ນີ້ຈະກໍານົດຂັ້ນຕອນສໍາລັບການ edging ເຂົ້າໄປໃນຄໍາສຸພາສິດ AI kid ໃຫມ່ໃນຕັນ.

ນິທານສັ້ນໆທີ່ໃຫ້ຄວາມເຂົ້າໃຈຢ່າງມີເຈດຕະນາອາດຈະເຮັດໃຫ້ຄວາມຢາກອາຫານຂອງເຈົ້າເຮັດໃຫ້ເຈົ້າຫວັ່ນໄຫວ.

ມື້ອື່ນຂ້ອຍມີຢາງຮາບພຽງຢູ່ໃນຖະຫນົນແລະກໍາລັງຊອກຫາຢ່າງໄວວາເພື່ອຊອກຫາການທົດແທນທີ່ເຫມາະສົມທີ່ສາມາດຕິດຕັ້ງໄດ້ທັນທີ. ດ້ວຍການໃຊ້ສະມາດໂຟນຂອງຂ້ອຍ, ຂ້ອຍເບິ່ງທາງອິນເຕີເນັດຢູ່ຮ້ານຂາຍຢາງລົດທີ່ຢູ່ໃກ້ຄຽງເພື່ອຄິດຫາໄລຍະທາງທີ່ຂ້ອຍຕ້ອງຂັບລົດໃສ່ຢາງລົດແລ່ນຂອງຂ້ອຍ ແລະວ່າຮ້ານໃດເປີດຢູ່. ນອກຈາກນັ້ນ, ຂ້າພະເຈົ້າໄດ້ປະເມີນຢ່າງໄວວາການທົບທວນຄືນຂອງລູກຄ້າອອນໄລນ໌ຂອງພວກເຂົາແລະພະຍາຍາມເກັບກ່ຽວສິ່ງທີ່ເປັນປະໂຫຍດກ່ຽວກັບວ່າພວກເຂົາຢູ່ໃນທຸລະກິດດົນປານໃດແລະປັດໃຈອື່ນໆທີ່ອາດຈະສະແດງໃຫ້ເຫັນເຖິງຄຸນຄ່າຂອງພວກເຂົາ.

ເມື່ອໂທຫາຮ້ານຂາຍຢາງລົດແຫ່ງໜຶ່ງ, ພະນັກງານໄດ້ໃຫ້ໃບສະເໜີລາຄາຢາງລົດ ແລະ ຄ່າຕິດຕັ້ງໃຫ້ຂ້ອຍ. ຢາງບໍ່ແມ່ນສິ່ງທີ່ຂ້ອຍມີຢູ່ໃນໃຈ, ແຕ່ພະນັກງານຮັບປະກັນຂ້ອຍວ່າພວກເຂົາຈະເປັນຮ້ານດຽວໃນພື້ນທີ່ທີ່ສາມາດເຮັດວຽກໄດ້ທັນທີ. ຕາມ​ເຈົ້າ​ໜ້າ​ທີ່​ກ່າວ​ວ່າ, ​ຮ້ານ​ຂາຍ​ຢາງ​ລົດ​ອື່ນໆ​ທີ່ຢູ່​ໃກ້​ຄຽງ​ຈະ​ບໍ່​ມີ​ຢາງ​ລົດ​ດັ່ງກ່າວ​ຢູ່​ໃນ​ສະ​ຕັອກ ​ແລະ ມັນ​ຈະ​ຕ້ອງ​ໃຊ້​ເວລາ​ຢ່າງ​ໜ້ອຍ​ໜຶ່ງ​ມື້​ເພື່ອ​ຈະ​ໄດ້​ຢາງ​ລົດ​ທີ່​ເໝາະ​ສົມ​ຈາກ​ສາງ​ເຄິ່ງທາງ​ໄກ.

ຂ້ອຍຢູ່ໃນທ່າມກາງຄວາມບໍ່ສົມດຸນຂອງຂໍ້ມູນ.

ພະນັກງານປະກາດວ່າຮູ້ເພີ່ມເຕີມກ່ຽວກັບສະຖານະພາບທ້ອງຖິ່ນຂອງຮ້ານຢາງລົດແລະໂດຍສະເພາະປະເພດຂອງຢາງທີ່ຂ້ອຍຕ້ອງການ. ຂ້ອຍຢູ່ໃນພື້ນທີ່ທີ່ຂ້ອຍພຽງແຕ່ຜ່ານແລະບໍ່ມີຄວາມຮູ້ເບື້ອງຕົ້ນໃດໆກ່ຽວກັບຮ້ານຢາງລົດໃນເຂດພື້ນທີ່ສະເພາະນັ້ນ. ສໍາລັບທັງຫມົດທີ່ຂ້າພະເຈົ້າໄດ້ຮູ້, ພະນັກງານແມ່ນຈຸດແລະກໍາລັງໃຫ້ຂ້າພະເຈົ້າຄວາມຈິງ unvarnished.

ແຕ່ພະນັກງານເຮັດແນວນັ້ນບໍ?

ບາງທີແມ່ນແລ້ວ, ບາງທີບໍ່.

ມັນອາດຈະເປັນວ່າສະມະການໄດ້ເຊື່ອຢ່າງຈິງໃຈທຸກສິ່ງທີ່ຖືກຖ່າຍທອດໃຫ້ຂ້ອຍ. ຕໍ່ພະນັກງານ, ນີ້ແມ່ນຄວາມຈິງ. ຫຼືບາງທີນັກບວດໄດ້ຂະຫຍາຍຄວາມຈິງ. ມັນເປັນໄປໄດ້ວ່າສິ່ງທີ່ຖືກເວົ້າອາດຈະເປັນຄວາມຈິງ, ເຖິງແມ່ນວ່າລັກສະນະທີ່ມັນໄດ້ຖືກພັນລະນາຫມາຍຄວາມວ່າມັນເປັນຄວາມຈິງທີ່ສຸດແລະບໍ່ສາມາດປະຕິເສດໄດ້. ແນ່ນອນ, ມັນອາດຈະເປັນ balderdash ຢ່າງສົມບູນແລະພະນັກງານແມ່ນພຽງແຕ່ shilling ສໍາລັບຮ້ານຢາງເພື່ອເກັບທຸລະກິດຂອງຂ້ອຍ. ຄະນະກໍາມະການທີ່ມີນ້ໍາສາມາດຢູ່ໃນເສັ້ນບໍ?

ຂ້ອຍກ້າເວົ້າວ່າບໍ່ມີໃຜມັກການຢູ່ໃນຖານະທີ່ດ້ອຍໂອກາດແບບນີ້.

ສະເຕກຂອງສະຖານະການແມ່ນປັດໃຈສໍາຄັນໃນເລື່ອງຄວາມສົມດຸນຂອງຂໍ້ມູນ. ຖ້າຄໍາຖາມຢູ່ໃນມືແມ່ນລັກສະນະຫນຶ່ງຂອງຊີວິດຫຼືຄວາມຕາຍ, ການຢູ່ໃນ doghouse ແລະເພິ່ງພາອາໄສອີກຝ່າຍສໍາລັບສິ່ງທີ່ພວກເຂົາຮູ້ຫຼືອ້າງວ່າຮູ້ແມ່ນທ່າທາງທີ່ສະຫຼາດແລະບໍ່ປາດຖະຫນາສູງທີ່ຈະຢູ່ໃນ. ເມື່ອສະເຕກຕໍ່າ. , ເຊັ່ນການສັ່ງອາຫານຄ່ໍາຂອງທ່ານໃນຮ້ານອາຫານແລະເຄື່ອງແມ່ຂ່າຍບອກທ່ານວ່າອາຫານປາແມ່ນສະຫວັນ, ແຕ່ທ່ານບໍ່ເຄີຍກິນຢູ່ທີ່ນັ້ນມາກ່ອນແລະບໍ່ມີຄວາມຮູ້, ທ່ານສາມາດໄປພ້ອມກັບ modicum ຂອງຂໍ້ມູນຂ່າວສານທີ່ບໍ່ສົມມຸດຕິຖານນີ້ໂດຍບໍ່ມີການ angst ຫຼາຍ (ຂ້າພະເຈົ້າ. ສົມມຸດວ່າເຈົ້າຍັງພະນັນວ່າເຄື່ອງແມ່ຂ່າຍຈະບໍ່ມີຄວາມສ່ຽງໃຫ້ຄໍາແນະນໍາທີ່ສົ້ມແລະຂາດການໄດ້ຮັບຄໍາແນະນໍາທີ່ເຫມາະສົມ).

ກັບຄືນໄປຫາເລື່ອງຂອງຢາງທີ່ຂາດຫາຍໄປ (ປາກເວົ້າ!), ຂ້ອຍຈະບໍ່ມີວິທີທັນທີທີ່ຈະຄິດອອກວ່າພະນັກງານກໍາລັງໃຫ້ຄວາມເຂົ້າໃຈທີ່ເຊື່ອຖືແລະໃຫ້ຂໍ້ມູນແກ່ຂ້ອຍ. ເຈົ້າອາດຈະສົງໄສວ່າເກີດຫຍັງຂຶ້ນ. ຂ້ອຍຕັດສິນໃຈໂທຫາຮ້ານຢາງລົດອື່ນໆຫຼາຍໆແຫ່ງທີ່ຢູ່ໃກ້ຄຽງ.

ເຈົ້າກຽມພ້ອມສໍາລັບສິ່ງທີ່ຂ້ອຍຄົ້ນພົບບໍ?

ຮ້ານຢາງລົດອື່ນໆທັງໝົດມີຢາງທີ່ຕ້ອງການຂອງຂ້ອຍຢູ່ໃນສະຕັອກ ແລະບໍ່ໄດ້ພະຍາຍາມ ແລະກະພິບ-ວິ້ງຊັກຊວນໃຫ້ຂ້ອຍເອົາຢາງອື່ນ (ດັ່ງທີ່ພະນັກງານຄົນທຳອິດພະຍາຍາມເຮັດ). ພວກເຂົາເຈົ້າຍັງສາມາດເຮັດວຽກໃຫ້ສໍາເລັດໃນໄລຍະເວລາດຽວກັນກັບຮ້ານຢາງທໍາອິດທີ່ຂ້າພະເຈົ້າ perchance ເອີ້ນວ່າ. ໃນລາຄາດຽວກັນ.

ການຖອນຫາຍໃຈຢ່າງຍິນດີເກີດຂຶ້ນໃນສ່ວນຂອງຂ້ອຍ, ຂ້ອຍຮັບປະກັນເຈົ້າ.

Ironically, ໃນ Murphy ຂອງກົດຫມາຍວ່າດ້ວຍໂຊກບໍ່ດີ, ສະຖານທີ່ທໍາອິດທີ່ຂ້າພະເຈົ້າໄດ້ຕິດຕໍ່ແມ່ນຫນຶ່ງດຽວທີ່ເບິ່ງຄືວ່າຈະອອກອາຫານທ່ຽງ, ຍ້ອນວ່າມັນແມ່ນ. ຂ້ອຍດີໃຈທີ່ຂ້ອຍຊອກຫາຂໍ້ມູນເພີ່ມເຕີມ. ນີ້ໄດ້ຮັດແຄບຊ່ອງຫວ່າງຂໍ້ມູນບໍ່ສະສົມ. ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ຕົບ​ມື​ໃຫ້​ຕົນ​ເອງ​ສໍາ​ລັບ​ການ​ຕິດ​ປືນ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ແລະ​ບໍ່​ໄດ້​ເຂົ້າ​ໄປ​ໃນ​ສະ​ຖານ​ທີ່​ທໍາ​ອິດ​ທີ່​ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ໂທ​ຫາ.

ວ່າໄດ້ຖືກກ່າວວ່າ, ມີຄ່າໃຊ້ຈ່າຍທີ່ແນ່ນອນຂອງປະເພດທີ່ກ່ຽວຂ້ອງກັບການໄດ້ຮັບຂໍ້ມູນເພີ່ມເຕີມຂອງຂ້ອຍ. ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ໂທ​ປະ​ມານ​ສີ່​ສາຍ​ທີ່​ແຕ່​ລະ​ຄົນ​ໃຊ້​ເວ​ລາ​ປະ​ມານ​ສິບ​ຫ້າ​ຫາ​ຊາວ​ນາ​ທີ​ເພື່ອ​ເຮັດ​ໄດ້​ຢ່າງ​ເຕັມ​ທີ່. ໃນຄວາມຮູ້ສຶກນັ້ນ, ຂ້າພະເຈົ້າໄດ້ໃຊ້ເວລາປະມານຫນຶ່ງຊົ່ວໂມງເຄິ່ງໃນຂະນະທີ່ພຽງແຕ່ຊອກຫາບ່ອນທີ່ຈະເອົາລົດຂອງຂ້ອຍ. ຖ້າຂ້ອຍໄດ້ເອົາລົດຂອງຂ້ອຍໄປບ່ອນທໍາອິດທັນທີ, ຢາງໃຫມ່ເກືອບຈະຢູ່ເທິງລົດຂອງຂ້ອຍໃນເວລານັ້ນ. ໃນອີກດ້ານຫນຶ່ງ, ຂ້າພະເຈົ້າເກືອບແນ່ນອນວ່າ, ຕໍ່ມາ, ໄດ້ເສຍໃຈກັບການຕັດສິນໃຈໄວທີ່ຂ້າພະເຈົ້າໄດ້ເຮັດໃນຂະນະທີ່ຢູ່ໃນ dastardly Information Asymmetry bind.

ບາງຄັ້ງທ່ານກໍ່ຕ້ອງກັດແຂ້ວຂອງເຈົ້າ ແລະເອົາຂໍ້ມູນທີ່ໜ້າຢ້ານເທົ່າທີ່ມັນມາ. ທ່ານພຽງແຕ່ຫວັງວ່າການຕັດສິນໃຈໃດກໍ່ຕາມທີ່ເຈົ້າເຮັດ, ຈະດີພໍ. ມັນອາດຈະບໍ່ເປັນການຕັດສິນໃຈທີ່ "ສົມບູນແບບ" ແລະຕໍ່ມາເຈົ້າອາດຈະເສຍໃຈກັບການເລືອກທີ່ໄດ້ເຮັດ. ອີກມຸມຫນຶ່ງແມ່ນວ່າເຈົ້າສາມາດພະຍາຍາມສະຫນັບສະຫນູນດ້ານຂອງສົມຜົນຂໍ້ມູນ, ເຖິງແມ່ນວ່ານີ້ບໍ່ຈໍາເປັນຕ້ອງເສຍຄ່າໃຊ້ຈ່າຍແລະອາດຈະໃຊ້ເວລາທີ່ມີຄ່າ, ຂຶ້ນກັບວ່າເວລາທີ່ຮັກແພງແມ່ນສໍາຄັນ.

ດຽວນີ້ເຈົ້າຮູ້ສຶກສະບາຍໃຈຢ່າງແນ່ນອນທີ່ຮູ້ວ່າລົດຂອງຂ້ອຍແລ່ນໄດ້ດີດ້ວຍຢາງໃໝ່ ແລະຖືກຕ້ອງ, ຂ້ອຍສາມາດປ່ຽນໄປສູ່ການປະກົດຕົວຂອງ AI Asymmetry.

ພິຈາລະນາເລື່ອງ AI ຂອງວິບັດ.

ເຈົ້າກໍາລັງຊອກຫາເງິນກູ້ບ້ານ. ມີການວິເຄາະການຮ້ອງຂໍການຈໍານອງອອນໄລນ໌ທີ່ທະນາຄານສະເພາະໃດຫນຶ່ງກໍາລັງໃຊ້. ລະບົບອອນໄລນ໌ເຮັດໃຫ້ການນໍາໃຊ້ຄວາມສາມາດຂອງ AI ກ້າວຫນ້າທາງດ້ານໃນມື້ນີ້. ບໍ່ຈໍາເປັນຕ້ອງເວົ້າກັບຕົວແທນໃຫ້ເງິນກູ້ຂອງມະນຸດ. AI ເຮັດມັນທັງຫມົດ.

ລະບົບ AI ນໍາພາທ່ານຜ່ານລະບົບການກະຕຸ້ນເຕືອນ. ທ່ານຕື່ມຂໍ້ມູນໃສ່ແບບຟອມຢ່າງເຕັມທີ່ແລະຕອບສະຫນອງລະບົບ AI. AI ນີ້ແມ່ນເວົ້າຫຼາຍ. ໃນຂະນະທີ່ທ່ານໃນອະດີດອາດຈະໄດ້ໃຊ້ລະບົບແບບຟອມທີ່ໃຊ້ຄອມພິວເຕີແບບດັ້ງເດີມ, ຕົວແປ AI ນີ້ແມ່ນຄ້າຍຄືກັນກັບການພົວພັນກັບຕົວແທນຂອງມະນຸດ. ບໍ່ຂ້ອນຂ້າງ, ແຕ່ພຽງພໍທີ່ເຈົ້າເກືອບຈະເລີ່ມເຊື່ອວ່າມະນຸດຢູ່ໃນອີກດ້ານຫນຶ່ງຂອງກິດຈະກໍານີ້.

ຫຼັງຈາກທີ່ເຮັດດີທີ່ສຸດເພື່ອ "ປຶກສາຫາລື" ຄໍາຮ້ອງຂໍຂອງທ່ານກັບ AI ນີ້, ໃນທີ່ສຸດ, ມັນແຈ້ງໃຫ້ທ່ານຮູ້ວ່າ, ແຕ່ຫນ້າເສຍດາຍ, ຄໍາຮ້ອງຂໍເງິນກູ້ບໍ່ໄດ້ຮັບການອະນຸມັດ. ມັນໄດ້ຮັບແບ້ຂອງເຈົ້າທີ່ AI ເບິ່ງຄືວ່າຈະໃຫ້ຄໍາແກ້ຕົວ, ຄືກັບວ່າ AI ຕ້ອງການອະນຸມັດເງິນກູ້ແຕ່ວ່າມະນຸດທີ່ມີຄວາມກະຕືລືລົ້ນທີ່ເບິ່ງແຍງທະນາຄານຈະບໍ່ປ່ອຍໃຫ້ AI ເຮັດແນວນັ້ນ. ສໍາລັບການຄຸ້ມຄອງຂອງຂ້ອຍກ່ຽວກັບການໃຫ້ຄໍາແກ້ຕົວຂອງ AI ປະເພດເຫຼົ່ານີ້ເຮັດໃຫ້ເຂົ້າໃຈຜິດ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ເຈົ້າບໍ່ຮູ້ສາເຫດວ່າເປັນຫຍັງເຈົ້າຈຶ່ງຖືກປະຕິເສດ. AI ບໍ່ໄດ້ໃຫ້ຄໍາອະທິບາຍໃດໆ. ບາງທີ AI ໄດ້ເຮັດຜິດພາດຫຼື messed ຂຶ້ນໃນການຄິດໄລ່ຂອງມັນ. ຮ້າຍແຮງໄປກວ່ານັ້ນ, ສົມມຸດວ່າ AI ໄດ້ໃຊ້ບາງຂໍ້ພິຈາລະນາທີ່ມີຄໍາຖາມສູງ ເຊັ່ນ: ເຊື້ອຊາດ ຫຼືເພດຂອງເຈົ້າໃນເວລາຕັດສິນໃຈກູ້ຢືມ. ທັງຫມົດທີ່ເຈົ້າຮູ້ແມ່ນວ່າເຈົ້າເບິ່ງຄືວ່າເຈົ້າໄດ້ເສຍເວລາຂອງເຈົ້າແລະໃນຂະນະດຽວກັນຍັງໄດ້ມອບຂໍ້ມູນສ່ວນຕົວຈໍານວນນຶ່ງໃຫ້ກັບ AI ແລະທະນາຄານ. AI ຂອງພວກເຂົາເຮັດໃຫ້ເຈົ້າດີທີ່ສຸດ.

ນີ້ຈະຖືກຕິດສະຫຼາກເປັນຕົວຢ່າງຂອງ AI Asymmetry.

ມັນແມ່ນທ່ານຕໍ່ຕ້ານທະນາຄານ. ທະນາຄານໄດ້ປະກອບອາວຸດດ້ວຍ AI. ເຈົ້າຍັງບໍ່ໄດ້ປະກອບອາວຸດເທົ່າທຽມກັນ. ທ່ານ​ມີ​ປັນຍາ​ຂອງ​ທ່ານ​ແລະ​ໂຮງຮຽນ​ຂອງ​ທ່ານ​ທີ່​ມີ​ສະຕິ​ປັນຍາ​ເຄາະ​ຢ່າງ​ແຂງ​ແຮງ, ​ແຕ່​ບໍ່​ມີ AI ຢູ່​ໃນ​ຖົງ​ຫລັງ​ຂອງ​ທ່ານ. ໃຈຕໍ່ກັບເຄື່ອງຈັກ. ແຕ່ຫນ້າເສຍດາຍ, ເຄື່ອງຊະນະໃນກໍລະນີນີ້.

ເຈົ້າຈະເຮັດຫຍັງ?

ກ່ອນອື່ນ ໝົດ, ພວກເຮົາຕ້ອງການບົນພື້ນຖານສັງຄົມເພື່ອຮັບຮູ້ວ່າ AI Asymmetry ນີ້ ກຳ ລັງເຕີບໃຫຍ່ແລະກາຍເປັນເກືອບທຸກແຫ່ງ. ມະນຸດກໍາລັງພົບກັບ AI ໃນທຸກລະບົບທີ່ພວກເຮົາພົວພັນກັບປະຈໍາວັນ. ບາງຄັ້ງ AI ແມ່ນອົງປະກອບດຽວທີ່ພວກເຮົາພົວພັນກັບ, ເຊັ່ນໃນຕົວຢ່າງນີ້ກ່ຽວກັບການຮ້ອງຂໍເງິນກູ້. ໃນກໍລະນີອື່ນໆ, ມະນຸດອາດຈະຢູ່ໃນວົງການທີ່ອີງໃສ່ AI ເພື່ອຊ່ວຍພວກເຂົາໃນການປະຕິບັດການບໍລິການທີ່ໃຫ້. ສໍາລັບການກູ້ຢືມເງິນ, ມັນອາດຈະວ່າທະນາຄານຈະໃຫ້ທ່ານເວົ້າກັບຕົວແທນຂອງມະນຸດແທນທີ່ຈະພົວພັນກັບ AI, ແຕ່ສໍາລັບຕົວແທນຂອງມະນຸດແມ່ນໃຊ້ລະບົບຄອມພິວເຕີເພື່ອເຂົ້າຫາ AI ທີ່ນໍາພາຕົວແທນຂອງມະນຸດໃນລະຫວ່າງການຮ້ອງຂໍເງິນກູ້. (ແລະ, ທ່ານເກືອບສະເຫມີຫມັ້ນໃຈໄດ້ວ່າຕົວແທນຂອງມະນຸດປະຕິບັດຄືກັບວ່າພວກເຂົາຖືກຈໍາຄຸກໂດຍການເຮັດຢ່າງເຂັ້ມງວດໃນທຸກສິ່ງທີ່ AI "ບອກໃຫ້ພວກເຂົາເຮັດ").

ໃນກໍລະນີໃດກໍ່ຕາມ, AI ຍັງຢູ່ໃນການປະສົມປະສານ.

ອັນທີສອງ, ພວກເຮົາຈໍາເປັນຕ້ອງພະຍາຍາມແລະຮັບປະກັນວ່າ AI Asymmetry ແມ່ນຢ່າງຫນ້ອຍຖືກເຮັດບົນພື້ນຖານດ້ານຈັນຍາບັນ AI.

ອະນຸຍາດໃຫ້ຂ້ອຍອະທິບາຍຂໍ້ສັງເກດທີ່ເບິ່ງຄືວ່າແປກປະຫຼາດນັ້ນ. ເຈົ້າເຫັນ, ຖ້າພວກເຮົາສາມາດຫມັ້ນໃຈໄດ້ບາງຢ່າງວ່າ AI ກໍາລັງປະຕິບັດຢ່າງມີຈັນຍາບັນ, ພວກເຮົາອາດຈະມີຄວາມສະດວກສະບາຍບາງຢ່າງກ່ຽວກັບຄວາມບໍ່ສົມດຸນທີ່ກໍາລັງຫຼີ້ນ. ບົນພື້ນຖານທີ່ຂ້ອນຂ້າງຄ້າຍຄືກັນແຕ່ຍັງວ່າງ, ເຈົ້າອາດຈະເວົ້າວ່າຖ້າການໂຕ້ຕອບຂອງຂ້ອຍກັບພະນັກງານຮ້ານຢາງລົດທໍາອິດມີຄໍາແນະນໍາດ້ານຈັນຍາບັນທີ່ເຂັ້ມງວດແລະຖືກບັງຄັບໃຊ້, ບາງທີຂ້ອຍຈະບໍ່ໄດ້ຮັບການບອກເລື່ອງທີ່ຂ້ອຍຖືກບອກ, ຫຼືຢ່າງຫນ້ອຍຂ້ອຍ. ອາດຈະບໍ່ໄດ້ທັນທີຊອກຫາວິທີທີ່ຈະຄົ້ນພົບວ່າ tale ສູງໄດ້ຖືກມອບໃຫ້ຂ້າພະເຈົ້າ.

ຂ້ອຍຈະອະທິບາຍເພີ່ມເຕີມກ່ຽວກັບຈັນຍາບັນ AI ໃນເວລານີ້.

ອັນທີສາມ, ພວກເຮົາຄວນຊອກຫາວິທີທີ່ຈະຫຼຸດຜ່ອນ AI Asymmetry. ຖ້າທ່ານມີ AI ທີ່ຢູ່ຂ້າງເຈົ້າ, ພະຍາຍາມເປັນຄູຝຶກສອນຫຼືຜູ້ປົກປ້ອງຂອງເຈົ້າ, ເຈົ້າອາດຈະສາມາດໃຊ້ AI ນັ້ນເພື່ອເຮັດການໂຕ້ແຍ້ງກັບ AI ອື່ນໆທີ່ເຈົ້າຈະຫົວຕໍ່. ຍ້ອນວ່າເຂົາເຈົ້າເວົ້າວ່າ, ບາງຄັ້ງມັນເຮັດໃຫ້ຄວາມຮູ້ສຶກອຸດົມສົມບູນທີ່ຈະຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟ.

ກ່ອນທີ່ຈະເຂົ້າໄປໃນບາງຊີ້ນແລະມັນຕົ້ນເພີ່ມເຕີມກ່ຽວກັບການພິຈາລະນາທໍາມະຊາດແລະຂົນສັດທີ່ຕິດພັນກັບ AI Asymmetry, ໃຫ້ພວກເຮົາສ້າງບາງພື້ນຖານເພີ່ມເຕີມໃນຫົວຂໍ້ທີ່ສໍາຄັນຢ່າງເລິກເຊິ່ງ. ພວກເຮົາຈໍາເປັນຕ້ອງໃຊ້ເວລາສັ້ນໆເຂົ້າໄປໃນຈັນຍາບັນ AI ແລະໂດຍສະເພາະແມ່ນການມາຮອດຂອງ Machine Learning (ML) ແລະ Deep Learning (DL).

ທ່ານອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່າສຽງດັງທີ່ສຸດໃນປະຈຸບັນນີ້ຢູ່ໃນພາກສະຫນາມ AI ແລະເຖິງແມ່ນວ່າຢູ່ນອກພາກສະຫນາມຂອງ AI ປະກອບດ້ວຍການຮ້ອງອອກມາສໍາລັບລັກສະນະທີ່ໃຫຍ່ກວ່າຂອງ AI ດ້ານຈັນຍາບັນ. ລອງພິຈາລະນາເບິ່ງວ່າມັນຫມາຍຄວາມວ່າແນວໃດກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI. ນອກຈາກນັ້ນ, ພວກເຮົາຈະຄົ້ນຫາສິ່ງທີ່ຂ້ອຍຫມາຍເຖິງເມື່ອຂ້ອຍເວົ້າກ່ຽວກັບ Machine Learning ແລະ Deep Learning.

ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.

ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະສາມາດກວດສອບໄດ້, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ຜູ້ຂຽນລະຫັດ" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດດ້ານຈັນຍາບັນຂອງ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ໃຫ້ກັບຄືນໄປຫາຈຸດສຸມຂອງພວກເຮົາກ່ຽວກັບ AI Asymmetry.

ສະຫຼຸບຫຍໍ້ກ່ຽວກັບສາມຂໍ້ແນະນຳທີ່ໄດ້ລະບຸໄວ້ຂ້າງເທິງຂອງຂ້ອຍຄືນີ້:

1) ຈົ່ງຮູ້ວ່າ AI Asymmetry ມີຢູ່ ແລະກໍາລັງເຕີບໂຕ

2) ຊອກຫາເພື່ອຮັບປະກັນວ່າ AI Asymmetry ຖືກຜູກມັດໂດຍຈັນຍາບັນ AI

3) ພະຍາຍາມຕໍ່ສູ້ກັບ AI Asymmetry ໂດຍການປະກອບອາວຸດກັບ AI

ພວກເຮົາຈະພິຈາລະນາຢ່າງໃກ້ຊິດກັບຈຸດສຸດທ້າຍຂອງການຕໍ່ສູ້ກັບໄຟ.

ຈິນຕະນາການວ່າເມື່ອຊອກຫາເງິນກູ້, ທ່ານມີ AI ທີ່ເຮັດວຽກຢູ່ຂ້າງເຈົ້າຄວາມພະຍາຍາມ. ນີ້ອາດຈະເປັນແອັບທີ່ອີງໃສ່ AI ໃນສະມາດໂຟນຂອງເຈົ້າທີ່ສ້າງຂຶ້ນເພື່ອຮັບເງິນກູ້. ມັນ​ບໍ່​ແມ່ນ app ໂດຍ​ຫນຶ່ງ​ຂອງ​ທະ​ນາ​ຄານ​ແລະ​ແທນ​ທີ່​ຈະ​ເປັນ​ອິດ​ສະ​ຫຼະ​ເພື່ອ​ດໍາ​ເນີນ​ການ​ໃນ​ນາມ​ຂອງ​ທ່ານ​. ຂ້ອຍໄດ້ລາຍລະອຽດປະເພດຂອງແອັບຯເຫຼົ່ານີ້ຢູ່ໃນປື້ມຂອງຂ້ອຍກ່ຽວກັບ AI-based guardian angel bots, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ເມື່ອ​ທ່ານ​ສະ​ຫມັກ​ຂໍ​ເງິນ​ກູ້​, ທ່ານ​ອາດ​ຈະ​ອ້າງ​ເຖິງ app ນີ້​ຕາມ​ທີ່​ທ່ານ​ກໍາ​ລັງ​ກ້າວ​ຜ່ານ​ຂະ​ບວນ​ການ​ສະ​ຫມັກ​ໂດຍ AI ອື່ນໆ​. ສອງລະບົບ AI ເຫຼົ່ານີ້ແມ່ນແຕກຕ່າງກັນແລະຫມົດຈາກກັນແລະກັນ. AI ໃນສະມາດໂຟນຂອງທ່ານໄດ້ຖືກ "ຝຶກອົບຮົມ" ເພື່ອຮູ້ທຸກ tricks ທີ່ໃຊ້ໂດຍ AI ອື່ນໆ. ດັ່ງນັ້ນ, ຄໍາຕອບທີ່ທ່ານເຂົ້າໄປໃນ AI ຂອງທະນາຄານຈະອີງໃສ່ສິ່ງທີ່ AI ກໍາລັງແນະນໍາທ່ານ.

ຕົວແປອື່ນປະກອບດ້ວຍ AI ຂອງທ່ານຕອບຄໍາຖາມທີ່ຕັ້ງໂດຍ AI ອື່ນໆ. ເທົ່າທີ່ AI ອື່ນສາມາດກວດສອບໄດ້, ມັນແມ່ນເຈົ້າທີ່ກໍາລັງເຂົ້າໄປໃນຄໍາຕອບ. ແທນທີ່ຈະ, ທ່ານອາດຈະພຽງແຕ່ເບິ່ງຍ້ອນວ່າການໂຕ້ຕອບເກີດຂຶ້ນລະຫວ່າງສອງລະບົບ AI ຕໍ່ສູ້ກັບ. ນີ້ຊ່ວຍໃຫ້ທ່ານເຫັນສິ່ງທີ່ AI ຂອງເຈົ້າກໍາລັງສະເຫນີ. ນອກຈາກນັ້ນ, ທ່ານສາມາດປັບຕົວ AI ຂອງທ່ານໄດ້ໂດຍອີງຕາມວ່າທ່ານພໍໃຈກັບສິ່ງທີ່ AI ກໍາລັງເຮັດໃນນາມຂອງທ່ານ.

ຂ້າພະເຈົ້າໄດ້ຄາດຄະເນວ່າພວກເຮົາທຸກຄົນຈະຄ່ອຍໆປະກອບອາວຸດກັບ AI ທີ່ຈະຢູ່ຂ້າງພວກເຮົາໃນສະຖານະການ AI Asymmetry ເຫຼົ່ານີ້.

ຂໍ​ໃຫ້​ພິຈາລະນາ​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ເປັນ​ໄປ​ໄດ້​ແນວ​ໃດ.

ນີ້ແມ່ນຜົນກະທົບຕໍ່ພື້ນຖານຂອງ AI Asymmetry ທີ່ຂ້າພະເຈົ້າໄດ້ວາງໄວ້:

  • ປັບ AI Asymmetry ໃຫ້ພໍດີຂອງທ່ານ (ນໍາເຈົ້າຂຶ້ນ, ຫວັງວ່າຈະບັນລຸລະດັບເທົ່າທຽມກັນ)
  • ກະຕຸ້ນ AI Asymmetry ໃຫ້ກັບຄວາມໂປດປານຂອງເຈົ້າ (ຍົກ​ໃຫ້​ທ່ານ​ໄດ້​ປຽບ​ໃນ​ເວ​ລາ​ທີ່​ມີ​ຄວາມ​ເທົ່າ​ທຽມ​ກັນ​)
  • ການເພີ່ມ AI Asymmetry ໃຫ້ກັບຄວາມໂປດປານພິເສດຂອງທ່ານ (ໄດ້​ຮັບ​ຜົນ​ປະ​ໂຫຍດ​ທີ່​ກວ້າງ​ຂວາງ​ໃນ​ເວ​ລາ​ທີ່​ໄດ້​ປຽບ​)
  • Inadvertent Undercutting ຂອງ AI Asymmetry ກັບຄວາມບໍ່ພໍໃຈຂອງທ່ານ (ໃນເວລາທີ່ທ່ານມີຜົນປະໂຫຍດທີ່ມີຢູ່ແລ້ວແລະ AI ໄດ້ດຶງທ່ານລົງໂດຍບໍ່ໄດ້ຕັ້ງໃຈ)

ເວລາທີ່ຈະດຳນ້ຳເລິກເຂົ້າໄປໃນຄວາມເປັນໄປໄດ້ທີ່ໜ້າສົນໃຈເຫຼົ່ານີ້.

Flattening the Asymmetry AI ໃນຄວາມໂປດປານຂອງເຈົ້າ

Flattening the AI ​​Asymmetry ແມ່ນການພິຈາລະນາທີ່ຊັດເຈນທີ່ສຸດແລະມັກຈະສົນທະນາຫຼາຍທີ່ສຸດ, ຄືວ່າເຈົ້າຈະເອົາແຂນຕົວເອງກັບ AI ເພື່ອພະຍາຍາມແລະໄປຫາປາຍຕີນກັບ AI ທີ່ຖືກໃຊ້ໂດຍອີກຝ່າຍໃນເລື່ອງທີ່ມີຢູ່ໃນມື. ການຕັ້ງຄ່າ AI Asymmetry ເລີ່ມຕົ້ນກັບທ່ານດ້ວຍຂໍ້ເສຍທີ່ຕັດສິນໃຈ. ທ່ານບໍ່ມີ AI ຢູ່ໃນແຈຂອງທ່ານ. ທ່ານຢູ່ໃນດ້ານຕ່ໍາຂອງສິ່ງຕ່າງໆ. ອີກດ້ານຫນຶ່ງມີ AI ແລະພວກເຂົາຢູ່ໃນພື້ນທີ່ສູງກວ່າ.

ດັ່ງນັ້ນ, ເຈົ້າໄດ້ປະກອບອາວຸດຕົນເອງຢ່າງສະຫລາດກັບ AI ທີ່ມີຈຸດປະສົງເພື່ອເຮັດໃຫ້ເຈົ້າແລະ AI ອື່ນໆຢູ່ໃນເງື່ອນໄຂເທົ່າທຽມກັນ.

ຄວາມແຕກຕ່າງທີ່ ສຳ ຄັນແລະບາງທີ ໜ້າ ປະຫລາດໃຈທີ່ຕ້ອງຈື່ໄວ້ແມ່ນວ່າມັນຈະບໍ່ເປັນກໍລະນີທີ່ລະບົບ AI ທີ່ຖືກ ນຳ ໃຊ້ຈະດຸ່ນດ່ຽງຕໍ່ກັນແລະກັນ. ເຈົ້າ​ອາດ​ຈະ​ເອົາ​ຕົວ​ເອງ​ໄປ​ກັບ AI ທີ່​ເຮົາ​ຈະ​ເວົ້າ​ວ່າ​ມີ​ພະລັງ​ໜ້ອຍ​ກວ່າ AI ທີ່​ອີກ​ຝ່າຍ​ໃຊ້. ໃນກໍລະນີໃດກໍ່ຕາມ, ທ່ານໄດ້ເພີ່ມຕໍາແຫນ່ງ downside ຂອງທ່ານ, ຂອບໃຈ, ເຖິງແມ່ນວ່າໃນປັດຈຸບັນທ່ານຈະບໍ່ມີຄວາມສະເຫມີພາບກັບອີກດ້ານຫນຶ່ງແລະ AI ຂອງມັນ.

ນັ້ນແມ່ນເຫດຜົນທີ່ຂ້ອຍອ້າງເຖິງນີ້ເປັນການເຮັດໃຫ້ AI Asymmetry ແປ. ທ່ານອາດຈະສາມາດຮັດຊ່ອງຫວ່າງໄດ້, ເຖິງແມ່ນວ່າຈະບໍ່ປິດຊ່ອງຫວ່າງຢ່າງເຕັມສ່ວນ. ຈຸດປະສົງສຸດທ້າຍແມ່ນການໃຊ້ AI ຢູ່ຂ້າງຂອງເຈົ້າເຊິ່ງຈະນໍາເຈົ້າໄປສູ່ທ່າທີ່ເທົ່າທຽມກັນ. ສິ່ງທີ່ເປັນ, ນີ້ອາດຈະເປັນຫຼືອາດຈະບໍ່ເປັນໄປໄດ້. ອີກດ້ານ ໜຶ່ງ ສາມາດມີ AI ລາຄາແພງແທ້ໆແລະເຈົ້າ ກຳ ລັງພະຍາຍາມແຂ່ງຂັນກັບ AI ລຸ້ນແມ່ແລະປັອບທີ່ປອດໄພ.

ບໍ່ແມ່ນ AI ທັງຫມົດແມ່ນຄືກັນ.

ກະຕຸ້ນ AI Asymmetry ເພື່ອຄວາມໂປດປານຂອງເຈົ້າ

ສະຖານະການນີ້ບໍ່ແມ່ນສິ່ງທີ່ສົນທະນາຫຼາຍໃນມື້ນີ້, ບາງສ່ວນເນື່ອງຈາກວ່າມັນຫາຍາກໃນປັດຈຸບັນ. ມື້ຫນຶ່ງ, ນີ້ຈະເປັນເລື່ອງທໍາມະດາ. ແນວຄິດແມ່ນວ່າສົມມຸດວ່າທ່ານບໍ່ມີ AI ແລະຢ່າງໃດກໍ່ຕາມຢູ່ໃນພື້ນທີ່ເທົ່າທຽມກັນກັບຝ່າຍທີ່ມີ AI.

ດີ​ສໍາ​ລັບ​ເຈົ້າ.

ມະນຸດມີສະຕິປັນຍາກ່ຽວກັບພວກມັນ.

ແຕ່ທ່ານອາດຈະຕ້ອງການທີ່ຈະໄດ້ຮັບປະໂຫຍດຫຼາຍກວ່າອີກດ້ານຫນຶ່ງ. ການປະກອບອາວຸດໃຫ້ຕົວເອງກັບ AI ຈະພາເຈົ້າໄປສູ່ພື້ນທີ່ສູງກວ່າ. ດຽວນີ້ເຈົ້າມີປັນຍາ ແລະ AI ທີ່ເຊື່ອຖືໄດ້ຂອງເຈົ້າຢູ່ໃນມື. ທ່ານໄດ້ຮັບປະໂຫຍດທີ່ສົມມຸດວ່າຈະມີໄຊຊະນະເຫນືອ AI ຂອງອີກດ້ານຫນຶ່ງ.

ຊຸກຍູ້ AI Asymmetry ໃຫ້ກັບຄວາມໂປດປານພິເສດຂອງທ່ານ

ການນໍາໃຊ້ເຫດຜົນທີ່ຄ້າຍຄືກັນເປັນລັກສະນະຂອງການກະຕຸ້ນ AI Asymmetry ໃນນາມຂອງເຈົ້າ, ສົມມຸດວ່າທ່ານຢູ່ເຫນືອຄວາມສາມາດຂອງອີກດ້ານຫນຶ່ງທີ່ກໍາລັງໃຊ້ AI. Ergo, ເຈົ້າຍັງບໍ່ໄດ້ເລີ່ມຕົ້ນຢູ່ໃນທ່າທີ່ເທົ່າທຽມກັນ. ໂຊກດີທີ່ທ່ານຢູ່ດ້ານເທິງແລ້ວ.

ຢ່າງໃດກໍຕາມ, ທ່ານອາດຈະຕ້ອງການທີ່ຈະຮັບປະກັນຜົນປະໂຫຍດທີ່ຍິ່ງໃຫຍ່ກວ່າເກົ່າ. ເພາະສະນັ້ນ, ທ່ານແຂນຕົວທ່ານເອງດ້ວຍ AI. ນີ້ໃຊ້ເວລາຫົວແລະບ່າຂອງເຈົ້າຂ້າງເທິງອີກຂ້າງຫນຶ່ງ.

ການຕັດຕໍ່ໂດຍບໍ່ໄດ້ຕັ້ງໃຈຂອງ AI Asymmetry ກັບຄວາມບໍ່ພໍໃຈຂອງທ່ານ

ຂ້ອຍສົງໄສວ່າເຈົ້າຢາກໄດ້ຍິນກ່ຽວກັບຄວາມເປັນໄປໄດ້ນີ້. ກະລຸນາຮັບຮູ້ວ່າການຈັດການກັບ AI ບໍ່ແມ່ນດອກກຸຫລາບແລະຂະໜົມເຄັກທັງໝົດ.

ມັນອາດຈະເປັນວ່າເມື່ອທ່ານແຂນຕົວເອງກັບ AI, ຕົວຈິງແລ້ວທ່ານຕັດຕົວທ່ານເອງ. ຖ້າເຈົ້າມີໜ້ອຍກວ່າ AI ຂອງອີກຝ່າຍໜຶ່ງແລ້ວ, ເຈົ້າຢູ່ໃນຂຸມເລິກກວ່ານີ້. ຖ້າເຈົ້າຢູ່ໃນເງື່ອນໄຂສະເໝີພາບ, ດຽວນີ້ເຈົ້າເສຍປຽບ. ຖ້າທ່ານຢູ່ຂ້າງເທິງອີກຂ້າງຫນຶ່ງ, ປະຈຸບັນທ່ານເທົ່າກັບຫຼືຕ່ໍາກວ່າມັນ.

ສິ່ງນັ້ນເກີດຂຶ້ນໄດ້ແນວໃດ?

ເຈົ້າອາດຈະຕົກໃຈທີ່ຈະໄຕ່ຕອງວ່າ AI ທີ່ທ່ານໃຊ້ນັ້ນຈະພາເຈົ້າໄປໃນທາງທີ່ຜິດ. ນີ້ສາມາດເກີດຂຶ້ນໄດ້ຢ່າງງ່າຍດາຍ. ພຽງແຕ່ຍ້ອນວ່າທ່ານມີ AI ໃນແຈຂອງທ່ານບໍ່ໄດ້ຫມາຍຄວາມວ່າມັນເປັນປະໂຫຍດ. ທ່ານອາດຈະໃຊ້ AI ແລະມັນໃຫ້ຄໍາແນະນໍາທີ່ທ່ານບໍ່ຈໍາເປັນຄິດວ່າເຫມາະສົມ, ແຕ່ທ່ານຕັດສິນໃຈທີ່ຈະໄປກັບມັນ. ເຫດຜົນຂອງເຈົ້າໃນເວລານັ້ນແມ່ນວ່ານັບຕັ້ງແຕ່ເຈົ້າໄປຫາບັນຫາທີ່ຈະໄດ້ຮັບ AI, ເຈົ້າອາດຈະຂຶ້ນກັບມັນ.

AI ທີ່​ທ່ານ​ກໍາ​ລັງ​ໃຊ້​ອາດ​ຈະ​ມີ​ຄວາມ​ຜິດ​ພາດ​. ຫຼືມັນອາດຈະຖືກວາງແຜນທີ່ບໍ່ດີ. ມີເຫດຜົນຫຼາຍຢ່າງທີ່ AI ອາດຈະໃຫ້ຄໍາແນະນໍາທີ່ສັ່ນສະເທືອນແກ່ເຈົ້າ. ຜູ້ທີ່ຍອມຮັບຢ່າງບໍ່ເຂົ້າໃຈສິ່ງທີ່ AI ເວົ້າໃຫ້ເຮັດແມ່ນຜູກມັດທີ່ຈະພົບເຫັນຕົວເອງຢູ່ໃນໂລກທີ່ເຈັບປວດ. ຂ້າພະເຈົ້າໄດ້ກວມເອົາສະຖານະການດັ່ງກ່າວຢູ່ໃນຖັນຂອງຂ້ອຍ, ເຊັ່ນ: ການເຊື່ອມຕໍ່ທີ່ນີ້.

ເສັ້ນທາງລຸ່ມແມ່ນວ່າບໍ່ມີການຮັບປະກັນຢ່າງແທ້ຈິງວ່າພຽງແຕ່ຍ້ອນວ່າເຈົ້າປະກອບອາວຸດກັບ AI ເຈົ້າຈະຊະນະໃນເກມ AI Asymmetry.

ເຈົ້າອາດຈະມາຮອດສະໜາມຫຼີ້ນລະດັບ. ເຈົ້າອາດຈະໄດ້ຮັບປະໂຫຍດ. ແລະ, ແຕ່ຫນ້າເສຍດາຍ, ທ່ານຈໍາເປັນຕ້ອງລະມັດລະວັງເພາະວ່າມັນອາດຈະເປັນວ່າທ່ານຈົມລົງໃນລະດັບຕ່ໍາໃນເວລາທີ່ປະກອບອາວຸດກັບ AI.

ໃນບາງລະດັບ, ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າຈັນຍາບັນຂອງ AI ແລະຈັນຍາບັນ AI ແມ່ນຫົວຂໍ້ສໍາຄັນດັ່ງກ່າວ. ຫຼັກຈັນຍາບັນຂອງ AI ເຮັດໃຫ້ພວກເຮົາມີຄວາມລະມັດລະວັງ. ບາງຄັ້ງນັກເທກໂນໂລຍີ AI ສາມາດກາຍເປັນຄົນທີ່ສົນໃຈກັບເຕັກໂນໂລຢີ, ໂດຍສະເພາະການເພີ່ມປະສິດທິພາບຂອງເຕັກໂນໂລຢີສູງ. ເຂົາເຈົ້າບໍ່ຈໍາເປັນພິຈາລະນາເຖິງຜົນກະທົບຂອງສັງຄົມທີ່ໃຫຍ່ກວ່າ. ການມີແນວຄວາມຄິດດ້ານຈັນຍາບັນຂອງ AI ແລະເຮັດແນວນັ້ນປະສົມປະສານກັບການພັດທະນາ AI ແລະພາກສະຫນາມແມ່ນສໍາຄັນສໍາລັບການຜະລິດ AI ທີ່ເຫມາະສົມ.

ນອກເຫນືອຈາກການຈ້າງງານຈັນຍາບັນ AI, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອປົກຄອງການນໍາໃຊ້ຕ່າງໆຂອງ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມ​ພະ​ຍາ​ຍາມ​ເພື່ອ​ຮ່າງ​ກົດ​ໝາຍ​ດັ່ງ​ກ່າວ​ແມ່ນ​ເປັນ​ໄປ​ເທື່ອ​ລະ​ກ້າວ. ຈັນຍາບັນ AI ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ, ແລະເກືອບແນ່ນອນຈະລວມເຂົ້າກັບກົດຫມາຍໃຫມ່ເຫຼົ່ານັ້ນໂດຍກົງ.

ຈົ່ງຈື່ໄວ້ວ່າບາງຄົນໂຕ້ຖຽງຢ່າງກ້າຫານວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ໃນຄວາມເປັນຈິງ, ພວກເຂົາເຕືອນວ່າຖ້າພວກເຮົາປະກາດກົດຫມາຍ AI ເຫຼົ່ານີ້, ພວກເຮົາຈະຂ້າ goose ທອງໂດຍການຍຶດຫມັ້ນໃນຄວາມກ້າວຫນ້າໃນ AI ທີ່ສະເຫນີຂໍ້ໄດ້ປຽບຂອງສັງຄົມອັນໃຫຍ່ຫຼວງ. ເບິ່ງຕົວຢ່າງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃນຊ່ວງເວລາຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້ອຍຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງຫົວຂໍ້ນີ້. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງຫຍັງກ່ຽວກັບ AI Asymmetry, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI Asymmetry

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້າ​ພະ​ເຈົ້າ​ຫວັງ​ວ່າ​ມັນ​ຈະ​ສະ​ຫນອງ​ໃຫ້​ເປັນ​ພຽງ​ພໍ​ຂອງ​ຄໍາ​ແນະ​ນໍາ​ທີ່​ຈະ underlie ສິ່ງ​ທີ່​ຂ້າ​ພະ​ເຈົ້າ​ກໍາ​ລັງ​ຈະ​ກ່ຽວ​ຂ້ອງ​.

ມາສະເໜີສະຖານະການທີ່ສະແດງໃຫ້ເຫັນ AI Asymmetry.

ໄຕ່ຕອງເລື່ອງທີ່ເບິ່ງຄືວ່າບໍ່ມີຜົນສະທ້ອນເຖິງບ່ອນທີ່ລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະແລ່ນໄປມາເພື່ອຮັບຜູ້ໂດຍສານ. ນີ້ເບິ່ງຄືວ່າເປັນຫົວຂໍ້ທີ່ບໍ່ມີປະໂຫຍດຫຼາຍ.

ໃນຕອນທໍາອິດ, ສົມມຸດວ່າ AI ລົດຂັບລົດດ້ວຍຕົນເອງຈະ roaming ທົ່ວເມືອງ. ໃຜກໍ່ຕາມທີ່ຕ້ອງການທີ່ຈະຮ້ອງຂໍການຂັບເຄື່ອນໃນລົດທີ່ຂັບລົດຕົນເອງໄດ້ມີໂອກາດເທົ່າທຽມກັນທີ່ຈະຊົມເຊີຍຫນຶ່ງ. ຄ່ອຍໆ, AI ເລີ່ມຕົ້ນທີ່ຈະຮັກສາລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເປັນຕົ້ນຕໍຢູ່ໃນເຂດດຽວຂອງຕົວເມືອງ. ພາກນີ້ແມ່ນຜູ້ສ້າງເງິນຫຼາຍກວ່າເກົ່າແລະ AI ໄດ້ຖືກວາງແຜນໄວ້ເພື່ອພະຍາຍາມແລະ maximize ລາຍໄດ້ເປັນສ່ວນຫນຶ່ງຂອງການນໍາໃຊ້ໃນຊຸມຊົນຢ່າງຫຼວງຫຼາຍ (ອັນນີ້ຊີ້ໃຫ້ເຫັນເຖິງການເພີ່ມປະສິດທິພາບພື້ນຖານຂອງແນວຄວາມຄິດ, ຄືການສຸມໃສ່ພຽງແຕ່ຫນຶ່ງ metric ໂດຍສະເພາະແລະການລະເລີຍປັດໃຈສໍາຄັນອື່ນໆໃນຂະບວນການ).

ສະມາຊິກຊຸມຊົນໃນເຂດທຸກຍາກຂອງຕົວເມືອງເຮັດໃຫ້ມີໂອກາດຫນ້ອຍທີ່ຈະສາມາດຂີ່ລົດດ້ວຍຕົນເອງໄດ້. ທັງ​ນີ້​ກໍ​ຍ້ອນ​ວ່າ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ຢູ່​ຫ່າງ​ໄກ​ກວ່າ​ເກົ່າ​ແລະ​ແລ່ນ​ໄປ​ມາ​ໃນ​ເມືອງ​ທີ່​ມີ​ລາຍ​ຮັບ​ສູງ​ກວ່າ. ເມື່ອຄໍາຮ້ອງຂໍເຂົ້າມາຈາກເຂດຫ່າງໄກຂອງຕົວເມືອງ, ການຮ້ອງຂໍອື່ນໆຈາກສະຖານທີ່ໃກ້ຊິດຈະໄດ້ຮັບຄວາມສໍາຄັນສູງກວ່າ. ໃນທີ່ສຸດ, ການມີລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໄດ້ຢູ່ບ່ອນອື່ນນອກເໜືອໄປຈາກເຂດທີ່ອຸດົມສົມບູນຂອງເມືອງແມ່ນເກືອບເປັນໄປບໍ່ໄດ້, ເປັນສິ່ງທີ່ໜ້າເສົ້າໃຈຫຼາຍສຳລັບຜູ້ທີ່ອາໃສຢູ່ໃນເຂດທີ່ຂາດແຄນຊັບພະຍາກອນໃນປັດຈຸບັນ.

ອອກໄປໃນຄວາມຝັນທີ່ມີການເຄື່ອນໄຫວທີ່ຫຼົງໄຫຼ - ສໍາລັບທຸກຄົນທີ່ຂັບລົດຕົນເອງຄວນຈະເຮັດໃຫ້ຊີວິດໄດ້.

ທ່ານສາມາດຍືນຍັນວ່າ AI ທັງຫມົດໄດ້ລົງຈອດຢູ່ໃນຮູບແບບຂອງຄວາມລໍາອຽງທາງສະຖິຕິແລະຄອມພິວເຕີ້, ເຊິ່ງຄ້າຍຄືກັບຮູບແບບຂອງການຈໍາແນກຕົວແທນ (ຍັງມັກຈະເອີ້ນວ່າການຈໍາແນກທາງອ້ອມ). ຮັບ​ຮູ້​ວ່າ AI ບໍ່​ໄດ້​ຖືກ​ຕັ້ງ​ໂຄງ​ການ​ເພື່ອ​ຫຼີກ​ເວັ້ນ​ເຂດ​ບ້ານ​ທີ່​ທຸກ​ຍາກ​ເຫຼົ່າ​ນັ້ນ. ຂໍໃຫ້ຈະແຈ້ງກ່ຽວກັບເລື່ອງນີ້ໃນຕົວຢ່າງນີ້. ບໍ່, ມັນໄດ້ຖືກວາງແຜນແທນທີ່ຈະເປັນພຽງແຕ່ການເພີ່ມປະສິດທິພາບຂອງລາຍໄດ້, ເປົ້າຫມາຍທີ່ເບິ່ງຄືວ່າເປັນທີ່ຍອມຮັບ, ແຕ່ນີ້ແມ່ນເຮັດໄດ້ໂດຍບໍ່ມີຜູ້ພັດທະນາ AI ຄິດກ່ຽວກັບຜົນກະທົບທີ່ມີທ່າແຮງອື່ນໆ. ການເພີ່ມປະສິດທິພາບນັ້ນໂດຍບໍ່ໄດ້ຕັ້ງໃຈ ແລະ inevitably ນໍາໄປສູ່ຜົນໄດ້ຮັບທີ່ບໍ່ຕ້ອງການ.

ຖ້າພວກເຂົາໄດ້ລວມເອົາການພິຈາລະນາດ້ານຈັນຍາບັນຂອງ AI ເປັນສ່ວນຫນຶ່ງຂອງແນວຄວາມຄິດການເພີ່ມປະສິດທິພາບຂອງພວກເຂົາ, ພວກເຂົາອາດຈະຮູ້ລ່ວງຫນ້າວ່າເວັ້ນເສຍແຕ່ວ່າພວກເຂົາສ້າງ AI ເພື່ອຮັບມືກັບການ oversizing ແບບນີ້ຢູ່ໃນຫນຶ່ງ metric ດຽວ, ພວກເຂົາອາດຈະຫລີກລ້ຽງຜົນໄດ້ຮັບດັ່ງກ່າວ. ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບປະເພດຂອງບັນຫາເຫຼົ່ານີ້ທີ່ການຮັບຮອງເອົາຢ່າງກວ້າງຂວາງຂອງຍານພາຫະນະອັດຕະໂນມັດແລະລົດຂັບລົດຕົນເອງມີແນວໂນ້ມທີ່ຈະເກີດຂຶ້ນ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້, ອະທິບາຍການສຶກສາທີ່ນໍາພາໂດຍ Harvard ທີ່ຂ້າພະເຈົ້າໄດ້ຮ່ວມກັນຂຽນກ່ຽວກັບຫົວຂໍ້ເຫຼົ່ານີ້.

ໃນກໍລະນີໃດກໍ່ຕາມ, ໃຫ້ສົມມຸດວ່າມ້າໄດ້ອອກຈາກ barn ແລ້ວແລະສະຖານະການບໍ່ສາມາດແກ້ໄຂໄດ້ທັນທີທັນໃດ.

ຜູ້ທີ່ຕ້ອງການໃຊ້ລົດຂັບລົດດ້ວຍຕົນເອງອາດຈະເຮັດແນວໃດ?

ວິທີການທີ່ເຫັນໄດ້ຊັດເຈນທີ່ສຸດແມ່ນຈະເຮັດວຽກຮ່ວມກັບຜູ້ນໍາຊຸມຊົນໃນການໄດ້ຮັບຜູ້ຜະລິດລົດໃຫຍ່ຫຼືບໍລິສັດເຕັກໂນໂລຢີທີ່ຂັບລົດດ້ວຍຕົນເອງເພື່ອພິຈາລະນາຄືນວ່າພວກເຂົາໄດ້ຕັ້ງ AI ແນວໃດ. ບາງ​ທີ​ອາດ​ຈະ​ສ້າງ​ຄວາມ​ກົດ​ດັນ​ຕໍ່​ການ​ອອກ​ໃບ​ອະ​ນຸ​ຍາດ​ອັນ​ໃດ​ກໍ​ຕາມ​ທີ່​ໄດ້​ຮັບ​ການ​ອະ​ນຸ​ຍາດ​ໃຫ້​ສໍາ​ລັບ​ການ​ນໍາ​ໃຊ້​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ເຫຼົ່າ​ນັ້ນ​ຢູ່​ໃນ​ນະ​ຄອນ​ຫຼື​ເມືອງ​ນັ້ນ​. ສິ່ງເຫຼົ່ານີ້ອາດຈະເປັນໄປໄດ້ໃນການນໍາເອົາການປ່ຽນແປງໃນທາງບວກ, ເຖິງແມ່ນວ່າມັນອາດຈະໃຊ້ເວລາໄລຍະຫນຶ່ງກ່ອນທີ່ຄວາມພະຍາຍາມເຫຼົ່ານັ້ນຈະເກີດຜົນ.

ອີກມຸມໜຶ່ງກໍ່ຄືການເສີມສ້າງ AI ໃຫ້ກັບຕົວເອງ.

ຈິນຕະນາການວ່າມີຄົນສ້າງແອັບທີ່ອີງໃສ່ AI ທີ່ສະຫລາດທີ່ເຮັດວຽກຢູ່ໃນສະມາດໂຟນຂອງເຈົ້າ ແລະຈັດການກັບ AI ຂອງຜູ້ຜະລິດລົດຍົນ ຫຼື ຜູ້ໃຫ້ບໍລິການເຮືອທີ່ຮັບການຮ້ອງຂໍການຂີ່. ມັນອາດຈະເປັນວ່າ AI ທີ່ທ່ານກໍາລັງໃຊ້ການຂຸດຄົ້ນອົງປະກອບທີ່ສໍາຄັນຂອງ AI ອື່ນໆເຊັ່ນວ່າຄໍາຮ້ອງຂໍສໍາລັບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແມ່ນໄດ້ຮັບການບູລິມະສິດສູງ. ໃຫ້ສັງເກດວ່າຂ້ອຍບໍ່ໄດ້ແນະນໍາວ່າສິ່ງທີ່ຜິດກົດຫມາຍກໍາລັງເກີດຂຶ້ນ, ແຕ່ແທນທີ່ຈະວ່າ AI ຢູ່ຂ້າງຂອງເຈົ້າໄດ້ຖືກພັດທະນາໂດຍອີງໃສ່ "ຄຸນສົມບັດ" ທີ່ຄົ້ນພົບຫຼືແມ້ກະທັ້ງຊ່ອງຫວ່າງໃນ AI ອື່ນໆ.

ສະຫຼຸບ

ເລື່ອງກ່ຽວກັບການຕໍ່ສູ້ກັບ AI ຢ່າງກ້າຫານຂອງຜູ້ປະຕິບັດການລົດຍົນທີ່ຂັບລົດດ້ວຍຕົນເອງໂດຍການປະກອບອາວຸດກັບ AI ເຮັດໃຫ້ເກີດການຂັດແຍ້ງດ້ານຈັນຍາບັນ AI ເພີ່ມເຕີມແລະພິຈາລະນາ.

ຍົກ​ຕົວ​ຢ່າງ:

  • ຖ້າຄົນຫນຶ່ງສາມາດໃຊ້ AI ເພື່ອເຮັດໃຫ້ພວກເຂົາໄດ້ປຽບກວ່າ AI ຂອງລະບົບອື່ນ, ມັນເປັນໄປໄດ້ໄກປານໃດໃນແງ່ຂອງການຂ້າມຂອບເຂດຂອງ AI ຈັນຍາບັນ (ຂ້ອຍເຮັດໃຫ້ລົດຂັບລົດຕົນເອງມາຫາຂ້ອຍແລະຫມູ່ເພື່ອນຂອງຂ້ອຍ, ການຍົກເວັ້ນຂອງຄົນອື່ນທັງຫມົດ)?
  • ນອກຈາກນີ້, ມີຄວາມຄ້າຍຄືກັນຂອງການພິຈາລະນາຈັນຍາບັນຂອງ AI ວ່າຖ້າຜູ້ໃດຜູ້ນຶ່ງຮູ້ຫຼືປະກອບອາວຸດກັບ AI ເພື່ອຕໍ່ສູ້ກັບ AI ອື່ນໆ, ຖ້າຜູ້ທີ່ຍັງເຫຼືອທີ່ບໍ່ມີການດຸ່ນດ່ຽງ AI ຈະຖືກເຕືອນກັບ AI ແລະສາມາດປະກອບອາວຸດດ້ວຍຕົນເອງ. ຄືກັນບໍ?

ໃນທີ່ສຸດ, ທັງຫມົດນີ້ກໍາລັງນໍາພວກເຮົາໄປສູ່ອະນາຄົດທີ່ເບິ່ງຄືວ່າເປັນຕາຢ້ານ, ປະກອບດ້ວຍການແຂ່ງຂັນອາວຸດ AI. ໃຜຈະມີ AI ທີ່ພວກເຂົາຕ້ອງການໄປມາແລະຢູ່ລອດແລະໃຜຈະບໍ່? ຈະມີ AI ອີກອັນໜຶ່ງມາພ້ອມໆກັນສະເໝີ ແລະເຮັດໃຫ້ເກີດຄວາມຈຳເປັນສຳລັບການດຸ່ນດ່ຽງ AI ບໍ?

Carl Sagan, ນັກວິທະຍາສາດທີ່ມີຄວາມເຄົາລົບນັບຖື, ໄດ້ໃຫ້ສະຕິປັນຍາທີ່ມີປັນຍານີ້ກ່ຽວກັບການແຂ່ງຂັນດ້ານອາວຸດທີ່ຮ້າຍກາດໂດຍສະເພາະ: "ການແຂ່ງຂັນອາວຸດນິວເຄລຍແມ່ນຄ້າຍຄືສັດຕູສອງຄົນທີ່ຢືນຢູ່ແອວຂອງນໍ້າມັນແອັດຊັງ, ຫນຶ່ງມີສາມກົງ, ອີກຫ້າຄູ່."

ພວກເຮົາຕ້ອງຕັ້ງໃຈຢ່າງເດັດຂາດເພື່ອເຮັດໃຫ້ຕີນຂອງພວກເຮົາແຫ້ງ ແລະຫົວຂອງພວກເຮົາຈະແຈ້ງເມື່ອມັນມາຮອດການແຂ່ງຂັນອາວຸດ AI ທີ່ເຄີຍມີມາ.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- of-the-stick/