ຈັນຍາບັນຂອງ AI ປະເມີນຢ່າງລະມັດລະວັງວ່າ ການສະເໜີໃຫ້ AI ມີອະຄະຕິການລ່າສັດເພື່ອຈັບ ແລະນາບລະບົບການປົກຄອງຕົນເອງຢ່າງເຕັມທີ່ທີ່ຊົ່ວຮ້າຍແມ່ນມີຄວາມຮອບຄອບ ຫຼືໄຮ້ປະໂຫຍດ.

ຕ້ອງການ: AI ລໍາອຽງລ່າ.

ນັ້ນອາດຈະເປັນການໂຄສະນາທີ່ທັນສະໄຫມທີ່ເຈົ້າຈະເລີ່ມເຫັນປະກົດຂຶ້ນໃນຊ່ອງທາງສື່ສັງຄົມແລະປະກົດຕົວໃນການປະກາດວຽກອອນໄລນ໌ຕ່າງໆ. ນີ້ແມ່ນແນວຄວາມຄິດ ຫຼືບົດບາດທີ່ຂ້ອນຂ້າງໃໝ່. ມັນພາກັບມັນຂັດແຍ້ງ. ບາງຄົນເຊື່ອຢ່າງແຮງກ້າໂຕ້ແຍ້ງຢ່າງແຮງກ້າວ່າມັນມີຄວາມໝາຍອັນອຸດົມສົມບູນ ແລະຄວນຈະເກີດຂຶ້ນມາຕະຫຼອດ, ໃນຂະນະທີ່ຄົນອື່ນໆຮູ້ສຶກປະຫຼາດໃຈທີ່ເຮັດການຂູດຫົວຢ່າງຮ້າຍແຮງແລະບໍ່ແນ່ໃຈວ່ານີ້ແມ່ນຄວາມຄິດທີ່ດີ.

ຄວາມສໍາຄັນຂອງພາລະບົດບາດປະກອບດ້ວຍ ferreting ອອກຈາກ AI ຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ຫຼືການປະຕິບັດຈໍາແນກຝັງຕິດ. ການຊ່ວຍເຫຼືອມາເຖິງຄວາມກະຕືລືລົ້ນແລະພ້ອມໆກັນໃນຂະນະທີ່ AI ລໍາອຽງນັກລ່າ. ເຂົາເຈົ້າຄົງຈະເປັນຜູ້ລ່າຄ່າຄອມພີວເຕີທີ່ມີຄວາມຮູ້ຄວາມສາມາດ. ຫຼາຍກວ່ານັ້ນ, ຫວັງວ່າ, ກ້າວໄປສູ່ຄວາມເລິກຂອງຄວາມສາມາດ AI.

ມີປືນ, ຈະເດີນທາງ, ແລະສາມາດຜ່ານ AI-skenship ທີ່ມີທັກສະກະຕືລືລົ້ນໃນການຄຸ້ມຄອງເພື່ອເປີດເຜີຍຄວາມລໍາອຽງທີ່ບໍ່ມັກແລະຄວາມບໍ່ພໍໃຈ AI ເຫຼົ່ານັ້ນ.

ອັນນີ້ເຮັດໃຫ້ເກີດຄຳຖາມອັນໜັກໜ່ວງກ່ຽວກັບຄວາມຮູ້ສຶກຂອງການຕິດຕາມຍຸດທະວິທີດັ່ງກ່າວ ເມື່ອເວົ້າເຖິງການຄົ້ນພົບຄວາມລຳອຽງຂອງ AI. ດັ່ງທີ່ຂ້ອຍຈະສົນທະນາໃນທັນທີ, ກະລຸນາຮູ້ວ່າການມາເຖິງຂອງ AI ໄດ້ນໍາເອົາການປະກົດຕົວຂອງຄວາມລໍາອຽງ AI ມາກັບມັນ. ກະແສຄວາມລຳອຽງຂອງ AI. ສໍາລັບການຄຸ້ມຄອງຢ່າງຕໍ່ເນື່ອງແລະກວ້າງຂວາງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ພວກເຮົາກໍາລັງຈະຄົ້ນພົບວ່າລະບົບ AI ໂດຍສະເພາະມີຄວາມລໍາອຽງແນວໃດ?

ທ່ານອາດຈະມອບໃຫ້ຜູ້ພັດທະນາ AI ທີ່ວາງແຜນ AI ເພື່ອເຮັດແນວນັ້ນ. ສິ່ງທີ່ເປັນ, ພວກເຂົາເຈົ້າອາດຈະຖືກ mired ຫຼາຍໃນຄວາມລໍາອຽງທີ່ພວກເຂົາເຈົ້າເອງບໍ່ສາມາດຮັບຮູ້ອະຄະຕິພາຍໃນ AI concocted ຂອງເຂົາເຈົ້າ. ມັນທັງຫມົດເບິ່ງຄືວ່າດີກັບພວກເຂົາ. ຫຼືພວກເຂົາອາດຈະຕື່ນເຕັ້ນຫຼາຍກ່ຽວກັບ AI ແລະມີຄວາມພາກພູມໃຈໃນຕົນເອງກ່ຽວກັບມັນ, ການທີ່ຈະຕ້ອງໄດ້ເບິ່ງວິພາກວິຈານເພື່ອກວດກາເບິ່ງຄວາມລໍາອຽງຈະເປັນເລື່ອງຍາກແລະເປັນການຫຼຸດລົງຢ່າງແທ້ຈິງ. ເຫດຜົນອື່ນໆຫຼາຍຢ່າງອາດຈະເບິ່ງຄືວ່າຈະຕັດຂາດການໃຫ້ຜູ້ພັດທະນາ AI ປະຕິບັດໃນວຽກງານນີ້, ລວມທັງການຂາດທັກສະໃນການຄິດໄລ່ຄວາມລໍາອຽງທີ່ຝັງໄວ້, ການຂາດເວລາໃນໂຄງການທີ່ຈະເຮັດແນວນັ້ນ, ແລະອື່ນໆ.

ຕົກລົງ, ສະນັ້ນສືບຕໍ່ເດີນຫນ້າແລະຈ້າງທີ່ປຶກສາພາຍນອກເພື່ອເຮັດວຽກເປື້ອນສໍາລັບທ່ານ, ຍ້ອນວ່າມັນເປັນ. ປະກົດວ່າທີ່ປຶກສາຈະກວດກາ AI ຂອງທ່ານຢ່າງມີຄວາມສຸກເພື່ອຄວາມລໍາອຽງ, ການຄິດຄ່າເງິນໃຫ້ທ່ານເພື່ອເຮັດແນວນັ້ນ (ຫຼາຍແລະຫຼາຍ pennies). ຮັບ​ຮູ້​ວ່າ​ທ່ານ​ຈໍາ​ເປັນ​ຕ້ອງ​ໄດ້​ຈ່າຍ​ສໍາ​ລັບ​ການ​ໃຫ້​ເຂົາ​ເຈົ້າ​ມາ​ເຖິງ​ຄວາມ​ໄວ​ກັບ​ລະ​ບົບ AI ຂອງ​ທ່ານ​. ຫຼັງຈາກນັ້ນ, ທ່ານຈໍາເປັນຕ້ອງໃຫ້ພວກເຂົາ rummage ປະມານ, ເຊິ່ງອາດຈະໃຊ້ເວລາຈໍານວນ untolded ຂອງຊົ່ວໂມງແຮງງານທີ່ມີຄ່າໃຊ້ຈ່າຍ. ການນໍາໃຊ້ທີ່ປຶກສາແມ່ນທາງເລືອກຖ້າທ່ານມີງົບປະມານສໍາລັບມັນ.

ເຂົ້າໄປໃນ "ຊ່ອງຫວ່າງ" ທີ່ມີທ່າແຮງຂອງວິທີການຊອກຫາຄວາມລໍາອຽງ AI insidious ເຫຼົ່ານັ້ນມາເຖິງຄວາມລໍາອຽງຂອງນັກລ່າ AI ທີ່ກ້າຫານແລະຫນ້າຢ້ານ.

ປົກກະຕິແລ້ວ ເຈົ້າບໍ່ຈ່າຍເງິນໃຫ້ພວກມັນລ່ວງໜ້າ. ພວກເຂົາພະຍາຍາມຊອກຫາຄວາມລໍາອຽງຂອງ AI ໃນເວລາຂອງຕົນເອງແລະຕ້ອງໃຊ້ໃບບິນຄ່າຂອງຕົນເອງຍ້ອນວ່າພວກເຂົາເຮັດເຊັ່ນນັ້ນ. ພຽງແຕ່ຖ້າພວກເຂົາປະສົບຜົນສໍາເລັດຊອກຫາຄວາມລໍາອຽງທີ່ເຂົາເຈົ້າໄດ້ຮັບຄ່າຈ້າງ. ຂ້າ​ພະ​ເຈົ້າ​ສົມ​ມຸດ​ວ່າ​ທ່ານ​ສາ​ມາດ​ຢືນ​ຢັນ​ໄດ້​ຢ່າງ​ງ່າຍ​ດາຍ​ວ່າ​ໃນ​ລັກ​ສະ​ນະ​ທີ່​ເຫມາະ​ສົມ​ຂອງ​ການ​ຄິດ​, ນັ້ນ​ແມ່ນ​ຄໍາ​ນິ​ຍາມ​ທໍາ​ມະ​ດາ​ຂອງ​ການ​ລ່າ bounty​. ໄດ້ຮັບເງິນຖ້າທ່ານປະສົບຜົນສໍາເລັດ. ບໍ່ໄດ້ຮັບຄ່າຈ້າງຖ້າທ່ານບໍ່ປະສົບຜົນສໍາເລັດ. ໄລຍະເວລາ, ສິ້ນສຸດຂອງເລື່ອງ.

ໂປລແກລມ Bounty ແມ່ນມີຢູ່ຕັ້ງແຕ່ຢ່າງຫນ້ອຍເວລາຂອງຊາວໂລມັນແລະດັ່ງນັ້ນພວກເຮົາອາດຈະຄາດເດົາວ່າພວກເຂົາເຮັດວຽກ, ໂດຍໄດ້ອົດທົນຢ່າງສໍາເລັດຜົນເປັນການປະຕິບັດໃນໄລຍະທັງຫມົດຂອງປີທີ່ຜ່ານມາ.

ນີ້ແມ່ນສິ່ງທີ່ໜ້າສົນໃຈຂອງເລື່ອງເລັກໆນ້ອຍໆທາງປະຫວັດສາດສຳລັບທ່ານ. ລາຍງານວ່າ, ຂໍ້ຄວາມທີ່ຖືກຈັດພີມມາໃນລະຫວ່າງຈັກກະພັດ Roman ໃນເມືອງ Pompeii ໄດ້ປະກາດວ່ານາຍພານທີ່ມີຄ່າຈ້າງຕ້ອງການເພື່ອຊອກຫາຫມໍ້ທອງແດງທີ່ຫາຍໄປຈາກຮ້ານຂະຫນາດນ້ອຍ. ລາງວັນສໍາລັບການຟື້ນຟູຂອງຫມໍ້ທອງແດງແມ່ນລາງວັນທີ່ປະທັບໃຈຂອງຫົກສິບຫ້າຫຼຽນທອງແດງ. ຂໍໂທດທີ່ບອກວ່າພວກເຮົາບໍ່ຮູ້ວ່າມີນາຍພານທີ່ມີຄ່າຈ້າງຄົນໃດພົບເຫັນຫມໍ້ທອງແດງແລະອ້າງເອົາຫຼຽນທອງແດງ, ແຕ່ພວກເຮົາຮູ້ວ່າການລ່າສັດຢ່າງແນ່ນອນແມ່ນສືບຕໍ່ຕັ້ງແຕ່ສະ ໄໝ ກ່ອນ.

ໃນຍຸກສະ ໄໝ ໃໝ່, ທ່ານອາດຈະຮູ້ວ່າໃນຊຸມປີ 1980 ມີຄວາມອຸດົມສົມບູນທີ່ໂດດເດັ່ນທີ່ສະ ເໜີ ເພື່ອຊອກຫາຂໍ້ບົກພ່ອງຂອງຄອມພິວເຕີຫຼືຂໍ້ຜິດພາດໃນຊຸດຊອບແວທີ່ຢູ່ນອກຊັ້ນວາງແລະຫຼັງຈາກນັ້ນໃນ 1990's Netscape ໄດ້ສະເຫນີຢ່າງເດັ່ນຊັດສໍາລັບການຊອກຫາຂໍ້ບົກພ່ອງໃນຕົວທ່ອງເວັບຂອງພວກເຂົາ. (ກາຍເປັນບໍລິສັດທີ່ໂດດເດັ່ນທີ່ສຸດຂອງມື້ນັ້ນ). ກູ​ໂກ​ແລະ​ເຟ​ສ​ບຸກ​ແຕ່​ລະ​ຄົນ​ໄດ້​ເລືອກ​ເອົາ​ການ​ລ່າ​ສັດ​ທີ່​ມີ​ຄ່າ​ບໍ​ລິ​ສຸດ​ສໍາ​ລັບ​ແມງ​ໄມ້​ເລີ່ມ​ຕົ້ນ​ໃນ​ປີ 2010 ແລະ 2013 ປີ​, ຕາມ​ລໍາ​ດັບ​. ສອງສາມປີຕໍ່ມາ, ໃນປີ 2016 ເຖິງແມ່ນວ່າກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໄດ້ເຂົ້າໄປໃນການກະທໍາໂດຍການມີຄວາມພະຍາຍາມ "Hack the Pentagon" (ສັງເກດວ່າເງິນທີ່ສຸມໃສ່ສາທາລະນະແມ່ນສໍາລັບແມງໄມ້ທີ່ພົບເຫັນຢູ່ໃນເວັບໄຊທ໌ຕ່າງໆທີ່ກ່ຽວຂ້ອງກັບ DoD ແລະບໍ່ຢູ່ໃນ. ລະ​ບົບ​ພາ​ລະ​ກິດ​ປ້ອງ​ກັນ​ປະ​ເທດ​ທີ່​ສໍາ​ຄັນ​)​.

ຂໍໃຫ້ຂຸດເຈາະເລິກຕື່ມໃສ່ຫົວຂໍ້ bug bounty. ຂ້າພະເຈົ້າຮັບຮູ້ວ່າຂ້າພະເຈົ້າມີຈຸດປະສົງຕົ້ນຕໍທີ່ຈະເວົ້າກ່ຽວກັບຄວາມລໍາອຽງຂອງ AI ໃນການລ່າສັດ bounty ໃນການສົນທະນານີ້, ແຕ່ມີບາງຂະຫນານທີ່ຂ້ອນຂ້າງກ່ຽວຂ້ອງກັບສະຫນາມກິລາ bounty bug.

ບາງຄົນແມ່ນສັບສົນຫຼາຍທີ່ບໍລິສັດໃດຕ້ອງການໃຫ້ເງິນລາງວັນເພື່ອຊອກຫາຂໍ້ບົກພ່ອງ (ຫຼື, ໃນກໍລະນີນີ້, ຄວາມລໍາອຽງ AI) ໃນລະບົບຂອງພວກເຂົາ.

ໃນດ້ານ, ນີ້ເບິ່ງຄືວ່າເປັນ "ເຈົ້າກໍາລັງຂໍມັນ" ປະເພດຂອງຍຸດທະສາດ. ຖ້າທ່ານບອກໃຫ້ໂລກຮູ້ວ່າທ່ານຍິນດີຕ້ອນຮັບຜູ້ທີ່ອາດຈະພະຍາຍາມຊອກຫາຮູຢູ່ໃນໂປຼແກຼມຂອງທ່ານ, ມັນເບິ່ງຄືວ່າເປັນການບອກໃຫ້ພວກໂຈນສະຫລັດສືບຕໍ່ເດີນຫນ້າແລະພະຍາຍາມບຸກເຂົ້າໄປໃນເຮືອນຂອງທ່ານ. ເຖິງແມ່ນວ່າເຈົ້າເຊື່ອແລ້ວວ່າເຈົ້າມີລະບົບສັນຍານເຕືອນໄພລັກລອບທີ່ດີຫຼາຍ ແລະບໍ່ມີໃຜຄວນຈະສາມາດເຂົ້າໄປໃນເຮືອນທີ່ປອດໄພຂອງເຈົ້າ, ຈິນຕະນາການຖາມ ແລະຂໍຮ້ອງຢ່າງຈິງໃຈກັບພວກໂຈນລັກໃຫ້ທຸກຄົນລົງມາຢູ່ບ່ອນຂອງເຈົ້າ ແລະເບິ່ງວ່າເຂົາເຈົ້າເຮັດໄດ້ບໍ? ແຕກເຂົ້າໄປໃນມັນ. ໂອ້ຍ, ບັນຫາທີ່ພວກເຮົາໄດ້ທໍດ້ວຍຕົວເຮົາເອງ.

ດຽວກັນສາມາດເວົ້າໄດ້ກ່ຽວກັບການຮ້ອງຂໍໃຫ້ນາຍພານ bounty ເພື່ອຊອກຫາຄວາມລໍາອຽງໃນ AI ຂອງທ່ານ.

ທໍາອິດ, ບາງທີມັນອາດຈະຫມາຍຄວາມວ່າເຈົ້າເຊື່ອແລ້ວຫຼືແມ້ກະທັ້ງຮູ້ທັນທີວ່າ AI ຂອງເຈົ້າມີຄວາມລໍາອຽງ. ນັ້ນແມ່ນການຍອມຮັບຢ່າງກົງໄປກົງມາທີ່ຫນ້າຕົກໃຈທີ່ຈໍານວນຫນ້ອຍທີ່ເບິ່ງຄືວ່າເຕັມໃຈທີ່ຈະເຮັດແລະອາດຈະຖືກໄຟໄຫມ້.

ອັນທີສອງ, ເຈົ້າບໍ່ແນ່ໃຈວ່າພວກລ່າເງິນຄ່າຈ້າງເຫຼົ່ານັ້ນອາດຈະເຮັດຫຍັງ. ພວກເຂົາສາມາດເລືອກທີ່ຈະບອກໂລກທັງຫມົດວ່າພວກເຂົາພົບເຫັນຄວາມລໍາອຽງໃນ AI ຂອງທ່ານ. ຫນຶ່ງສົມມຸດວ່ານີ້ອາດຈະສູນເສຍການໄດ້ຮັບຄ່າຕອບແທນ, ເຖິງແມ່ນວ່າບາງຄົນອາດຈະພໍໃຈກັບຄວາມສົນໃຈຫຼືມີຈຸດປະສົງເພື່ອສະຫນັບສະຫນູນສະຖານະພາບຂອງເຂົາເຈົ້າສໍາລັບການໄດ້ຮັບຄໍາປຶກສາແລະຄວາມເປັນໄປໄດ້ອື່ນໆທີ່ສ້າງລາຍໄດ້. ບາງທີມັນອາດຈະເປັນການເຫັນແກ່ຕົວທັງໝົດ. ມັນອາດຈະເປັນຮູບແບບຂອງການເຄື່ອນໄຫວ AI. ຂ້ອຍສາມາດສືບຕໍ່ໄດ້.

ອັນທີສາມ, ອາດຈະມີການບິດເບືອນເລື່ອງການທັງຫມົດ. ຜູ້ລ່າເງິນລາງວັນທີ່ອ້າງວ່າກໍາລັງຊອກຫາຄວາມລໍາອຽງຂອງ AI ອາດຈະຖືກຫລອກລວງຢ່າງໂຫດຮ້າຍເພື່ອຊອກຫາວິທີທີ່ຈະໂຈມຕີລະບົບ AI ຂອງທ່ານ. ສິ່ງທັງ ໝົດ ແມ່ນຄວາມສະຫຼາດທີ່ຈະປະຕິບັດການໂຈມຕີທາງອິນເຕີເນັດທີ່ຮ້າຍແຮງໃນທີ່ສຸດ. ເຈົ້າ​ອາດ​ຄິດ​ວ່າ​ເຂົາ​ເຈົ້າ​ພະ​ຍາ​ຍາມ​ຊ່ວຍ, ໃນ​ຂະ​ນະ​ທີ່​ເຂົາ​ເຈົ້າ​ມີ​ຄວາມ​ຜິດ​ພາດ​ໃນ​ໃຈ​ຂອງ​ເຂົາ​ເຈົ້າ. ໂສກເສົ້າ, ແຕ່ເປັນໄປໄດ້.

ອັນ​ທີ​ສີ່, ພວກ​ເຮົາ​ສາ​ມາດ​ໄດ້​ຮັບ​ການ​ບິດ​ເບືອນ​ທີ່​ຂີ້​ຕົວະ​ຫຼາຍ​ກວ່າ​ເກົ່າ​ໃນ​ເລື່ອງ​ນີ້. ນາຍພານທີ່ຫາເງິນພົບຄວາມອັບອາຍ ແລະອາດເຮັດໃຫ້ເກີດການຟ້ອງຮ້ອງທີ່ເຮັດໃຫ້ເກີດຄວາມລຳອຽງ AI. ເງິນລາງວັນແມ່ນເປັນຈຳນວນເງິນໂດລາທີ່ພວກເຮົາຈະເອີ້ນວ່າ X. ແທນທີ່ຈະຮຽກຮ້ອງຄ່າຕອບແທນ, ນາຍພານ bounty ເຮັດການກະຕຸ້ນ ransomware ທີ່ແປກປະຫຼາດ. ຖ້າທ່ານຈ່າຍເງິນໃຫ້ນາຍພານເປັນຈໍານວນສິບເທົ່າ X ຫຼືອາດຈະເປັນຂອບເຂດຈໍາກັດ, ພວກເຂົາຈະບອກທ່ານກ່ຽວກັບຄວາມລໍາອຽງຂອງ AI. ທ່ານ​ມີ​ຈົນ​ກ​່​ວາ​ຕອນ​ກາງ​ຄືນ​ວັນ​ອາ​ທິດ​ໃນ​ຕອນ​ທ່ຽງ​ຄືນ​ທີ່​ຈະ​ຕອບ​. ຫຼັງຈາກຈຸດນັ້ນໃນເວລານັ້ນ, ຄວາມລໍາອຽງ AI ຈະຖືກເປີດເຜີຍໃຫ້ທຸກຄົນເຫັນ. ເຢີ້ຍ, ຄວາມຫຍຸ້ງຍາກອັນໜ້າຕົກໃຈທີ່ຈະຢູ່ໃນ.

ອັນທີຫ້າ, ລ່າສຸດແມ່ນອັນທີ່ເອີ້ນວ່າ "hack to return" cybercrooks ທີ່ຫຼັງຈາກໄດ້ລັກຂະໂມຍອອນໄລນ໌, ພວກເຂົາເຈົ້າຕັດສິນໃຈທີ່ຈະກັບໃຈແລະສົ່ງຄືນບາງສ່ວນຂອງ booty ບໍ່ດີທີ່ໄດ້ຮັບຂອງເຂົາເຈົ້າ. ບໍລິສັດໄດ້ຮັບເງິນຄືນບາງສ່ວນຫຼັງຈາກນັ້ນເຕັມໃຈທີ່ຈະພິຈາລະນາຈໍານວນທີ່ຍັງເຫຼືອທີ່ຖືກລັກເປັນເງິນລາງວັນຫຼັງຈາກຄວາມຈິງທີ່ຖືກລາງວັນໃຫ້ກັບໂຈນ. ເບິ່ງຄືວ່າທຸກຄົນ "ຊະນະ" ໃນຈໍານວນທຶນສ່ວນໃຫຍ່ໄດ້ຖືກມອບຄືນແລະໃນຂະນະດຽວກັນ, cybercrooks ບໍ່ໄດ້ຖືກຕິດຕາມຢ່າງຖືກກົດຫມາຍ, ບວກກັບພວກເຂົາໄດ້ຮັບເງິນລາງວັນ pirate ເພື່ອເລີ່ມຕົ້ນ. ນີ້ແມ່ນຄວາມລະມັດລະວັງຫຼື insidiously perpetuating ການກະທໍາຜິດ?

ຂ້າພະເຈົ້າຮັບຮູ້ວ່າບາງທ່ານອາດຈະເວົ້າວ່າບໍ່ມີໃຜຄວນຈະປ່ອຍ AI ທີ່ມີອະຄະຕິໃດໆໃນມັນ. ມັນເບິ່ງຄືວ່າຈະແກ້ໄຂຄວາມຫຍຸ້ງຍາກທັງຫມົດນີ້ກ່ຽວກັບວ່າຈະໃຊ້ AI biases bounty hunters ຫຼືບໍ່. ພຽງແຕ່ບໍ່ໃຫ້ຕົວທ່ານເອງເຂົ້າໄປໃນສະຖານະການ bounty. ໃຫ້ແນ່ໃຈວ່ານັກພັດທະນາ AI ຂອງເຈົ້າເຮັດສິ່ງທີ່ຖືກຕ້ອງແລະບໍ່ອະນຸຍາດໃຫ້ມີອະຄະຕິ AI ເຂົ້າໄປໃນລະບົບ AI ຂອງພວກເຂົາ. ບາງທີອາດໃຊ້ທີ່ປຶກສາເພື່ອເຮັດການກວດສອບສອງຄັ້ງ. ໂດຍເນື້ອແທ້ແລ້ວ, ເຮັດອັນໃດກໍໄດ້ທີ່ເຈົ້າຕ້ອງເຮັດເພື່ອຫຼີກລ່ຽງການຄິດເຖິງ ຫຼືຂໍໃຫ້ພວກລ່າສັດທີ່ມີອະຄະຕິ AI ເຂົ້າມາຫາໂຕະ.

ແມ່ນແລ້ວ, ມັນຈະເບິ່ງຄືວ່າສົມເຫດສົມຜົນທັງຫມົດ. ບັນຫາແມ່ນວ່າມັນຍັງເປັນຄວາມຝັນເລັກນ້ອຍ. ຄວາມຊັບຊ້ອນຂອງລະບົບ AI ຫຼາຍຢ່າງແມ່ນໃຫຍ່ຫຼວງຫຼາຍຈົນເຮັດໃຫ້ການພະຍາຍາມຮັບປະກັນບໍ່ໃຫ້ຄວາມລຳອຽງຂອງ AI ປະກົດຂຶ້ນເປັນອັນໜຶ່ງທີ່ຈະເປັນເລື່ອງຫຍຸ້ງຍາກທີ່ຈະເຮັດ. ນອກຈາກນັ້ນ, ບາງລະບົບ AI ແມ່ນມີຈຸດປະສົງເພື່ອປັບຕົວແລະ "ຮຽນຮູ້" ໃນຂະນະທີ່ພວກເຂົາໄປ. ນີ້ຫມາຍຄວາມວ່າໃນບາງຈຸດໃນອະນາຄົດ AI ທີ່ທ່ານວາງແຜນໄວ້, ເຊິ່ງໃຫ້ທໍາທ່າໃນຕອນທໍາອິດແມ່ນສະອາດບໍລິສຸດແລະບໍ່ມີອະຄະຕິ, ອາດຈະເຮັດໃຫ້ເກີດຄວາມລໍາອຽງ (ຂ້າພະເຈົ້າບໍ່ໄດ້ຫມາຍຄວາມວ່າໃນລັກສະນະ anthropomorphic, ດັ່ງທີ່ຂ້າພະເຈົ້າຈະອະທິບາຍຕື່ມອີກດັ່ງທີ່ພວກເຮົາ. ໄປຕາມຫົວຂໍ້ນີ້).

ຜູ້ທີ່ມັກການລ່າສັດ bounty ສໍາລັບ software bugs ມັກຈະໂຕ້ຖຽງວ່າມັນເຮັດໃຫ້ຄວາມຮູ້ສຶກທີ່ຈະສະເຫນີ bounty ດັ່ງກ່າວ. ພວກເຮົາສາມາດພິຈາລະນາເຫດຜົນຂອງພວກເຂົາແລະເບິ່ງວ່າມັນໃຊ້ກັບໂລກອະຄະຕິ AI ເຊັ່ນກັນ.

ຜູ້ສະຫນັບສະຫນູນຂອງ bug bounties ເນັ້ນຫນັກວ່າແທນທີ່ຈະພະຍາຍາມທໍາທ່າວ່າບໍ່ມີຮູຢູ່ໃນລະບົບຂອງທ່ານ, ເປັນຫຍັງຈຶ່ງບໍ່ຊຸກຍູ້ໃຫ້ຂຸມທີ່ຈະພົບເຫັນ, ເຮັດແນວນັ້ນໃນລັກສະນະ "ຄວບຄຸມ"? ໃນທາງກົງກັນຂ້າມ, ໂດຍບໍ່ມີຄວາມພະຍາຍາມອັນນີ້, ທ່ານພຽງແຕ່ສາມາດຫວັງແລະອະທິຖານວ່າໂດຍບັງເອີນບໍ່ມີໃຜຈະພົບຂຸມ, ແຕ່ຖ້າແທນທີ່ຈະໃຫ້ຄ່າບໍານານແລະບອກຜູ້ທີ່ພົບຂຸມວ່າພວກເຂົາຈະໄດ້ຮັບລາງວັນ, ມັນສະເຫນີໃຫ້. ໂອກາດທີ່ຈະ shore-up ຂຸມດ້ວຍຕົວທ່ານເອງແລະຫຼັງຈາກນັ້ນປ້ອງກັນບໍ່ໃຫ້ຄົນອື່ນຈາກ secretly ຊອກຫາມັນໃນບາງເວລາຕໍ່ມາ.

ດຽວກັນສາມາດເວົ້າໄດ້ໃນກໍລະນີຂອງການນໍາໃຊ້ຄວາມລໍາອຽງ AI. ຖ້າເຈົ້າໃຫ້ຄ່າຕອບແທນທີ່ພຽງພໍ, ຫວັງວ່າ, ນາຍພານເງິນຈະນຳເອົາການຄົ້ນພົບຄວາມລຳອຽງຂອງ AI ມາສູ່ຄວາມສົນໃຈຂອງເຈົ້າ. ຫຼັງຈາກນັ້ນທ່ານສາມາດຮັບມືກັບຄວາມລໍາອຽງຂອງ AI ໃນທາງທີ່ຂ້ອນຂ້າງງຽບແລະວັດແທກໄດ້. ນີ້ອາດຈະປ້ອງກັນບັນຫາທີ່ໃຫຍ່ກວ່າແລະຫນ້າຢ້ານກົວຫຼາຍໃນເວລາຕໍ່ມາ, ຄືວ່າຄົນອື່ນພົບເຫັນຄວາມລໍາອຽງຂອງ AI ໃນ AI ຂອງເຈົ້າແລະຮ້ອງອອກມາເຖິງສະຫວັນຊັ້ນສູງ.

ໂດຍທົ່ວໄປແລ້ວ, ບໍລິສັດທີ່ປາດຖະໜາຢາກໃຫ້ມີຄວາມພະຍາຍາມໃນການລ່າສັດທີ່ຫາຍາກຈະວາງນະໂຍບາຍການເປີດເຜີຍຄວາມອ່ອນແອ (VDP). VDP ຊີ້ບອກວິທີການພົບເຫັນແມງໄມ້ແລະລາຍງານໃຫ້ບໍລິສັດ, ພ້ອມກັບການໃຫ້ລາງວັນຫຼືເງິນລາງວັນໃຫ້ກັບຜູ້ລ່າ. ໂດຍປົກກະຕິແລ້ວ, VDP ຈະຮຽກຮ້ອງໃຫ້ຜູ້ລ່າສິ້ນສຸດລົງນາມໃນສັນຍາທີ່ບໍ່ເປີດເຜີຍຂໍ້ມູນ (NDA) ທີ່ພວກເຂົາຈະບໍ່ເປີດເຜີຍໃຫ້ຄົນອື່ນຮູ້ວ່າພວກເຂົາພົບຫຍັງ.

ແນວຄວາມຄິດຂອງການນໍາໃຊ້ NDA ກັບນັກລ່າເງິນມີຂໍ້ຂັດແຍ້ງບາງຢ່າງ. ເຖິງແມ່ນວ່າບາງທີມັນອາດຈະເຮັດໃຫ້ຄວາມຮູ້ສຶກຂອງບໍລິສັດທີ່ສະເຫນີເງິນທີ່ຕ້ອງການທີ່ຈະຮັກສາຄວາມເປີດເຜີຍຂອງແມ່ທີ່ພົບ, ມັນຍັງຖືກກ່າວເຖິງວ່າຂັດຂວາງຄວາມຮັບຮູ້ໂດຍລວມກ່ຽວກັບແມງໄມ້ດັ່ງກ່າວ. ສົມມຸດວ່າ, ຖ້າຂໍ້ບົກພ່ອງຂອງຊອບແວໄດ້ຖືກອະນຸຍາດໃຫ້ເວົ້າກ່ຽວກັບ, ມັນອາດຈະຊ່ວຍຄວາມປອດໄພຂອງລະບົບອື່ນໆໃນບໍລິສັດອື່ນໆທີ່ຈະປ້ອງກັນການເປີດເຜີຍຂອງພວກເຂົາ. ນັກລ່າເງິນລາງວັນບາງຄົນຈະບໍ່ເຊັນ NDA, ບາງສ່ວນແມ່ນຍ້ອນຄວາມປາຖະຫນາຂອງປະຊາຊົນແລະບາງສ່ວນແມ່ນຍ້ອນການພະຍາຍາມຮັກສາຕົວຕົນຂອງຕົນເອງທີ່ເຊື່ອງໄວ້. ຈົ່ງຈື່ໄວ້ເຊັ່ນກັນວ່າລັກສະນະ NDA ບໍ່ໄດ້ເກີດຂື້ນເລື້ອຍໆຈົນກ່ວາຫຼັງຈາກນັກລ່າອ້າງວ່າພວກເຂົາໄດ້ພົບເຫັນແມງໄມ້, ແທນທີ່ຈະຮຽກຮ້ອງໃຫ້ມັນລ່ວງຫນ້າ.

ບາງ VDPs ກໍານົດວ່າ NDA ແມ່ນພຽງແຕ່ໃນໄລຍະເວລາຈໍາກັດ, ອະນຸຍາດໃຫ້ບໍລິສັດທໍາອິດຊອກຫາວິທີແກ້ໄຂຂຸມທີ່ປາກົດຂື້ນແລະຫຼັງຈາກນັ້ນອະນຸຍາດໃຫ້ເປີດເຜີຍຢ່າງກວ້າງຂວາງກ່ຽວກັບມັນ. ເມື່ອຂຸມໄດ້ຖືກສຽບ, ບໍລິສັດຫຼັງຈາກນັ້ນອະນຸຍາດໃຫ້ການວ່າງຂອງ NDA ເພື່ອໃຫ້ສ່ວນທີ່ເຫຼືອຂອງໂລກສາມາດຮູ້ກ່ຽວກັບແມງໄມ້. ໄລຍະເວລາການແກ້ໄຂປົກກະຕິສໍາລັບແມງໄມ້ລ່າ bounty ໄດ້ຖືກລາຍງານວ່າປະມານ 15-20 ມື້ໃນເວລາທີ່ບໍລິສັດຕ້ອງການສຽບມັນທັນທີ, ໃນຂະນະທີ່ໃນກໍລະນີອື່ນໆມັນອາດຈະຍືດຍາວເຖິງ 60-80 ມື້. ໃນເງື່ອນໄຂຂອງການຈ່າຍເງິນຄ່ານາຍພານ, ອັນທີ່ເອີ້ນວ່າເວລາຈ່າຍ, ຫຼັງຈາກຂຸມໄດ້ຖືກກວດສອບວ່າມີຢູ່ແລ້ວ, ການຈ່າຍເງິນ bounty ໄດ້ຖືກລາຍງານວ່າມີແນວໂນ້ມທີ່ຈະຢູ່ໃນປະມານ 15-20 ມື້ສໍາລັບກໍລະນີຂະຫນາດນ້ອຍແລະປະມານ 50-60. ມື້ສໍາລັບຕົວຢ່າງຂະຫນາດໃຫຍ່ (ເຫຼົ່ານີ້ແມ່ນຕົວຊີ້ບອກອຸດສາຫະກໍາທີ່ມີການປ່ຽນແປງຢ່າງຕໍ່ເນື່ອງແລະພຽງແຕ່ກ່າວເຖິງເປັນຕົວຢ່າງ).

ຄວນມີການຮ້ອງຂໍໃຫ້ຜູ້ລ່າເງິນລາງວັນ AI ມີຄວາມລຳອຽງໃນການເຂົ້າຮ່ວມໃນ VDP ແລະຈັດການກັບ NDA ບໍ?

ທ່ານສາມາດໄດ້ຮັບແມ່ນແລະບໍ່ແມ່ນສໍາລັບຄໍາຖາມນັ້ນ. ແມ່ນແລ້ວ, ບາງບໍລິສັດຄວນໄປເສັ້ນທາງນັ້ນ. ບໍ່, ທ່ານອາດຈະບໍ່ຈໍາເປັນເລືອກທີ່ຈະໄປເສັ້ນທາງນັ້ນ. ປັດໃຈລວມເຖິງຂະໜາດ ແລະລັກສະນະຂອງ AI, ທ່າແຮງຂອງການເປີດເຜີຍຄວາມລຳອຽງຂອງ AI ທີ່ກ່ຽວຂ້ອງ, ແລະການພິຈາລະນາດ້ານຈັນຍາບັນ, ກົດໝາຍ ແລະທຸລະກິດອື່ນໆທີ່ຕ້ອງຮັບຜິດຊອບ.

ຂ້ອຍອາດຈະເພີ່ມວ່າການສ້າງຄວາມພະຍາຍາມລ່າສັດທີ່ມີຄ່າຈ້າງສໍາລັບຄວາມລໍາອຽງຂອງ AI ຂອງ AI ຂອງເຈົ້າແມ່ນເປັນຄໍາສັ່ງທີ່ສູງກວ່າທີ່ເຈົ້າອາດຈະຄິດໃນທັນທີ.

ພວກ​ເຮົາ​ຈະ​ເລີ່ມ​ຕົ້ນ​ທີ່​ມີ​ຄວາມ​ເປັນ​ໄປ​ໄດ້ formidable ທີ່​ທ່ານ​ຈະ overwhelmed ໂດຍ AI biases bounty hunters.

ດຽວນີ້, ເຈົ້າຄົງຈະຍາກທີ່ຈະຊອກຫາຄົນທີ່ມີບັດໂທແບບນັ້ນ. ບໍ່​ມີ​ຈໍາ​ນວນ​ຫຼາຍ​ປະ​ມານ​. ມັນແມ່ນວັນເວລາຂອງທໍາມະຊາດຕາເວັນຕົກໃນເລື່ອງນັ້ນ. ແຕ່ຖ້າຫາກວ່າແນວຄິດຂອງຄວາມລໍາອຽງ AI ໃນການລ່າສັດ bounty ຈັບໄດ້, ໂດຍສະເພາະໃນເວລາທີ່ bounties ອຸດົມສົມບູນແລະອຸດົມສົມບູນ, ທ່ານສາມາດ bet ວ່າທຸກຄົນຈະ dive ເຂົ້າໄປໃນສະລອຍນ້ໍາການລ່າສັດ biases.

ທ່ານຕ້ອງການທຸກປະເພດຂອງ riffraff ຕິດຕາມຄວາມລໍາອຽງ AI ໃນລະບົບ AI ຂອງທ່ານບໍ? ທ່ານ​ຈະ​ໄດ້​ຮັບ​ບາງ​ຄົນ​ທີ່​ເປັນ​ຜູ້​ຊ່ຽວ​ຊານ​ທີ່​ແທ້​ຈິງ​ໃນ​ການ​ຄັດ​ນີ້​. ທ່ານ​ຈະ​ໄດ້​ຮັບ​ຜູ້​ອື່ນ​ທີ່​ເປັນ​ນັກ​ສ​ມັກ​ເລ່ນ​ແລະ​ອາດ​ຈະ​ເຮັດ​ໃຫ້​ລັງ​ກິນ​ອາ​ຫານ​ຫຼື wolf ຮ້ອງ​. ສິ່ງຕໍ່ໄປທີ່ທ່ານຮູ້, ໃຜກໍ່ຕາມທີ່ສາມາດສະກົດ "ປັນຍາປະດິດ" ຈະເຂົ້າມາຂຸດຄົ້ນບໍ່ແຮ່ຄໍາຂອງເຈົ້າຂອງລະບົບ AI ສໍາລັບ AI ທີ່ມີຄ່າທີ່ມີອະຄະຕິຂອງຄໍາ. ຟ້າວຟັ່ງທອງ. ນັ້ນອາດຈະບໍ່ດີສໍາລັບທ່ານ.

ທ່ານ​ຈະ​ຈໍາ​ເປັນ​ຕ້ອງ​ໄດ້​ກວດ​ສອບ​ການ​ຍື່ນ​ສະ​ເຫນີ​ນາຍ​ພາ​ສາ bounty​. ມັນຈະມີ "ສິ່ງລົບກວນ" ຢ່າງຫຼວງຫຼາຍໃນການຮຽກຮ້ອງທີ່ຖືກລາຍງານ, ໃນຄວາມຫມາຍວ່າຄວາມລໍາອຽງຂອງ AI ທີ່ຖືກອ້າງວ່າເປັນຈໍານວນຫຼາຍບໍ່ມີ, ເຖິງແມ່ນວ່ານັກລ່າ bounty ຢືນຢັນວ່າພວກເຂົາພົບເຫັນບາງຢ່າງ. ຈິນຕະນາການວ່າທີມງານ AI ຂອງທ່ານເອງຈະຕ້ອງໃຊ້ແຮງງານຫຼາຍປານໃດເພື່ອກວດກາເບິ່ງການຮຽກຮ້ອງຄ່າຕອບແທນ, ຄົ້ນຫາຄວາມຖືກຕ້ອງຂອງແຕ່ລະຄົນ, ແລະຫຼັງຈາກນັ້ນອາດຈະກັບຄືນໄປກັບຜູ້ລ່າເງິນລາງວັນກ່ຽວກັບວ່າຄໍາໄດ້ຖືກຄົ້ນພົບຫຼືບໍ່.

ບາງຄົນຈະໂຕ້ຖຽງວ່ານັ້ນແມ່ນເຫດຜົນອື່ນທີ່ຈະເຮັດທຸກຢ່າງດ້ວຍຕົວເອງ. ເຈົ້າ​ອາດ​ຈະ​ພົບ​ເຫັນ​ວ່າ​ສິ່ງ​ທີ່​ໄດ້​ຮັບ​ນັ້ນ​ເປັນ​ບັນຫາ​ຫຼາຍ​ກວ່າ​ທີ່​ມີ​ຄ່າ.

ນີ້ແມ່ນຄຳຖາມອື່ນທີ່ຕ້ອງໄຕ່ຕອງ. ນັກລ່າເງິນລາງວັນຈະຮູ້ໄດ້ແນວໃດວ່າອະຄະຕິ AI ມີລັກສະນະແນວໃດ? ໂດຍເນື້ອແທ້ແລ້ວ, ໂດຍບໍ່ມີລັກສະນະບາງຢ່າງຂອງສິ່ງທີ່ຈະຊອກຫາ, ຫີນເຫຼື້ອມໃດໆສາມາດອ້າງວ່າເປັນການສະແດງຄວາມລໍາອຽງຂອງ AI ໃນຂຸດຄົ້ນບໍ່ແຮ່ຄໍາ AI ທີ່ຮັບຮູ້ໄດ້.

ໃນວັນເວລາຂອງຕາເວັນຕົກເກົ່າ, ສົມມຸດວ່າເຈົ້າໄດ້ສະເຫນີລາງວັນສໍາລັບການຈັບຕົວຂອງ Billy the Kid (ນັກກົດຫມາຍທີ່ມີຊື່ສຽງ). ຖ້າເຈົ້າເຮັດແບບນັ້ນ ແລະບໍ່ໄດ້ລວມເອົາຮູບພາບຂອງສິ່ງທີ່ Billy ເບິ່ງຄືວ່າ, ຈິນຕະນາການຈໍານວນນາຍພານທີ່ມີຄ່າຈ້າງທີ່ອາດຈະລາກເຂົ້າໄປໃນຫ້ອງການ sheriff ຂອງຄົນທີ່ເຂົາເຈົ້າຫວັງຫຼືຄິດວ່າເປັນ Billy the Kid. ທ່ານອາດຈະໄດ້ຮັບນ້ໍາຖ້ວມກັບ Billy ທີ່ບໍ່ຖືກຕ້ອງ. ອັນນີ້ເປັນສິ່ງທີ່ບໍ່ດີ ເພາະວ່າເຈົ້າຕ້ອງພິຈາລະນາເບິ່ງແຕ່ລະອັນ, ຖາມຄຳຖາມທີ່ສືບສວນ ແລະພະຍາຍາມກວດສອບວ່າຄົນນັ້ນແມ່ນ Billy ແທ້ຫຼືບໍ່.

ຈຸດສໍາຄັນແມ່ນວ່າການສ້າງຕັ້ງຄວາມພະຍາຍາມ AI ຄວາມລໍາອຽງ bounty ທ່ານຄວນຈະສະຫລາດທີ່ຈະພະຍາຍາມແລະຊີ້ແຈງສິ່ງທີ່ທ່ານພິຈາລະນາຄວາມລໍາອຽງຂອງ AI ປະກອບດ້ວຍ. ອັນນີ້ຮຽກຮ້ອງໃຫ້ມີການປັບຕົວແບບ Goldilocks. ທ່ານບໍ່ຕ້ອງການທີ່ຈະຖືກຈໍາກັດຫຼາຍທີ່ນັກລ່າເງິນລາງວັນມອງຂ້າມຄວາມລໍາອຽງຂອງ AI ພຽງແຕ່ຍ້ອນວ່າພວກມັນບໍ່ເຫມາະສົມກັບຄໍານິຍາມທີ່ທ່ານກໍານົດ, ແລະທ່ານກໍ່ບໍ່ຢາກໃຫ້ພວກເຂົາຮ້ອງວ່າ "Eureka!" ໃນທຸກໆຄວາມລໍາອຽງຂອງ AI ທີ່ພວກເຂົາພົບ.

ທ່ານຈະຕ້ອງການຄວາມສົມດຸນຂອງ Goldilocks ທີ່ຖືກຕ້ອງຂອງສິ່ງທີ່ຄວາມລໍາອຽງຂອງ AI ປະກອບດ້ວຍແລະດັ່ງນັ້ນຈຶ່ງໃຫ້ທິດທາງທີ່ຊັດເຈນກວ່າ.

ການລ່າສັດ AI ທີ່ມີອະຄະຕິຫຼາຍຢ່າງນີ້ຈະຖືກເນັ້ນໃສ່ລະບົບ AI-based Machine Learning (ML) ແລະ Deep Learning (DL). ນີ້ເຮັດໃຫ້ຄວາມຮູ້ສຶກນັບຕັ້ງແຕ່ການມາເຖິງຂອງ ML / DL ແຜ່ຂະຫຍາຍເພີ່ມຂຶ້ນ, ບວກກັບມັນເບິ່ງຄືວ່າມີບາງສິ່ງທ້າທາຍທີ່ອາດຈະກວມເອົາຄວາມລໍາອຽງຂອງ AI ທີ່ບໍ່ສົມຄວນ.

ນັກຄົ້ນຄວ້າເຫຼົ່ານີ້ກໍານົດວ່າຄວາມພະຍາຍາມລ່າສັດ AI ມີຄວາມລໍາອຽງທີ່ໂດດເດັ່ນແນວໃດ, ໂດຍສະເພາະໃນສະພາບການ ML / DL: "ເມື່ອເວລາຜ່ານໄປ, ຊອບແວແລະຊຸມຊົນຄວາມປອດໄພໄດ້ພັດທະນາ 'bug bounties' ໃນຄວາມພະຍາຍາມທີ່ຈະປ່ຽນການເຄື່ອນໄຫວທີ່ຄ້າຍຄືກັນລະຫວ່າງນັກພັດທະນາລະບົບແລະນັກວິຈານຂອງພວກເຂົາ. (ຫຼືແຮກເກີ) ໄປສູ່ຈຸດຈົບແບບໂຕ້ຕອບແລະມີຜົນຜະລິດຫຼາຍຂຶ້ນ. ຄວາມຫວັງແມ່ນວ່າໂດຍການເຈດຕະນາເຊື້ອເຊີນບຸກຄົນພາຍນອກເພື່ອຊອກຫາຂໍ້ບົກຜ່ອງຂອງຊອບແວຫຼືຮາດແວໃນລະບົບຂອງພວກເຂົາ, ແລະມັກຈະສະຫນອງແຮງຈູງໃຈດ້ານການເງິນສໍາລັບການເຮັດເຊັ່ນນັ້ນ, ລະບົບນິເວດທີ່ມີສຸຂະພາບດີແລະຕອບສະຫນອງໄວກວ່າຈະພັດທະນາ. ມັນເປັນເລື່ອງທໍາມະຊາດສໍາລັບຊຸມຊົນ ML ທີ່ຈະພິຈາລະນາວິທີການ 'bias bounty' ທີ່ຄ້າຍຄືກັນກັບການຄົ້ນພົບແລະການສ້ອມແປງແບບທັນເວລາແລະລະບົບທີ່ມີອະຄະຕິຫຼືພຶດຕິກໍາທີ່ບໍ່ຕ້ອງການອື່ນໆ. ແທນທີ່ຈະຊອກຫາຂໍ້ບົກພ່ອງໃນຊອບແວ, ພາກສ່ວນພາຍນອກໄດ້ຖືກເຊື້ອເຊີນໃຫ້ຊອກຫາຄວາມລໍາອຽງ - ຕົວຢ່າງ, (ປະຊາກອນຫຼືກຸ່ມຍ່ອຍອື່ນໆ) ຂອງວັດສະດຸປ້ອນທີ່ຕົວແບບທີ່ໄດ້ຮັບການຝຶກອົບຮົມປະຕິບັດໄດ້ຫນ້ອຍ - ແລະໄດ້ຮັບລາງວັນສໍາລັບການເຮັດເຊັ່ນນັ້ນ” (ໃນເອກະສານ "ກອບວິທີການສໍາລັບຄວາມລໍາອຽງ. Bounties” ໂດຍ Ira Globus-Harris, Michael Kearns ແລະ Aaron Roth).

ໃນເອກະສານການຄົ້ນຄວ້າ, ຜູ້ຂຽນໄດ້ອະທິບາຍເຖິງວິທີການທີ່ແນະນໍາກ່ຽວກັບຄວາມລໍາອຽງຂອງ AI ປະເພດໃດທີ່ສາມາດຊອກຫາໄດ້ໂດຍນັກລ່າ bounty. ນອກຈາກນີ້ຍັງມີຕົວຊີ້ບອກກ່ຽວກັບວິທີການປະເມີນການຮຽກຮ້ອງການລ່າ bounty ທີ່ກ່ຽວຂ້ອງກັບຄວາມລໍາອຽງຂອງ AI ທີ່ຖືກຄົ້ນພົບດັ່ງນັ້ນ. ອີງຕາມຂໍ້ສັງເກດກ່ອນຫນ້າຂອງຂ້ອຍໃນນີ້, ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າທ່ານຈະໄດ້ຮັບຄໍາຮ້ອງຂໍພິເສດແລະຕ້ອງແຍກຄວາມລໍາອຽງຂອງ AI wheat ຈາກ chaff.

ກ່ອນທີ່ຈະເຂົ້າໄປໃນບາງຊີ້ນແລະມັນຕົ້ນເພີ່ມເຕີມກ່ຽວກັບການພິຈາລະນາທໍາມະຊາດແລະຂົນສັດທີ່ຕິດພັນກັບການລ່າສັດອະຄະຕິ AI, ໃຫ້ພວກເຮົາສ້າງບາງພື້ນຖານເພີ່ມເຕີມໃນຫົວຂໍ້ທີ່ເລິກເຊິ່ງ. ພວກເຮົາຈໍາເປັນຕ້ອງໃຊ້ເວລາສັ້ນໆເຂົ້າໄປໃນຈັນຍາບັນ AI ແລະໂດຍສະເພາະແມ່ນການມາຮອດຂອງ Machine Learning (ML) ແລະ Deep Learning (DL).

ທ່ານອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່າສຽງດັງທີ່ສຸດໃນປະຈຸບັນນີ້ຢູ່ໃນພາກສະຫນາມ AI ແລະເຖິງແມ່ນວ່າຢູ່ນອກພາກສະຫນາມຂອງ AI ປະກອບດ້ວຍການຮ້ອງອອກມາສໍາລັບລັກສະນະທີ່ໃຫຍ່ກວ່າຂອງ AI ດ້ານຈັນຍາບັນ. ລອງພິຈາລະນາເບິ່ງວ່າມັນຫມາຍຄວາມວ່າແນວໃດກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI. ນອກຈາກນັ້ນ, ພວກເຮົາຈະຄົ້ນຫາສິ່ງທີ່ຂ້ອຍຫມາຍເຖິງເມື່ອຂ້ອຍເວົ້າກ່ຽວກັບ Machine Learning ແລະ Deep Learning.

ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.

ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະສາມາດກວດສອບໄດ້, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີສະຕິປັນຍາແມ່ນຄວາມຮັບຮູ້ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ຍ້ອນວ່າບາງຄົນຄາດຄະເນວ່າພວກເຮົາອາດຈະມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວສາມາດສິ້ນສຸດໄດ້ສະຫລາດກວ່າມະນຸດ (ສໍາລັບການສໍາຫຼວດຂອງຂ້ອຍກ່ຽວກັບ AI ອັດສະລິຍະສູງສຸດ, ເບິ່ງ. ການຄຸ້ມຄອງຢູ່ທີ່ນີ້).

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ຕອນນີ້ໃຫ້ພວກເຮົາກັບຄືນໄປຫາຫົວຂໍ້ຂອງການລ່າສັດອະຄະຕິ AI.

ສໍາລັບທ່ານທີ່ພິຈາລະນາຄວາມພະຍາຍາມລ່າສັດທີ່ມີອະຄະຕິ AI, ນີ້ແມ່ນຄໍາແນະນໍາ 7 ຂັ້ນຕອນທີ່ສໍາຄັນຂອງຂ້ອຍກ່ຽວກັບວິທີການດໍາເນີນການທີ່ດີທີ່ສຸດ:

1) ປະເມີນຜົນ. ປະເມີນຄວາມເໝາະສົມຂອງຄວາມພະຍາຍາມລ່າສັດອະຄະຕິຂອງ AI ສໍາລັບສະຖານະການຂອງທ່ານແລະຕາມລະບົບ AI ຂອງທ່ານ.

2) ການອອກແບບ. ອອກແບບວິທີການລ່າສັດອະຄະຕິ AI ທີ່ເໝາະສົມ

3) ປະຕິບັດ. ປະຕິບັດແລະເຜີຍແຜ່ຄວາມພະຍາຍາມລ່າສັດອະຄະຕິ AI ຂອງທ່ານ

4) ພາກສະຫນາມ. ຕື່ມຂໍ້ມູນການອ້າງສິດຂອງ AI ຄວາມລໍາອຽງ ແລະດໍາເນີນການຕາມຄວາມເຫມາະສົມ

5) ແກ້ໄຂ. ແກ້ໄຂ ຫຼືປັບ AI ຂອງເຈົ້າຕາມການເປີດເຜີຍອະຄະຕິ AI ທີ່ຄົ້ນພົບເຫຼົ່ານີ້

6) ປັບ. ປັບ​ການ​ລ່າ​ສັດ​ອະ​ຄະ​ຕິ AI ຕາມ​ຄວາມ​ຕ້ອງ​ການ​

7) ການຢຸດເຊົາ. ຢຸດການລ່າສັດ AI bias bounty ເມື່ອມັນບໍ່ຈໍາເປັນ

ໃນຊຸດຂັ້ນຕອນຂ້າງເທິງຂອງຂ້ອຍ, ໃຫ້ສັງເກດວ່າຂ້ອຍກ່າວເຖິງວ່າເຈົ້າອາດຈະຕ້ອງການທີ່ຈະແກ້ໄຂຫຼືປັບ AI ຂອງທ່ານໂດຍອີງໃສ່ການແນ່ໃຈວ່າຄວາມລໍາອຽງ AI ທີ່ອ້າງວ່າມີຢູ່ໃນລະບົບ AI ຂອງທ່ານ. ນີ້ເຮັດໃຫ້ຄວາມຮູ້ສຶກອຸດົມສົມບູນ. ທ່ານເກືອບແນ່ນອນວ່າຕ້ອງການແກ້ໄຂອະຄະຕິ AI ທີ່ພົບເຫັນ. ຄິດເຖິງຜົນຮ້າຍທາງດ້ານກົດໝາຍ (ແລະຈັນຍາບັນ) ຖ້າເຈົ້າບໍ່ເຮັດແນວນັ້ນ. ມັນເປັນສິ່ງຫນຶ່ງທີ່ຈະຢືນຢັນວ່າທ່ານບໍ່ຮູ້ວ່າຄວາມລໍາອຽງ AI ແມ່ນມີຢູ່ແລະດັ່ງນັ້ນຈຶ່ງອະນຸຍາດໃຫ້ມັນມີຢູ່, ໃນຂະນະທີ່ມັນເປັນພື້ນຖານທີ່ສັ່ນສະເທືອນຫຼາຍທີ່ຈະມີບັນທຶກວ່າທ່ານໄດ້ຮັບຮູ້ເຖິງຄວາມລໍາອຽງ AI ແລະບໍ່ໄດ້ເຮັດຫຍັງກ່ຽວກັບມັນ.

ລັກສະນະ ແລະລະດັບຂອງການແກ້ໄຂ ຫຼືການປັບຕົວຂອງ AI ແນ່ນອນຈະຂຶ້ນກັບວ່າຄວາມລຳອຽງຂອງ AI ມີຄວາມໝາຍສຳຄັນສໍ່າໃດ ແລະບັນຫາດັ່ງກ່າວໄດ້ຝັງເລິກໄວ້ຫຼາຍປານໃດ. ຖ້າທ່ານໂຊກດີ, ບາງທີການປ່ຽນແປງເລັກນ້ອຍຕໍ່ AI ຈະແກ້ໄຂເລື່ອງຕ່າງໆ. ທ່າແຮງອື່ນໆແມ່ນວ່າທ່ານອາດຈະຈໍາເປັນຕ້ອງໄດ້ຂຽນຄືນໃຫມ່ທັງຫມົດຂອງ AI. ສໍາລັບປະເພດ ML/DL ຂອງ AI, ນີ້ສາມາດຮຽກຮ້ອງໃຫ້ກັບຄືນໄປຫາກະດານແຕ້ມຮູບແລະເລີ່ມຕົ້ນໃຫມ່ດ້ວຍຊຸດຂໍ້ມູນໃຫມ່ທັງຫມົດແລະຮູບແບບ ML / DL ທີ່ສະອາດ. ຂ້າພະເຈົ້າໄດ້ປຶກສາຫາລືກ່ຽວກັບການມາຮອດຂອງ AI disgorgement ຫຼືການທໍາລາຍ AI ເປັນການແກ້ໄຂທາງດ້ານກົດຫມາຍທີ່ມີທ່າແຮງຕໍ່ກັບ AI ທີ່ບໍ່ມັກ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄໍາຖາມຫນຶ່ງທີ່ຕ້ອງພິຈາລະນາແມ່ນວ່າທ່ານຕ້ອງການໃຫ້ນາຍພານທີ່ມີຄ່າຈ້າງເຮັດຫຼາຍກ່ວາພຽງແຕ່ກໍານົດຄວາມລໍາອຽງຂອງ AI. ຕົວຢ່າງ, ທ່ານອາດຈະເຮັດໃຫ້ຄວາມຫວານຊື່ນໄດ້ໂດຍການຊີ້ໃຫ້ເຫັນວ່າການແກ້ໄຂທີ່ສະເຫນີແມ່ນຍິນດີຕ້ອນຮັບເຊັ່ນກັນ. ອະຄະຕິ AI ພົບເຫັນ ໂດຍນາຍພານ bounty ອາດຈະໄດ້ຮັບລາງວັນຫນຶ່ງທີ່ລະບຸໄວ້ຫຼືລາງວັນ. ຖ້ານາຍພານ bounty ຍັງສາມາດສະເຫນີຄວາມເປັນໄປໄດ້ ການແກ້ໄຂ ຕໍ່ກັບຄວາມລຳອຽງຂອງ AI ພວກເຂົາເຈົ້າອາດຈະໄດ້ຮັບລາງວັນເພີ່ມເຕີມ.

ບາງຄົນໂຕ້ຖຽງວ່ານີ້ແມ່ນຂົວທີ່ໄກເກີນໄປ. ພວກເຂົາເຈົ້າເວົ້າວ່າທ່ານຄວນຮັກສາຄວາມລໍາອຽງ AI ນາຍພານ bounty ໂດຍສະເພາະແມ່ນສຸມໃສ່ການຊອກຫາຄວາມລໍາອຽງ AI. ເຈົ້າຈະສ້າງຜົນກະທົບທາງລົບທີ່ບໍ່ປາຖະໜາຫຼາຍຢ່າງໂດຍການເຊີນເຂົາເຈົ້າໃຫ້ແນະນຳການແກ້ໄຂ. ຮັກສາສິ່ງທີ່ງ່າຍດາຍ. ເປົ້າໝາຍແມ່ນເພື່ອໃຫ້ມີສາຍຕາເພີ່ມເຕີມໃນການຄົ້ນພົບຄວາມລຳອຽງຂອງ AI ເພື່ອໃຫ້ເຈົ້າສາມາດຕັດສິນໃຈວ່າຈະເຮັດຫຍັງຕໍ່ໄປ. ຢ່າຕົມນ້ໍາ.

ລັກສະນະທີ່ມີໜາມທີ່ຕ້ອງໄດ້ຮັບການຄິດອອກປະກອບມີຄວາມກວ້າງຂອງລາງວັນຫຼືລາງວັນສໍາລັບນັກລ່າເງິນທີ່ຄົ້ນພົບຄວາມລໍາອຽງຂອງ AI ຢ່າງແທ້ຈິງ. ທ່ານ​ຕ້ອງ​ການ​ການ​ຈ່າຍ​ເງິນ​ເປັນ​ສະ​ແດງ​ໃຫ້​ເຫັນ​. ຖ້າບໍ່ມີລາງວັນທີ່ສູງພໍ, ທ່ານຈະບໍ່ໄດ້ຮັບນາຍພານຫຼາຍ ຫຼືເຂົາເຈົ້າຈະບໍ່ກະຕືລືລົ້ນໂດຍສະເພາະທີ່ຈະຊອກຫາຄວາມລຳອຽງຂອງ AI ໃນລະບົບ AI ຂອງທ່ານ. ແທນທີ່ຈະ, ພວກເຂົາເຈົ້າອາດຈະສຸມໃສ່ຄວາມພະຍາຍາມ AI ຄວາມລໍາອຽງ bounty ອື່ນໆ.

ຍິ່ງໄປກວ່ານັ້ນ, ດັ່ງທີ່ໄດ້ກ່າວມາ, ທ່ານຕ້ອງການພະຍາຍາມແລະກົດດັນຄວາມຢາກຂອງນັກລ່າເງິນບໍານານເພື່ອຫັນການຄົ້ນພົບຄວາມລໍາອຽງ AI ຂອງພວກເຂົາໄປສູ່ຮູບແບບອື່ນໆຂອງຄໍາ. ຖ້າລາງວັນເບິ່ງຄືວ່າເປັນຕາອ່ອນໆ, ມັນອາດຈະເຮັດໃຫ້ນັກລ່າເງິນເສຍໃຈທີ່ຈະຊອກຫາເງິນທີ່ສູງກວ່າອື່ນ. ພວກເຂົາສາມາດເອົາວິທີການ ransomware ໄປຫາທ່ານ. ພວກເຂົາເຈົ້າອາດຈະປະກາດວ່າພວກເຂົາມີຄວາມລໍາອຽງ AI ທີ່ມີນ້ໍາທີ່ຄູ່ແຂ່ງຢາກຮູ້ກ່ຽວກັບແລະສາມາດນໍາໃຊ້ຕໍ່ກັບບໍລິສັດຂອງເຈົ້າໂດຍການກ່າວເຖິງວ່າຄວາມລໍາອຽງ AI ມີຢູ່ໃນ AI ຂອງທ່ານ. ດັ່ງນັ້ນ, ພວກເຂົາຂາຍຄວາມລໍາອຽງ AI ທີ່ຄົ້ນພົບໃຫ້ກັບຜູ້ປະມູນສູງສຸດ. ແລະອື່ນໆ.

ຫນຶ່ງສົມມຸດວ່າຖ້າທ່ານກໍານົດລາງວັນໃນລະດັບສູງທີ່ສຸດ, ທ່ານກໍ່ຂໍໃຫ້ບັນຫາທີ່ອາດຈະເກີດຂື້ນ. ນີ້ສາມາດດຶງດູດການລ່າສັດ nutty ທຸກປະເພດ. ໃນທາງກັບກັນ, ພວກເຂົາເຈົ້າອາດຈະເຮັດໃຫ້ສື່ມວນຊົນສັງຄົມມີຂໍ້ອ້າງທີ່ຂີ້ຮ້າຍທີ່ພວກເຂົາພົບເຫັນຄວາມລໍາອຽງຂອງ AI ຈໍານວນຫລາຍ, ການເຮັດເຊັ່ນນັ້ນເພື່ອການໂຄສະນາຕົນເອງຂອງເຂົາເຈົ້າເອງແລະບໍ່ໄດ້ໃຊ້ຄວາມລໍາອຽງຂອງ AI ຢ່າງແທ້ຈິງ. ໃນຄວາມໝາຍ, ລາງວັນທີ່ເພີ່ມຂຶ້ນຂອງເຈົ້າຈະສ່ອງແສງໃສ່ AI ຂອງເຈົ້າໂດຍບໍ່ໄດ້ຕັ້ງໃຈ ແລະສ້າງຝູງແມງມຸມທີ່ບໍ່ສຸພາບໃນການຖືກດຶງດູດເອົາຢ່າງບໍ່ຄາດຄິດກັບແສງໄຟທີ່ເຫຼື້ອມເປັນເງົາ.

ການພິຈາລະນາອື່ນກ່ຽວຂ້ອງກັບການເຂົ້າເຖິງ AI ຂອງທ່ານ.

ເພື່ອເຮັດໃຫ້ຄວາມເປັນໄປໄດ້ໃນການລ່າສັດ AI bounty, ນັກລ່າ bounty ຕ້ອງໄດ້ເຂົ້າເຖິງ AI ຂອງທ່ານຢ່າງພຽງພໍ. ພວກເຂົາເຈົ້າຈະບໍ່ມີໂຊກຫຼາຍໃນການຊອກຫາຄວາມລໍາອຽງ AI ຖ້າພວກເຂົາຖືກລັອກທັງຫມົດ. ແຕ່ທ່ານບໍ່ຕ້ອງການທີ່ຈະປະຖິ້ມການປົກປ້ອງຄວາມປອດໄພທາງອິນເຕີເນັດຂອງທ່ານນັບຕັ້ງແຕ່ການເຮັດເຊັ່ນນັ້ນສາມາດທໍາລາຍລະບົບ AI ຂອງທ່ານໄດ້ຢ່າງສົມບູນ.

ເຈົ້າອາດຈະພະຍາຍາມໃຫ້ຜູ້ລ່າຄ່າຈ້າງລົງນາມໃນໃບປະກາດທີ່ຜູກມັດທາງກົດໝາຍຕ່າງໆ ແລະຫຼັງຈາກນັ້ນໃຫ້ການເຂົ້າເຖິງທີ່ຈໍາເປັນ. ນາຍພານຄ່າຈ້າງບາງຄົນຈະບໍ່ມັກວິທີການແບບນັ້ນ. ທັດສະນະຂອງພວກເຂົາແມ່ນວ່າພວກເຂົາຈະເຮັດສິ່ງໃດກໍ່ຕາມທີ່ສາທາລະນະແລະເສັ້ນທາງທີ່ເປີດເຜີຍອະນຸຍາດໃຫ້. ພວກເຂົາເຈົ້າແມ່ນ mavericks ຟຣີ, ຍ້ອນວ່າມັນໄດ້, ແລະບໍ່ມັກ saddled, ເປັນມັນແມ່ນ. ການໃຫ້ພວກເຂົາໃສ່ລາຍເຊັນຂອງພວກເຂົາໃນເອກະສານທາງກົດຫມາຍທີ່ຂົ່ມຂູ່ຈະເຮັດໃຫ້ພວກເຂົາຫຼາຍເພື່ອຫຼີກເວັ້ນການຊອກຫາຄວາມລໍາອຽງຂອງ AI ໃນ AI ຂອງທ່ານ. ຫຼືພວກເຂົາອາດຈະຮູ້ສຶກຫຶງຫວງຢູ່ໃນຊ່ອງຫວ່າງທາງກົດໝາຍຂອງເຈົ້າ ແລະຕັດສິນໃຈວ່າເຂົາເຈົ້າຈະເຫັນສິ່ງທີ່ເຂົາເຈົ້າສາມາດຊອກຫາໄດ້ຜ່ານທາງສາທາລະນະ, ການເຮັດແນວນັ້ນດ້ວຍການກະຕຸ້ນຢ່າງແຮງກ້າທີ່ຈະສະແດງໃຫ້ທ່ານເຫັນວ່າເຈົ້າມີຄວາມສ່ຽງແທ້ໆ.

ຂ້ອຍມີອີກມຸມໜຶ່ງທີ່ອາດຈະເຮັດໃຫ້ຫົວຂອງເຈົ້າຫມຸນ.

AI ນາຍພານທີ່ໄດ້ຮັບລາງວັນທີ່ມີຄວາມຊໍານິຊໍານານອາດຈະຕັດສິນໃຈສ້າງລະບົບ AI ທີ່ສາມາດກວດສອບ AI ຂອງທ່ານແລະອາດຈະຄົ້ນພົບຄວາມລໍາອຽງຂອງ AI ໃນ AI ຂອງທ່ານ. ນີ້ແມ່ນຜູ້ຜະລິດເຄື່ອງມືເລືອກທີ່ຈະເຮັດເຄື່ອງມືເພື່ອເຮັດວຽກແທນທີ່ຈະປະຕິບັດແຮງງານຄູ່ມືດ້ວຍຕົນເອງ. ແທນທີ່ຈະກວດສອບ AI ຂອງເຈົ້າຢ່າງດຸເດືອດ, ຜູ້ລ່າເງິນລາງວັນທີ່ຮູ້ຈັກກັບ AI ໃຊ້ເວລາຂອງພວກເຂົາເພື່ອເຮັດເຄື່ອງມື AI ທີ່ເຮັດສິ່ງດຽວກັນ. ຫຼັງຈາກນັ້ນພວກເຂົາໃຊ້ເຄື່ອງມື AI ໃນ AI ຂອງທ່ານ. ຄວາມງາມຄືກັນແມ່ນວ່າພວກເຂົາອາດຈະສາມາດນໍາໃຊ້ເຄື່ອງມື AI ຄືນໃໝ່ໄດ້ກັບຜູ້ອື່ນທີ່ໃຫ້ໂອກາດການລ່າສັດທີ່ມີຄ່າຈ້າງໃນ AI ຂອງເຂົາເຈົ້າເຊັ່ນດຽວກັນ.

ຂ້ອຍຮູ້ວ່າເຈົ້າອາດຈະຄິດແນວໃດ. ຖ້າເຄື່ອງມື AI ສາມາດຖືກອອກແບບເພື່ອກວດສອບ AI ສໍາລັບຄວາມລໍາອຽງ, ຜູ້ສ້າງ AI ທີ່ຖືກກວດສອບສໍາລັບຄວາມລໍາອຽງຂອງ AI ຄວນເຮັດເຄື່ອງມື AI ດັ່ງກ່າວຫຼືຊື້ຫນຶ່ງສໍາລັບການນໍາໃຊ້ຂອງຕົນເອງ. ໃນທາງທິດສະດີ, ຫຼັງຈາກນັ້ນພວກເຂົາບໍ່ຈໍາເປັນຕ້ອງຂັດແຍ້ງກັບ carnival ລ່າ bounty ທັງຫມົດ, ເພື່ອເລີ່ມຕົ້ນດ້ວຍ. ພຽງແຕ່ໃຊ້ AI ເພື່ອຊອກຫາຄວາມລໍາອຽງ AI ຂອງພວກເຂົາ.

ແມ່ນແລ້ວ, ນີ້ແມ່ນບາງສິ່ງບາງຢ່າງທີ່ທ່ານສາມາດຄາດຫວັງວ່າຈະຄ່ອຍໆເກີດຂື້ນ. ໃນ​ຂະ​ນະ​ດຽວ​ກັນ, ຕົ້ນ​ຕໍ​ຂອງ​ຄວາມ​ພະ​ຍາ​ຍາມ​ເຫຼົ່າ​ນີ້​ຈະ​ມີ​ແນວ​ໂນ້ມ​ທີ່​ຈະ​ປະ​ກອບ​ດ້ວຍ​ຜູ້​ພັດ​ທະ​ນາ AI ເຮັດ​ການ​ລ່າ​ເງິນ​ບໍ​ລິ​ໂພກ. ພວກເຂົາອາດຈະໃຊ້ເຄື່ອງມືຕ່າງໆເພື່ອຊ່ວຍຄວາມພະຍາຍາມຂອງພວກເຂົາ, ແຕ່ໃນໄລຍະສັ້ນ, ພວກເຂົາບໍ່ຫນ້າຈະຕັ້ງເຄື່ອງມື AI ໂດຍອັດຕະໂນມັດແລະນອນຫລັບທີ່ເຄື່ອງມືເຮັດທັງຫມົດຂອງການລ່າສັດ AI ໃຫ້ເຂົາເຈົ້າ.

ພວກເຮົາບໍ່ຢູ່ທີ່ນັ້ນເທື່ອ.

ໃນຊ່ວງເວລາຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້ອຍຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງຫົວຂໍ້ນີ້. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງຫຍັງກ່ຽວກັບການນໍາໃຊ້ການລ່າສັດ AI bias bounty, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ຄົນຂັບຮ່ວມກັນຮ່ວມກັນໃນຄວາມພະຍາຍາມຂັບລົດແມ່ນພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ໃຊ້ຮ່ວມກັນໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນລົດເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAADA
S (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI Bias Bounty Hunting

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້າ​ພະ​ເຈົ້າ​ຫວັງ​ວ່າ​ມັນ​ຈະ​ສະ​ຫນອງ​ໃຫ້​ເປັນ​ພຽງ​ພໍ​ຂອງ​ຄໍາ​ແນະ​ນໍາ​ທີ່​ຈະ underlie ສິ່ງ​ທີ່​ຂ້າ​ພະ​ເຈົ້າ​ກໍາ​ລັງ​ຈະ​ກ່ຽວ​ຂ້ອງ​.

ໃນຄໍລໍາຂອງຂ້ອຍ, ຂ້ອຍໄດ້ສົນທະນາກັນໃນຄວາມຍາວຂອງການນໍາໃຊ້ນາຍພານ bug-oriented bounty ໃນຍານພາຫະນະ autonomous ແລະ realm ລົດຂັບລົດຕົນເອງ. ວິທີການນີ້ໄດ້ປະຕິບັດຕົວຈິງຢູ່ໃນ niche ນີ້. ມີການໂຕ້ວາທີປົກກະຕິກ່ຽວກັບວ່າມັນເປັນຄວາມຄິດທີ່ດີຫຼືບໍ່. ຄວາມພະຍາຍາມແມ່ນປົກກະຕິແລ້ວມີລັກສະນະຈໍາກັດ, ມັກຈະເກັບຮັກສາໄວ້ຂ້ອນຂ້າງງຽບ.

ການສົນທະນາເຊັ່ນດຽວກັນສາມາດເກີດຂຶ້ນໃນເວລາທີ່ຈຸດສຸມຫັນໄປສູ່ການລ່າສັດສໍາລັບຄວາມລໍາອຽງ AI ແທນທີ່ຈະຊອກຫາຂໍ້ບົກພ່ອງຂອງລະບົບ. ບາງ​ຄົນ​ແນະນຳ​ວ່າ​ມັນ​ເປັນ​ຂີ້​ຮ້າຍ ຖ້າ​ເຈົ້າ​ເຮັດ, ຂີ້ຄ້ານ ຖ້າ​ເຈົ້າ​ບໍ່​ຜິດ​ຖຽງ​ກັນ.

ນີ້ແມ່ນເຫດຜົນທີ່ວ່າ.

ກ່ອນອື່ນ ໝົດ, ເພື່ອໃຫ້ມີຄວາມຊັດເຈນ, ມີຫຼາຍວິທີທີ່ພາຫະນະທີ່ປົກຄອງຕົນເອງແລະລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະຕ້ອງມີອະຄະຕິ AI, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ສອງສາມ. ຜູ້ຜະລິດລົດໃຫຍ່ ແລະບໍລິສັດລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະເບິ່ງຄືວ່າສະຫລາດທີ່ຈະພະຍາຍາມແລະປ້ອງກັນບໍ່ໃຫ້ຄວາມລໍາອຽງ AI ເຫຼົ່ານັ້ນປາກົດຢູ່ໃນລະບົບ AI ຂອງພວກເຂົາ. ພາຍຸໄຟທາງກົດໝາຍ ແລະຈັນຍາບັນຕໍ່ບໍລິສັດດັ່ງກ່າວຈະຮຸນແຮງຢ່າງແນ່ນອນ.

ການນໍາໃຊ້ຄວາມລໍາອຽງຂອງ AI ຄວາມພະຍາຍາມລ່າສັດ bounty ເປັນວິທີການທີ່ເຫມາະສົມໃນສະພາບການສະເພາະນີ້?

ຄໍາຕອບຫນຶ່ງແມ່ນວ່າແມ່ນແລ້ວ, ນີ້ຈະເປັນປະໂຫຍດແລະສະຫນອງຄວາມອຸດົມສົມບູນຂອງ "ຟຣີ" ຂອງຕາໃຫມ່ເພື່ອພະຍາຍາມແລະຈັບຄວາມລໍາອຽງ AI ຝັງຕົວຂອງ AI ລົດຂັບລົດດ້ວຍຕົນເອງຫຼືສິ່ງທີ່ຄ້າຍຄືກັນ. ນັກພັດທະນາ AI ສ່ວນໃຫຍ່ທີ່ສ້າງລົດຂັບລົດດ້ວຍຕົນເອງແມ່ນຫຍຸ້ງກັບການສ້າງ AI ທີ່ສາມາດຂັບລົດຈາກຈຸດ A ຫາຈຸດ B ໄດ້ຢ່າງປອດໄພ. ເຂົາເຈົ້າສົນໃຈກັບຄວາມສາມາດຫຼັກນັ້ນ ແລະບໍ່ມີເວລາ ຫຼື ຄວາມສົນໃຈຕໍ່ກັບຄວາມລຳອຽງຂອງ AI ທີ່ອາດຈະຢູ່ບ່ອນໃດບ່ອນໜຶ່ງ. AI ຂອງເຂົາເຈົ້າ.

ຄໍາຕອບອີກຢ່າງຫນຶ່ງແມ່ນວ່າບໍ່, ການອະນຸຍາດໃຫ້ການລ່າສັດ bounty ສໍາລັບຍານພາຫະນະ autonomous ແລະລົດຂັບລົດດ້ວຍຕົນເອງບົນພື້ນຖານໃດກໍ່ຕາມ, ບໍ່ວ່າຈະເປັນແມງໄມ້ຫຼືຄວາມລໍາອຽງ AI, ພຽງແຕ່ຄວນຈະຫຼີກເວັ້ນຢ່າງຮຸນແຮງ. ການໂຕ້ຖຽງແມ່ນວ່າຍານພາຫະນະເຫຼົ່ານີ້ແລະ AI ຂອງພວກເຂົາມີຂະຫນາດຂອງຊີວິດຫຼືຄວາມຕາຍ. ການພົວພັນກັບ AI ໃນແບບໃດກໍ່ຕາມອາດຈະເປັນການທໍາລາຍ AI ແລະຜົນກະທົບຕໍ່ສິ່ງທີ່ລະບົບຂັບລົດ AI ເຮັດ.

ການໂຕ້ຖຽງກັນກັບຈຸດສຸດທ້າຍນັ້ນແມ່ນວ່ານັກລ່າ bounty ຄາດວ່າຈະບໍ່ສາມາດປ່ຽນແປງ AI ທີ່ເຂົາເຈົ້າກໍາລັງກວດສອບ. ດັ່ງນັ້ນ, ບໍ່ມີອັນຕະລາຍທີ່ພວກເຂົາ messing ກັບ AI ແລະເຮັດໃຫ້ AI ໃນສະພາບການນີ້ກາຍເປັນລະບົບການຂັບລົດ AI ທີ່ບ້າຢ່າງກະທັນຫັນ. ນາຍພານທີ່ໄດ້ຮັບຄ່າຈ້າງແມ່ນມີພຽງແຕ່ມີການເຂົ້າເຖິງອ່ານເທົ່ານັ້ນ. ການປ່ອຍໃຫ້ພວກເຂົາໄປຕື່ມອີກຈະເປັນການໂງ່ຈ້າ ແລະເປັນຄວາມຜິດພາດອັນໃຫຍ່ຫຼວງ.

ການໂຕ້ແຍ້ງກັບການໂຕ້ຖຽງກັນແມ່ນວ່າໂດຍການອະນຸຍາດໃຫ້ແລະຊຸກຍູ້ໃຫ້ນັກລ່າ bounty ກວດເບິ່ງ AI ຂອງທ່ານ, ເລື່ອງທັງຫມົດກາຍເປັນ dicey. ນາຍພານທີ່ໄດ້ຮັບລາງວັນເຫຼົ່ານັ້ນອາດຈະຊອກຫາວິທີທີ່ຈະຂູດຮີດແມງໄມ້ ຫຼືຄວາມລໍາອຽງທີ່ພົບເຫັນ. ການຂູດຮີດເຫຼົ່ານັ້ນອາດຈະເປັນຈຸດປະສົງທີ່ຫຼອກລວງ. ເຈົ້າຈະດີກວ່າບໍ່ເຊີນ “ໂຈນ” ເຂົ້າມາໃນເຮືອນຂອງເຈົ້າ, ເພື່ອເວົ້າ. ເມື່ອ​ເຂົາ​ເຈົ້າ​ໄດ້​ຍົກ​ເລີກ​ການ​ຮ່ວມ​ກັນ​, ໃນ​ທີ່​ສຸດ​ທ່ານ​ຈະ​ຢູ່​ໃນ hep ຂອງ​ບັນ​ຫາ​ໄດ້​.

ສໍາລັບຜູ້ທີ່ມີລະບົບ AI ທີ່ມີຂະຫນາດຫນ້ອຍກວ່າຊີວິດຫຼືຄວາມຕາຍ, ຄວາມເຊື່ອແມ່ນວ່າຜົນກະທົບຂອງການລ່າສັດທີ່ມີຄ່າຈ້າງທີ່ຜິດພາດແມ່ນມີຄວາມສ່ຽງຫນ້ອຍຫຼາຍ. ບາງທີ. ໃນທາງກົງກັນຂ້າມ, ຖ້າບໍລິສັດໃດ ໜຶ່ງ ໄດ້ເອົາເງິນຂອງພວກເຂົາເຂົ້າໄປໃນລະບົບ AI ທີ່ນັກລ່າ bounty ຄຸ້ມຄອງເພື່ອຄອບຄອງ, ທ່ານສາມາດສົມມຸດວ່າຄວາມເສຍຫາຍທີ່ມີຊື່ສຽງແລະຄວາມເສຍຫາຍອື່ນໆທີ່ອາດຈະເຮັດໃຫ້ເຈັບປວດ.

ບໍ່ມີອາຫານທ່ຽງຟຣີໃນເວລາທີ່ມັນມາກັບການລ່າສັດ AI bias bounty.

ຂໍ້​ສັງ​ເກດ​ສັ້ນ​ສໍາ​ລັບ​ປັດ​ຈຸ​ບັນ​.

ເມື່ອ Jesse James ໄດ້ຖືກສະແຫວງຫາໃນອະດີດຕາເວັນຕົກ, ໂປສເຕີ "ຕ້ອງການ" ໄດ້ຖືກພິມອອກເຊິ່ງສະເຫນີເງິນຈໍານວນ 5,000 ໂດລາສໍາລັບການຈັບຕົວລາວ (ລະບຸວ່າ "ຕາຍຫຼືມີຊີວິດຢູ່"). ມັນແມ່ນເງິນຈໍານວນຫຼວງຫຼາຍໃນເວລານັ້ນ. ຫນຶ່ງໃນສະມາຊິກ gang ຂອງຕົນເອງເລືອກທີ່ຈະຍິງ Jesse ຕາຍແລະເກັບກໍາລາງວັນ. ຂ້າ​ພະ​ເຈົ້າ​ສົມ​ມຸດ​ວ່າ​ມັນ​ສະ​ແດງ​ໃຫ້​ເຫັນ​ວິ​ທີ​ການ​ປະ​ສິດ​ທິ​ຜົນ​ຂອງ​ການ​ໃຫ້​ບໍ​ລິ​ສັດ​ສາ​ມາດ​ໄດ້​ຮັບ​.

ການໃຊ້ AI bias bounty hunters ເປັນສິ່ງທີ່ດີ, ຫຼືມັນຈະເປັນສິ່ງທີ່ບໍ່ດີບໍ?

ຖ້າທ່ານເລືອກທີ່ຈະສ້າງຄວາມພະຍາຍາມລ່າສັດ AI bias bounty, ຂ້າພະເຈົ້າແນະນໍາໃຫ້ທ່ານເປີດຕາຂອງທ່ານໃຫ້ກວ້າງແລະເບິ່ງບ່າຂອງເຈົ້າຕະຫຼອດເວລາ. ນີ້ແມ່ນຄວາມລະມັດລະວັງສໍາລັບທ່ານແລະ AI ຂອງທ່ານ. ທ່ານບໍ່ເຄີຍຮູ້ວ່າສິ່ງທີ່ອາດຈະເກີດຂຶ້ນ, ລວມທັງວ່ານັກລ່າເງິນລາງວັນທີ່ມີຄວາມເຊື່ອຫມັ້ນຈະເອົາຄວາມລໍາອຽງຂອງ AI ເຂົ້າໄປໃນ AI ຂອງເຈົ້າແລະຮ້ອງອອກມາທົ່ວໂລກວ່າພວກເຂົາພົບເຫັນຄວາມລໍາອຽງຂອງ AI ທີ່ບໍ່ຫນ້າເຊື່ອໃນ AI ຂອງທ່ານ. ບາງທີການເຮັດແນວນັ້ນໃນຄວາມພະຍາຍາມທີ່ກ້າຫານ ແລະ ກວ້າງໃຫຍ່ກວ່າທີ່ຈະຊອກຫາລາງວັນອັນມະຫາສານ, ບວກກັບປະກາດຕົນເອງວ່າເປັນວິລະຊົນທີ່ເຮັດໃຫ້ Jesse James ທີ່ຫຼົງໄຫຼ.

ມາຄິດເບິ່ງ, AI ທີ່ມີຄວາມຮູ້ສຶກອາດຈະບໍ່ມັກຄວາມຄິດຂອງການສະຫນອງການຕາຍຫຼືຊີວິດທີ່ຫນ້າປະຫລາດໃຈ, ຄົນເຮົາອາດຈະຄາດເດົາໄດ້ຢ່າງອິດເມື່ອຍ.

ແຫຼ່ງຂໍ້ມູນ: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- ຈັນຍາບັນ-ຊົ່ວ-ເຕັມ-ອັດຕະໂນມັດ-ລະບົບ-ແມ່ນ-ຮອບຄອບ-ຫຼື-ໄຮ້ປະໂຫຍດ/