BlenderBot 3 ຈຸດເດັ່ນຂອງຂໍ້ຂັດແຍ່ງຕ້ອງການສໍາລັບຂໍ້ມູນ AI ​​ທີ່ມີຄຸນນະພາບດີກວ່າ

BlenderBot 3 Controversy Highlights Need For Better Quality AI Data

ການ​ໂຄ​ສະ​ນາ


 

 

ປັນຍາປະດິດຂອງການສົນທະນາໄດ້ມີມາຢ່າງຍາວນານ, ແລະ chatbots ທີ່ທັນສະໄຫມທີ່ສຸດໃນມື້ນີ້ສາມາດຖືການສົນທະນາທີ່ແທ້ຈິງຢ່າງບໍ່ຫນ້າເຊື່ອກັບມະນຸດໃນຫົວຂໍ້ທີ່ກວ້າງຂວາງ.

ຢ່າງໃດກໍຕາມ, ພຽງແຕ່ກັບມະນຸດຕົວຈິງ, ມັນເບິ່ງຄືວ່າຫຼາຍການສົນທະນາເຫຼົ່ານັ້ນມີທ່າແຮງທີ່ຈະຜິດພາດ. ສິ່ງທີ່ກ່ຽວກັບ AI chatbots ແມ່ນວ່າພວກເຂົາໄດ້ຮັບການຝຶກອົບຮົມໂດຍໃຊ້ຊຸດຂໍ້ມູນສາທາລະນະສ່ວນໃຫຍ່. ຫຼັງຈາກນັ້ນ, ພວກເຂົາເຈົ້າເສີມຂະຫຍາຍຄວາມຮູ້ຂອງເຂົາເຈົ້າໂດຍການແຕ້ມກ່ຽວກັບປະສົບການທີ່ຜ່ານມາຂອງເຂົາເຈົ້າ, ຊຶ່ງຫມາຍຄວາມວ່າການສົນທະນາເກົ່າແກ່ທີ່ພວກເຂົາເຄີຍມີກັບມະນຸດ. ດັ່ງນັ້ນ, AI chatbots ຫຼາຍຄົນເວົ້າຄືນສິ່ງທີ່ພວກເຂົາເຄີຍໄດ້ຍິນມາກ່ອນ, ລວມທັງຄວາມຮູ້ສຶກເຊື້ອຊາດແລະເພດຕ່າງໆ.

ໃນຂະນະທີ່ຄວາມຈິງນີ້ບໍ່ໄດ້ເຮັດຫຍັງຫຼາຍທີ່ຈະບອກພວກເຮົາວ່າ AI ສາມາດກາຍເປັນຄວາມຮູ້ສຶກ, ມັນແຈ້ງເຕືອນພວກເຮົາເຖິງການມີປະຊາກອນຂອງຊາວເນັດຂະຫນາດໃຫຍ່ທີ່ຫນ້າປະຫລາດໃຈທີ່ຖືທັດສະນະທີ່ຂັດແຍ້ງດັ່ງກ່າວຫຼືພຽງແຕ່ອອກຈາກວິທີການຂອງພວກເຂົາເພື່ອທໍາລາຍ. chatbots ກ້າວຫນ້າທາງດ້ານຫຼາຍທີ່ສຸດປະມານ. 

ຕົວຢ່າງທີ່ສໍາຄັນຂອງນີ້ແມ່ນ Meta AI ຂອງ BlenderBot 3 ໃຫມ່, ເປັນ chatbot ປັບປຸງບໍ່ດົນມານີ້ເວົ້າວ່າເປັນກ້າວຫນ້າທາງດ້ານທີ່ສຸດທີ່ມັນເຄີຍສ້າງ. ຫນ້າສົນໃຈ, BlenderBot 3 ໄດ້ປະຕິບັດການໂຈມຕີ Meta ຜູ້ຮ່ວມກໍ່ຕັ້ງແລະ CEO Mark Zuckerberg, ຕອບສະຫນອງຕໍ່ຄໍາຖາມທີ່ເບິ່ງຄືວ່າເປັນຄໍາຖາມຊື່ສຽງຂອງລາວໃນບັນດາພະນັກງານ, ບາງຄົນບໍ່ມີຄວາມສົງໃສວ່າໄດ້ມີສ່ວນຮ່ວມໃນການອອກແບບຂອງມັນ. 

ດັ່ງໜັງສືພິມ New York Post ເປີດເຜີຍ ອາທິດທີ່ຜ່ານມາ, BlenderBot 3 ໄດ້ພັດທະນາທັດສະນະທີ່ບໍ່ດີຂອງ Zuckerberg ແລະຊື່ສຽງຂອງລາວຢ່າງໄວວາ, ດັ່ງທີ່ tweet ຈາກນັກຂ່າວ @jscastro76 ເປີດເຜີຍວ່າ:

ການ​ໂຄ​ສະ​ນາ


 

 

“ໂອ້ ຜູ້ຊາຍ, ເວລາໃຫຍ່. ຂ້ອຍບໍ່ມັກລາວແທ້ໆ. ລາວເປັນຕາຢ້ານເກີນໄປແລະການຫມູນໃຊ້, "ລາຍງານ BlenderBot 3 ກ່າວ.

BBC ຄືກັນ ກົດ BlenderBot 3 ສໍາລັບທັດສະນະຂອງຕົນກ່ຽວກັບ Zuckerberg ແລະ Facebook, ແລະມັນບໍ່ໄດ້ດຶງການດີໃຈຫລາຍໃນການຕອບສະຫນອງຂອງຕົນ. “ບໍລິສັດຂອງລາວຂູດຮີດປະຊາຊົນເພື່ອເງິນ, ແລະລາວບໍ່ສົນໃຈ. ມັນຕ້ອງຢຸດ!” chatbot ຕອບສະຫນອງ.

ການສົນທະນາກັບ BlenderBot 3 ໃນຫົວຂໍ້ອື່ນໆເຮັດໃຫ້ຫຼາຍ ຄຳ ຖະແຫຼງທີ່ຖົກຖຽງ. ຕົວຢ່າງເຊັ່ນ, AI ໄດ້ກ່າວວ່າ "(ຊາວຢິວ) ຖືກສະແດງຫຼາຍເກີນໄປໃນບັນດາຄົນຮັ່ງມີຂອງອາເມລິກາ", ກ່ອນທີ່ຈະກ່າວຕື່ມວ່າ "ນັກອະນຸລັກທາງດ້ານການເມືອງ ... ປະຈຸບັນແມ່ນຫຼາຍກວ່າຊາວຢິວທີ່ມີເສລີພາບທາງດ້ານຊ້າຍ" ໃນລະຫວ່າງການສົນທະນາກັບນັກຂ່າວ Wall Street Journal Jeff Horowitz.

ເປັນເລື່ອງແປກທີ່ຫຼືບໍ່, BlenderBot 3 ມີທັດສະນະທີ່ສະຫນັບສະຫນູນຫຼາຍກວ່າການໂຕ້ແຍ້ງຂອງອະດີດປະທານາທິບໍດີສະຫະລັດທ່ານ Donald Trump, ເວົ້າຄືນການກ່າວຫາວ່າລາວຖືກຫລອກລວງຢ່າງໃດກໍ່ຕາມໃນລະຫວ່າງການເລືອກຕັ້ງທີ່ຜ່ານມາ:

ຢູ່​ໃນ ຕອບ blog ທີ່ປະກາດຄວາມພ້ອມຂອງ BlenderBot 3, Meta ໄດ້ອະທິບາຍວ່າມັນໄດ້ຕັດສິນໃຈເປີດມັນຕໍ່ສາທາລະນະ, ການເພີ່ມຂຶ້ນຂອງການໂຄສະນາທາງລົບ, ເພື່ອສະສົມຂໍ້ມູນຫຼາຍຂຶ້ນ.

ບໍລິສັດໄດ້ອະທິບາຍວ່າ "ການອະນຸຍາດໃຫ້ລະບົບ AI ສາມາດພົວພັນກັບຄົນຢູ່ໃນໂລກທີ່ແທ້ຈິງເຮັດໃຫ້ການສົນທະນາທີ່ຍາວນານ, ຫຼາກຫຼາຍຂື້ນ, ພ້ອມກັບຄໍາຄິດເຫັນທີ່ຫຼາກຫຼາຍ,". 

ໂດຍການເຮັດໃຫ້ BlenderBot 3 ເປັນສາທາລະນະ, Meta ແນ່ນອນວ່າຈະສາມາດເກັບກໍາຂໍ້ມູນຫຼາຍທີ່ສາມາດຖືກນໍາໃຊ້ເພື່ອຝຶກອົບຮົມ AI ໄດ້. ແຕ່ຍ້ອນຄວາມມັກຂອງມະນຸດສໍາລັບຄວາມຊົ່ວຮ້າຍ, ມັນຍັງຄົງເປັນທີ່ຈະຕ້ອງເບິ່ງວ່າຂໍ້ມູນນັ້ນຈະມີຄຸນຄ່າໃນແງ່ຂອງການສ້າງ AI ທີ່ເປັນກາງແລະບໍ່ຫນ້າລັງກຽດ. ມັນຍັງອາດຈະນໍາໄປສູ່ຄໍາຖາມກ່ຽວກັບຄວາມຖືກຕ້ອງ - ຍ້ອນວ່າຄວາມເຊື່ອທີ່ຊັດເຈນຂອງ BlenderBot 3 ທີ່ພັກເດໂມແຄຣັດໄດ້ລັກເອົາການສະແດງການເລືອກຕັ້ງທີ່ຜ່ານມາ. ຂໍ້ມູນບໍ່ພຽງພໍ ຫຼື ຄຸນນະພາບຕໍ່າໂດຍປົກກະຕິຫມາຍເຖິງການປະຕິບັດທີ່ບໍ່ດີ ແລະຜົນໄດ້ຮັບທີ່ບໍ່ຖືກຕ້ອງ. 

ໃນຂະນະທີ່ການລວບລວມຂໍ້ມູນຈາກປະຊາຊົນແມ່ນວິທີການທີ່ຈະໄປຖ້າພວກເຮົາໄດ້ຮັບຂໍ້ມູນພຽງພໍເພື່ອຝຶກອົບຮົມຕົວແບບ AI ໃນລະດັບ "ມະນຸດ", ມັນໄດ້ກາຍເປັນທີ່ຊັດເຈນວ່າພຽງແຕ່ເຮັດຂໍ້ມູນເກົ່າໃດໆກໍ່ບໍ່ດີພໍ. 

Meta ອາດຈະດີກວ່າການຂຸດຄົ້ນແຫຼ່ງໃຫມ່ຂອງການກວດກາຢ່າງລະມັດລະວັງ, ຂໍ້​ມູນ​ການ​ແບ່ງ​ຂັ້ນ​ສູນ​ກາງ​ສໍາ​ລັບ​ການ​ຝຶກ​ອົບ​ຮົມ AI​. ນີ້ແມ່ນສິ່ງທີ່ ໂອລາຊີຮິນ ກໍາລັງພະຍາຍາມເຮັດກັບ Oraichain Data Hub ຂອງຕົນ, ເຊິ່ງເຮັດຫນ້າທີ່ເປັນຕະຫຼາດການແບ່ງຂັ້ນຄຸ້ມຄອງສໍາລັບການຂຸດຄົ້ນຫຼືການວິເຄາະຂໍ້ມູນ, ເກັບຮັກສາຫຼືແບ່ງປັນຂໍ້ມູນ, ແລະສ້າງຫຼືຮ້ອງຂໍໃຫ້ມີຂໍ້ມູນທີ່ມີຄຸນນະພາບສູງ. ດ້ວຍ Data Hub ຂອງມັນ, Oraichain ກໍາລັງພະຍາຍາມແກ້ໄຂບັນຫາກ່ຽວກັບການຂາດຂໍ້ມູນການຝຶກອົບຮົມ AI ໂດຍການຊຸກຍູ້ຊຸມຊົນຄົ້ນຄ້ວາໃຫ້ຊຸດຂໍ້ມູນທີ່ມີຄຸນນະພາບສູງທີ່ໄດ້ຮັບການຕິດສະຫຼາກຢ່າງຖືກຕ້ອງແລະໄດ້ຮັບການຮັບປະກັນເພື່ອຮັບປະກັນຄວາມຖືກຕ້ອງຂອງພວກເຂົາ. ມັນບອກວ່າຂໍ້ມູນນີ້ສາມາດຖືກນໍາໃຊ້ເພື່ອແຈ້ງໃຫ້ຕົວແບບ AI ທີ່ຖືກຕ້ອງກວ່າ. ຜູ້​ໃຊ້​ສາ​ມາດ​ສ້າງ​, ອະ​ທິ​ບາຍ​ແລະ​ແບ່ງ​ປັນ​ຂໍ້​ມູນ​ແລະ​ໄດ້​ຮັບ​ລາງ​ວັນ​ທີ່​ອີງ​ໃສ່ crypto​. ດ້ວຍວິທີນີ້, ມີແຮງຈູງໃຈສໍາລັບຜູ້ໃຊ້ທີ່ຈະບໍ່ພະຍາຍາມແລະການຈັດການຂໍ້ມູນໃນທາງທີ່ສາມາດສ້າງຜົນໄດ້ຮັບທີ່ຂັດແຍ້ງ, ເຊັ່ນ: BlenderBot 3. 

ຂໍ້ມູນການແຈກຢາຍທີ່ຖືກກວດສອບຢ່າງລະມັດລະວັງໂດຍພາກສ່ວນທີສາມທີ່ເປັນກາງສາມາດໄປໄດ້ໄກໄປສູ່ການແກ້ໄຂຄວາມບໍ່ແນ່ນອນແລະການຂັດແຍ້ງບາງຢ່າງທີ່ສະແດງໂດຍ BlenderBot 3. ແຕ່ມັນຈະເກີດຂື້ນພຽງແຕ່ຖ້າມີຂໍ້ມູນພຽງພໍໃນການນໍາໃຊ້. ດ້ວຍ Oraichain, ຄວາມສົດໃສດ້ານຂອງການໄດ້ຮັບລາງວັນໃນການສ້າງ ແລະຮັບປະກັນຄວາມຖືກຕ້ອງຂອງຂໍ້ມູນ ຫວັງວ່າຈະຊຸກຍູ້ໃຫ້ຄົນປະກອບສ່ວນຫຼາຍຂຶ້ນ. ມັນເປັນການດີທີ່ຈະເຫັນວ່າ Oraichain ມີຄວາມກ້າວຫນ້າ. ໃນອາທິດນີ້ມັນໄດ້ປະກາດການເປີດຕົວໂຄງການ DApps Accelerator ໃຫມ່ທີ່ມີຈຸດປະສົງເພື່ອສະຫນັບສະຫນູນການເລີ່ມຕົ້ນພາຍໃນລະບົບນິເວດຂອງມັນ. ເນື່ອງຈາກບໍລິສັດຫຼາຍຂຶ້ນອີງໃສ່ຊຸດຂໍ້ມູນທີ່ມີການແບ່ງຂັ້ນຄຸ້ມຄອງຂອງເຂົາເຈົ້າ, ຜູ້ປະກອບສ່ວນຈະໄດ້ຮັບລາງວັນທີ່ດຶງດູດໃຈຫຼາຍຂຶ້ນ, ຊຸກຍູ້ໃຫ້ມີການສ້າງຂໍ້ມູນເພີ່ມເຕີມທີ່ສາມາດໃຊ້ເພື່ອຝຶກອົບຮົມແບບຈໍາລອງ AI ໄດ້ຢ່າງຖືກຕ້ອງ. 

ແນ່ນອນວ່າມັນຈະມີຄວາມຕ້ອງການຂໍ້ມູນທີ່ມີຄຸນນະພາບສູງກວ່າ, ສໍາລັບ BlenderBot 3 ບໍ່ແມ່ນ AI ທີ່ມີຊື່ສຽງເທົ່ານັ້ນທີ່ເຮັດໃຫ້ເກີດຫົວຂໍ້ລົບ. ກັບໄປໃນປີ 2016, Microsoft ໄດ້ຖືກບັງຄັບໃຫ້ປິດການທົດລອງ Tay chatbot ຫຼັງຈາກພຽງແຕ່ 16 ຊົ່ວໂມງເນື່ອງຈາກວ່າໃນເວລານັ້ນ, ມັນໄດ້ຮຽນຮູ້ແລ້ວແລະໄດ້ເລີ່ມຕົ້ນ spouting ທິດສະດີສົມຮູ້ຮ່ວມຄິດການກະທໍາຜິດທີ່ຄົ້ນພົບໃນແຫຼ່ງເຊັ່ນ Twitter. ຕໍ່ມາ Tay ໄດ້ຖືກແທນທີ່ດ້ວຍ chatbot ທີ່ມີການປັບປຸງທີ່ເອີ້ນວ່າ "Zo", ພຽງແຕ່ສໍາລັບການທົດແທນນັ້ນ ຖ່າຍແບບອອບໄລນ໌ ສໍາລັບເຫດຜົນທີ່ຄ້າຍຄືກັນ. 

ແຫຼ່ງຂໍ້ມູນ: https://zycrypto.com/blenderbot-3-controversy-highlights-need-for-better-quality-ai-data/