ນີ້ແມ່ນວິທີທີ່ OpenAI ວາງແຜນທີ່ຈະເຮັດຄວາມສະອາດ ChatGPT ຈາກຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ

OpenAI ປະກາດໃນວັນທີ 31 ພຶດສະພາ, ຄວາມພະຍາຍາມຂອງຕົນເພື່ອເສີມຂະຫຍາຍຄວາມສາມາດໃນການແກ້ໄຂບັນຫາທາງຄະນິດສາດຂອງ ChatGPT, ເພື່ອແນໃສ່ຫຼຸດຜ່ອນການປະກົດຕົວຂອງປັນຍາປະດິດ (AI). OpenAI ໄດ້ເນັ້ນຫນັກເຖິງການຫຼຸດຜ່ອນຄວາມຫຼົງໄຫຼເປັນບາດກ້າວສໍາຄັນຕໍ່ການພັດທະນາ AGI ທີ່ສອດຄ່ອງ.

ໃນເດືອນມີນາ, ການນໍາສະເຫນີຂອງ ChatGPT ສະບັບຫລ້າສຸດ, GPT-4, ເພີ່ມເຕີມ propelled ປັນຍາປະດິດເຂົ້າໄປໃນຕົ້ນຕໍ. ຢ່າງໃດກໍຕາມ, chatbots AI ທົ່ວໄປໄດ້ຕໍ່ສູ້ກັບຄວາມຖືກຕ້ອງຂອງຄວາມເປັນຈິງ, ບາງຄັ້ງກໍ່ສ້າງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ໂດຍທົ່ວໄປເອີ້ນວ່າ "ຄວາມແປກໃຈ." ຄວາມພະຍາຍາມເພື່ອຫຼຸດຜ່ອນຄວາມຫຼົງໄຫຼຂອງ AI ໄດ້ຖືກປະກາດໂດຍຜ່ານການປະກາດຢູ່ໃນເວັບໄຊທ໌ຂອງພວກເຂົາ.

ຄວາມຫຼົງໄຫຼຂອງ AI ອ້າງອີງເຖິງກໍລະນີທີ່ລະບົບປັນຍາປະດິດສ້າງຜົນໄດ້ຮັບທີ່ບໍ່ຖືກຕ້ອງຕາມຄວາມເປັນຈິງ, ເຮັດໃຫ້ເຂົ້າໃຈຜິດ ຫຼືບໍ່ໄດ້ຮັບການສະຫນັບສະຫນູນຈາກຂໍ້ມູນໃນໂລກທີ່ແທ້ຈິງ. ຄວາມຫຼົງໄຫຼເຫຼົ່ານີ້ສາມາດສະແດງອອກໃນຮູບແບບຕ່າງໆ, ເຊັ່ນການສ້າງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ, ການສ້າງເຫດການທີ່ບໍ່ມີຢູ່ຫຼືຄົນຫຼືການສະຫນອງລາຍລະອຽດທີ່ບໍ່ຖືກຕ້ອງກ່ຽວກັບບາງຫົວຂໍ້.

OpenAI ໄດ້ດໍາເນີນການຄົ້ນຄ້ວາເພື່ອກວດກາປະສິດທິຜົນຂອງສອງປະເພດຂອງຄໍາຕິຊົມ - "ການຊີ້ນໍາຜົນໄດ້ຮັບ" ແລະ "ການຊີ້ນໍາຂະບວນການ." ການຊີ້ນໍາຜົນໄດ້ຮັບກ່ຽວຂ້ອງກັບຄໍາຄິດເຫັນໂດຍອີງໃສ່ຜົນໄດ້ຮັບສຸດທ້າຍ, ໃນຂະນະທີ່ການຊີ້ນໍາຂອງຂະບວນການສະຫນອງການປ້ອນຂໍ້ມູນສໍາລັບແຕ່ລະຂັ້ນຕອນໃນລະບົບຕ່ອງໂສ້ຂອງຄວາມຄິດ. OpenAI ໄດ້ປະເມີນແບບຈໍາລອງເຫຼົ່ານີ້ໂດຍໃຊ້ບັນຫາທາງຄະນິດສາດ, ການສ້າງການແກ້ໄຂຫຼາຍວິທີແລະເລືອກວິທີແກ້ໄຂທີ່ສູງທີ່ສຸດຕາມແຕ່ລະແບບຈໍາລອງຄໍາຄຶດຄໍາເຫັນ.

ຫຼັງຈາກການວິເຄາະຢ່າງລະອຽດ, ທີມງານຄົ້ນຄ້ວາພົບວ່າການຊີ້ນໍາຂອງຂະບວນການໃຫ້ຜົນປະສິດທິພາບທີ່ເຫນືອກວ່າຍ້ອນວ່າມັນຊຸກຍູ້ໃຫ້ຕົວແບບດັ່ງກ່າວປະຕິບັດຕາມຂະບວນການທີ່ໄດ້ຮັບການອະນຸມັດຈາກມະນຸດ. ໃນທາງກົງກັນຂ້າມ, ການກວດກາຜົນໄດ້ຮັບໄດ້ພິສູດສິ່ງທ້າທາຍຫຼາຍກວ່າທີ່ຈະກວດກາຢ່າງສະຫມໍ່າສະເຫມີ.

OpenAI ຮັບຮູ້ວ່າຜົນສະທ້ອນຂອງການຊີ້ນໍາຂອງຂະບວນການຂະຫຍາຍອອກໄປນອກທາງຄະນິດສາດ, ແລະການສືບສວນຕື່ມອີກແມ່ນຈໍາເປັນເພື່ອເຂົ້າໃຈຜົນກະທົບຂອງມັນຢູ່ໃນໂດເມນທີ່ແຕກຕ່າງກັນ. ມັນສະແດງຄວາມເປັນໄປໄດ້ວ່າຖ້າຜົນໄດ້ຮັບທີ່ສັງເກດເຫັນເປັນຄວາມຈິງໃນສະພາບການທີ່ກວ້າງຂວາງ, ການຊີ້ນໍາຂອງຂະບວນການສາມາດສະຫນອງການປະສົມປະສານທີ່ເອື້ອອໍານວຍຂອງການປະຕິບັດແລະການສອດຄ່ອງເມື່ອທຽບກັບການຊີ້ນໍາຜົນໄດ້ຮັບ. ເພື່ອອໍານວຍຄວາມສະດວກໃນການຄົ້ນຄວ້າ, ບໍລິສັດໄດ້ເປີດເຜີຍຊຸດຂໍ້ມູນຄົບຖ້ວນຂອງການຊີ້ນໍາຂະບວນການ, ເຊື້ອເຊີນໃຫ້ສໍາຫຼວດແລະການສຶກສາໃນຂົງເຂດນີ້.

ທີ່ກ່ຽວຂ້ອງ: AI ຕ້ອງການ catapults ສັ້ນໆ Nvidia ເຂົ້າໄປໃນສະໂມສອນ $1T

ເຖິງແມ່ນວ່າ OpenAI ບໍ່ໄດ້ສະຫນອງຕົວຢ່າງທີ່ຊັດເຈນທີ່ກະຕຸ້ນການສືບສວນຂອງເຂົາເຈົ້າເຂົ້າໄປໃນຄວາມແປກໃຈ, ສອງເຫດການທີ່ຜ່ານມາໄດ້ຍົກຕົວຢ່າງບັນຫາໃນສະຖານະການຊີວິດຈິງ.

ໃນເຫດການທີ່ຜ່ານມາ, ທະນາຍຄວາມ Steven A. Schwartz ໃນກໍລະນີ Mata v. Avianca Airlines ຍອມຮັບວ່າອີງໃສ່ chatbot ເປັນຊັບພະຍາກອນການຄົ້ນຄວ້າ. ຢ່າງໃດກໍຕາມ, ຂໍ້ມູນທີ່ສະຫນອງໃຫ້ໂດຍ ChatGPT ໄດ້ກາຍເປັນ fabricated ທັງຫມົດ, ເນັ້ນບັນຫາຢູ່ໃນມື.

ChatGPT ຂອງ OpenAI ບໍ່ແມ່ນຕົວຢ່າງດຽວຂອງລະບົບປັນຍາປະດິດທີ່ພົບກັບຄວາມຫຶງຫວງ. AI ຂອງ Microsoft, ໃນລະຫວ່າງການສະແດງເຕັກໂນໂລຢີ chatbot ຂອງຕົນໃນເດືອນມີນາ, ໄດ້ກວດເບິ່ງບົດລາຍງານລາຍໄດ້ແລະສ້າງຕົວເລກທີ່ບໍ່ຖືກຕ້ອງສໍາລັບບໍລິສັດເຊັ່ນ Gap ແລະ Lululemon.

ວາລະສານ: ເທຣດເດີ 25K ວາງເດີມພັນໃນການເລືອກຫຸ້ນຂອງ ChatGPT, AI ດູດລູກເຕົ໋າ, ແລະອື່ນໆອີກ.

ທີ່ມາ: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information