Microsoft ປັບປຸງຄວາມປອດໄພຂອງ AI Chatbot ເພື່ອຂັດຂວາງຜູ້ຫຼອກລວງ

Microsoft Corp ໄດ້ເພີ່ມຄຸນສົມບັດຄວາມປອດໄພຈໍານວນຫນຶ່ງໃນ Azure AI Studio ທີ່ຄວນ, ເມື່ອເວລາຜ່ານໄປ, ສືບຕໍ່ຫຼຸດຜ່ອນຄວາມເປັນໄປໄດ້ທີ່ຜູ້ໃຊ້ຂອງຕົນກໍານົດຕົວແບບ AI ເຂົ້າໄປໃນໂຫມດທີ່ຈະເຮັດໃຫ້ພວກເຂົາປະຕິບັດຜິດປົກກະຕິຫຼືບໍ່ເຫມາະສົມ. ບໍລິສັດເຕັກໂນໂລຢີຫຼາຍຊາດທີ່ຕັ້ງຢູ່ໃນ Redmond, ວໍຊິງຕັນ, ໄດ້ອະທິບາຍການປັບປຸງໃນ blog post, ເນັ້ນຫນັກໃສ່ການຮັບປະກັນຄວາມສົມບູນຂອງການໂຕ້ຕອບ AI ແລະສົ່ງເສີມຄວາມໄວ້ວາງໃຈໃນຖານຜູ້ໃຊ້.

ໄສ້ກະຕຸ້ນ ແລະອື່ນໆອີກ 

ໃນບັນດາການພັດທະນາທີ່ສໍາຄັນແມ່ນການສ້າງ "ໄສ້ທັນທີ", ເຕັກໂນໂລຢີທີ່ຖືກອອກແບບມາເພື່ອຊອກຫາແລະຂ້າການສັກຢາທັນທີໃນຂະນະທີ່ສົນທະນາກັບ AI chatbots. ເຫຼົ່ານີ້ແມ່ນອັນທີ່ເອີ້ນວ່າ jailbreaks ແລະໂດຍພື້ນຖານແລ້ວແມ່ນ inputs ຈາກຜູ້ໃຊ້ທີ່ຕັ້ງໃຈທີ່ຈະປະກອບໃນລັກສະນະທີ່ພວກເຂົາເຈົ້າ elicit ການຕອບສະຫນອງທີ່ບໍ່ຕ້ອງການຈາກຕົວແບບ AI.

ຕົວຢ່າງເຊັ່ນ, Microsoft ກໍາລັງຫຼີ້ນພາກສ່ວນຂອງຕົນໂດຍທາງອ້ອມດ້ວຍການສັກຢາທັນທີ, ບ່ອນທີ່ການປະຕິບັດຄໍາສັ່ງທີ່ບໍ່ດີແມ່ນເປັນໄປໄດ້, ແລະສະຖານະການເຊັ່ນນັ້ນອາດຈະນໍາໄປສູ່ຜົນສະທ້ອນດ້ານຄວາມປອດໄພທີ່ຮ້າຍແຮງເຊັ່ນການລັກຂໍ້ມູນແລະການລັກລອບລະບົບ. ກົນໄກຕ່າງໆແມ່ນສໍາຄັນໃນການກວດສອບແລະຕອບສະຫນອງຕໍ່ໄພຂົ່ມຂູ່ອັນດຽວເຫຼົ່ານີ້ໃນເວລາທີ່ແທ້ຈິງ, ອີງຕາມການ Sarah Bird, ຫົວຫນ້າຜະລິດຕະພັນຂອງ Microsoft ສໍາລັບຄວາມຮັບຜິດຊອບ AI.

Microsoft ກ່າວຕື່ມວ່າໃນໄວໆນີ້ຈະມີການແຈ້ງເຕືອນໃນຫນ້າຈໍຂອງຜູ້ໃຊ້, ເຊິ່ງຈະຊີ້ໃຫ້ເຫັນເວລາທີ່ຕົວແບບຫນຶ່ງມີແນວໂນ້ມທີ່ຈະສະແດງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງຫຼືຄວາມເຂົ້າໃຈຜິດ, ຮັບປະກັນຄວາມເປັນມິດກັບຜູ້ໃຊ້ແລະຄວາມໄວ້ວາງໃຈຫຼາຍຂຶ້ນ.

ສ້າງຄວາມໄວ້ວາງໃຈໃນເຄື່ອງມື AI 

ຄວາມພະຍາຍາມຂອງ Microsoft ແມ່ນສ່ວນໜຶ່ງຂອງການລິເລີ່ມທີ່ໃຫຍ່ກວ່າ, ເຊິ່ງໝາຍເຖິງການໃຫ້ຄວາມເຊື່ອໝັ້ນປະຊາຊົນໃນ AI ການຜະລິດທີ່ໄດ້ຮັບຄວາມນິຍົມເພີ່ມຂຶ້ນ ເຊິ່ງຖືກນຳໃຊ້ຢ່າງກວ້າງຂວາງໃນການບໍລິການທີ່ແນໃສ່ຜູ້ບໍລິໂພກສ່ວນບຸກຄົນ ແລະ ລູກຄ້າຂອງບໍລິສັດ. Microsoft ໄດ້ຜ່ານຜ່າດ້ວຍແຂ້ວເລ່ືອຍໆ, ຫຼັງຈາກເຫດການທີ່ເກີດຂຶ້ນ, ໂດຍທີ່ຜູ້ໃຊ້ມີຄວາມສາມາດເກມ Copilot chatbot ເພື່ອສ້າງຜົນຜະລິດທີ່ແປກປະຫຼາດ ຫຼືເປັນອັນຕະລາຍ. ນີ້ຈະເປັນການສະຫນັບສະຫນູນຜົນໄດ້ຮັບທີ່ສະແດງໃຫ້ເຫັນເຖິງຄວາມຕ້ອງການສໍາລັບການປ້ອງກັນທີ່ເຂັ້ມແຂງຕໍ່ກັບກົນລະຍຸດການຫມູນໃຊ້ທີ່ໄດ້ກ່າວມາ, ເຊິ່ງມີແນວໂນ້ມທີ່ຈະເພີ່ມຂຶ້ນດ້ວຍເຕັກໂນໂລຢີ AI ແລະຄວາມຮູ້ທີ່ນິຍົມ. ການຄາດເດົາແລະຫຼັງຈາກນັ້ນການຫຼຸດຜ່ອນແມ່ນຢູ່ໃນການຮັບຮູ້ຂອງຮູບແບບການໂຈມຕີ, ເຊັ່ນວ່າຜູ້ໂຈມຕີຖາມຄືນຄໍາຖາມຫຼືການກະຕຸ້ນເຕືອນໃນເວລາຫຼິ້ນບົດບາດ.

ໃນຖານະເປັນນັກລົງທຶນທີ່ໃຫຍ່ທີ່ສຸດຂອງ OpenAI ແລະຄູ່ຮ່ວມງານຍຸດທະສາດ, Microsoft ກໍາລັງຊຸກຍູ້ຂອບເຂດຂອງວິທີການລວມເອົາແລະສ້າງເຕັກໂນໂລຢີ AI ທີ່ມີຄວາມຮັບຜິດຊອບ, ປອດໄພ. ທັງສອງມີຄວາມມຸ່ງຫມັ້ນຕໍ່ການປະຕິບັດຫນ້າທີ່ຮັບຜິດຊອບແລະຮູບແບບພື້ນຖານຂອງ Generative AI ສໍາລັບມາດຕະການຄວາມປອດໄພ. ແຕ່ Bird ຍອມຮັບວ່າແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ເຫຼົ່ານີ້, ເຖິງແມ່ນວ່າພວກເຂົາກໍາລັງຈະເຫັນໄດ້ວ່າເປັນພື້ນຖານສໍາລັບການປະດິດສ້າງ AI ໃນອະນາຄົດ, ບໍ່ແມ່ນການຫມູນໃຊ້.

ການກໍ່ສ້າງພື້ນຖານເຫຼົ່ານີ້ຈະໃຊ້ເວລາຫຼາຍກ່ວາພຽງແຕ່ອີງໃສ່ຕົວແບບຂອງຕົນເອງ; ມັນຈໍາເປັນຕ້ອງມີວິທີການທີ່ສົມບູນແບບເພື່ອຄວາມປອດໄພແລະຄວາມປອດໄພ AI.

ບໍ່ດົນມານີ້ Microsoft ໄດ້ປະກາດການເສີມສ້າງມາດຕະການຄວາມປອດໄພສໍາລັບ Azure AI Studio ຂອງຕົນເພື່ອສະແດງແລະຮັບປະກັນຂັ້ນຕອນທີ່ຫ້າວຫັນທີ່ກໍາລັງປະຕິບັດເພື່ອປົກປ້ອງພູມສັນຖານໄພຂົ່ມຂູ່ AI ທີ່ປ່ຽນແປງ.

ມັນພະຍາຍາມຫຼີກເວັ້ນການໃຊ້ AI ທີ່ບໍ່ຖືກຕ້ອງແລະຮັກສາຄວາມຊື່ສັດແລະຄວາມຫນ້າເຊື່ອຖືຂອງການໂຕ້ຕອບ AI ໂດຍການລວມເອົາຫນ້າຈໍແລະການແຈ້ງເຕືອນທີ່ທັນເວລາ.

ດ້ວຍການວິວັດທະນາການຢ່າງຕໍ່ເນື່ອງຂອງເທກໂນໂລຍີ AI ແລະການຮັບຮອງເອົາໃນຫຼາຍໆດ້ານໃນຊີວິດປະຈໍາວັນ, ມັນຈະເປັນເວລາສູງສໍາລັບ Microsoft ແລະຊຸມຊົນອື່ນໆຂອງ AI ທີ່ຈະຮັກສາທ່າທາງຄວາມປອດໄພທີ່ລະມັດລະວັງຫຼາຍ.

ທີ່ມາ: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/