ຊຸດຊອບແວທີ່ສ້າງຂຶ້ນໂດຍ AI ເຮັດໃຫ້ເກີດໄພຂົ່ມຂູ່ດ້ານຄວາມປອດໄພ

ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພ Bar Lanyado ໄດ້ດໍາເນີນການຄົ້ນຄ້ວາບາງຢ່າງໃນບໍ່ດົນມານີ້ກ່ຽວກັບວິທີການສ້າງແບບຈໍາລອງ AI ປະກອບສ່ວນໂດຍບໍ່ໄດ້ຕັ້ງໃຈຕໍ່ກັບໄພຂົ່ມຂູ່ດ້ານຄວາມປອດໄພທີ່ອາດມີຂະຫນາດໃຫຍ່ໃນໂລກການພັດທະນາຊອບແວ. ການຄົ້ນຄວ້າດັ່ງກ່າວໂດຍ Lanyado ພົບເຫັນແນວໂນ້ມທີ່ຫນ້າຕົກໃຈ: AI ແນະນໍາການຫຸ້ມຫໍ່ຂອງຊອບແວທີ່ຈິນຕະນາການ, ແລະນັກພັດທະນາ, ໂດຍບໍ່ຮູ້ຕົວ, ປະກອບມີມັນຢູ່ໃນ codebases ຂອງພວກເຂົາ.

ບັນຫາດັ່ງກ່າວໄດ້ເປີດເຜີຍ

ໃນປັດຈຸບັນ, ບັນຫາແມ່ນວ່າການແກ້ໄຂທີ່ສ້າງຂຶ້ນແມ່ນຊື່ປອມ - ບາງສິ່ງບາງຢ່າງປົກກະຕິຂອງ AI. ແນວໃດກໍ່ຕາມ, ຊື່ແພັກເກັດທີ່ສົມມຸດຕິຖານເຫຼົ່ານີ້ໄດ້ຖືກແນະນໍາຢ່າງໝັ້ນໃຈຕໍ່ຜູ້ພັດທະນາທີ່ມີຄວາມຫຍຸ້ງຍາກໃນການຂຽນໂປຼແກຼມດ້ວຍຕົວແບບ AI. ແທ້ຈິງແລ້ວ, ບາງຊື່ແພັກເກັດທີ່ປະດິດສ້າງໄດ້ບາງສ່ວນແມ່ນອີງໃສ່ຄົນ - ເຊັ່ນ: Lanyado - ແລະບາງຄົນໄດ້ສືບຕໍ່ເດີນຫນ້າແລະປ່ຽນເປັນແພັກເກັດທີ່ແທ້ຈິງ. ອັນນີ້ເຮັດໃຫ້ການລວມເອົາລະຫັດອັນຕະລາຍທີ່ອາດຈະເກີດຂຶ້ນໂດຍບັງເອີນພາຍໃນໂຄງການຊອບແວທີ່ແທ້ຈິງ ແລະຖືກຕ້ອງຕາມກົດໝາຍ.

ຫນຶ່ງໃນທຸລະກິດທີ່ຕົກຢູ່ພາຍໃຕ້ຜົນກະທົບນີ້ແມ່ນ Alibaba, ຫນຶ່ງໃນຜູ້ນທີ່ສໍາຄັນໃນອຸດສາຫະກໍາເຕັກໂນໂລຢີ. ພາຍໃນຄໍາແນະນໍາການຕິດຕັ້ງຂອງພວກເຂົາສໍາລັບ GraphTranslator, Lanyado ພົບວ່າ Alibaba ໄດ້ລວມເອົາຊຸດທີ່ເອີ້ນວ່າ "huggingface-cli" ທີ່ຖືກປອມແປງ. ໃນຄວາມເປັນຈິງ, ມີຊຸດທີ່ແທ້ຈິງທີ່ມີຊື່ດຽວກັນຢູ່ໃນ Python Package Index (PyPI), ແຕ່ຄໍາແນະນໍາຂອງ Alibaba ໄດ້ກ່າວເຖິງຫນຶ່ງທີ່ Lanyado ໄດ້ເຮັດ.

ການທົດສອບຄວາມຄົງທົນ

ການຄົ້ນຄວ້າຂອງ Lanyado ມີຈຸດປະສົງເພື່ອປະເມີນອາຍຸຍືນແລະການຂຸດຄົ້ນທີ່ມີທ່າແຮງຂອງຊື່ແພັກເກັດທີ່ຜະລິດ AI ເຫຼົ່ານີ້. ໃນຄວາມຫມາຍນີ້, LQuery ໄດ້ປະຕິບັດຕົວແບບ AI ທີ່ແຕກຕ່າງກັນກ່ຽວກັບສິ່ງທ້າທາຍການຂຽນໂປລແກລມແລະລະຫວ່າງພາສາໃນຂະບວນການເຂົ້າໃຈຖ້າຫາກວ່າ, ປະສິດທິຜົນ, ໃນລະບົບ, ຊື່ປອມເຫຼົ່ານັ້ນໄດ້ຖືກແນະນໍາ. ມັນເປັນທີ່ຊັດເຈນໃນການທົດລອງນີ້ວ່າມີຄວາມສ່ຽງທີ່ຫນ່ວຍງານທີ່ເປັນອັນຕະລາຍສາມາດລ່ວງລະເມີດຊື່ແພັກເກັດທີ່ສ້າງໂດຍ AI ສໍາລັບການແຈກຢາຍຊອບແວທີ່ເປັນອັນຕະລາຍ.

ຜົນໄດ້ຮັບເຫຼົ່ານີ້ມີຜົນກະທົບອັນເລິກເຊິ່ງ. ນັກສະແດງທີ່ບໍ່ດີອາດຈະຂຸດຄົ້ນຄວາມໄວ້ວາງໃຈຕາບອດທີ່ວາງໄວ້ໂດຍນັກພັດທະນາໃນຄໍາແນະນໍາທີ່ໄດ້ຮັບໃນລັກສະນະທີ່ເຂົາເຈົ້າອາດຈະເລີ່ມເຜີຍແຜ່ຊຸດທີ່ເປັນອັນຕະລາຍພາຍໃຕ້ຕົວຕົນທີ່ບໍ່ຖືກຕ້ອງ. ດ້ວຍແບບຈໍາລອງ AI, ຄວາມສ່ຽງເພີ່ມຂຶ້ນດ້ວຍການແນະນໍາ AI ທີ່ສອດຄ່ອງກັນສໍາລັບຊື່ແພັກເກັດທີ່ຖືກປະດິດ, ເຊິ່ງຈະຖືກລວມເຂົ້າເປັນ malware ໂດຍນັກພັດທະນາທີ່ບໍ່ຮູ້ຈັກ. **ທາງ​ໄປ​ໜ້າ**

ດັ່ງນັ້ນ, ເມື່ອ AI ປະສົມປະສານກັບການພັດທະນາຊອບແວຕື່ມອີກ, ຄວາມຕ້ອງການແກ້ໄຂຈຸດອ່ອນອາດຈະເກີດຂື້ນຖ້າເຊື່ອມຕໍ່ກັບຄໍາແນະນໍາທີ່ສ້າງໂດຍ AI. ໃນກໍລະນີດັ່ງກ່າວ, ຄວາມພາກພຽນຢ່າງມີເຫດຜົນຕ້ອງໄດ້ຮັບການປະຕິບັດເພື່ອໃຫ້ຊຸດຊອບແວທີ່ແນະນໍາສໍາລັບການເຊື່ອມໂຍງແມ່ນຖືກຕ້ອງ. ຍິ່ງໄປກວ່ານັ້ນ, ມັນຄວນຈະເປັນສະຖານທີ່ສໍາລັບເວທີທີ່ເປັນເຈົ້າພາບບ່ອນເກັບມ້ຽນຂອງຊໍແວເພື່ອກວດສອບແລະແຂງແຮງພໍທີ່ຈະບໍ່ມີລະຫັດທີ່ມີຄຸນນະພາບທີ່ບໍ່ດີຄວນຖືກແຈກຢາຍ.

ການຕັດກັນຂອງປັນຍາປະດິດ ແລະການພັດທະນາຊອບແວໄດ້ເປີດເຜີຍເຖິງໄພຂົ່ມຂູ່ດ້ານຄວາມປອດໄພ. ນອກຈາກນີ້, ຮູບແບບ AI ອາດຈະນໍາໄປສູ່ການແນະນໍາໂດຍບັງເອີນຂອງຊຸດຊອບແວປອມ, ເຊິ່ງກໍ່ໃຫ້ເກີດຄວາມສ່ຽງອັນໃຫຍ່ຫຼວງຕໍ່ຄວາມສົມບູນຂອງໂຄງການຊອບແວ. ຄວາມຈິງທີ່ວ່າໃນຄໍາແນະນໍາຂອງລາວ, Alibaba ໄດ້ລວມເອົາກ່ອງທີ່ບໍ່ຄວນມີຢູ່, ແຕ່ຢືນຢູ່ຫຼັກຖານວ່າຄວາມເປັນໄປໄດ້ສາມາດເກີດຂຶ້ນໄດ້ແນວໃດເມື່ອຄົນເຮົາປະຕິບັດຕາມຄໍາແນະນໍາໂດຍຫຸ່ນຍົນ. 

ມອບໃຫ້ໂດຍ AI. ໃນອະນາຄົດ, ຈະຕ້ອງມີການລະມັດລະວັງໃນມາດຕະການທີ່ຫ້າວຫັນເພື່ອໃຫ້ການນໍາໃຊ້ AI ທີ່ບໍ່ຖືກຕ້ອງສໍາລັບການພັດທະນາຊອບແວໄດ້ຖືກປ້ອງກັນ.

ທີ່ມາ: https://www.cryptopolitan.com/ai-generated-software-packages-threats/