FBI ເຕືອນກ່ຽວກັບການຫລອກລວງ AI Deepfake Extortion

ຄວາມສາມາດຂອງ AI ທົ່ວໄປໃນການສ້າງຮູບພາບທີ່ຄ້າຍຄືກັບຊີວິດແມ່ນຫນ້າປະທັບໃຈ, ແຕ່ສໍານັກງານສືບສວນຂອງລັດຖະບານກາງຂອງສະຫະລັດກ່າວວ່າອາດຊະຍາກອນກໍາລັງໃຊ້ deepfakes ເພື່ອເປົ້າຫມາຍຜູ້ຖືກເຄາະຮ້າຍເພື່ອ extortion.

ອົງການດັ່ງກ່າວກ່າວໃນການແຈ້ງເຕືອນ PSA ໃນວັນຈັນວ່າ "FBI ຍັງສືບຕໍ່ໄດ້ຮັບລາຍງານຈາກຜູ້ເຄາະຮ້າຍ, ລວມທັງເດັກນ້ອຍເລັກນ້ອຍແລະຜູ້ໃຫຍ່ທີ່ບໍ່ຍິນຍອມ, ເຊິ່ງຮູບພາບຫຼືວິດີໂອໄດ້ຖືກປ່ຽນເປັນເນື້ອໃນທີ່ຈະແຈ້ງ,".

FBI ກ່າວວ່າອົງການບັງຄັບໃຊ້ກົດຫມາຍໄດ້ຮັບຫຼາຍກວ່າ 7,000 ລາຍງານໃນປີກາຍນີ້ກ່ຽວກັບການຂົ່ມເຫັງທາງອອນໄລນ໌ທີ່ແນເປົ້າໃສ່ຜູ້ເຍົາ, ໂດຍມີການເພີ່ມຂຶ້ນຂອງຜູ້ຖືກເຄາະຮ້າຍຂອງອັນທີ່ເອີ້ນວ່າ "ການຫລອກລວງການຫລອກລວງ" ໂດຍໃຊ້ການປອມແປງເລິກນັບຕັ້ງແຕ່ເດືອນເມສາ.

Deepfake ແມ່ນປະເພດວິດີໂອ ຫຼືສຽງທົ່ວໄປທີ່ສ້າງຂຶ້ນດ້ວຍປັນຍາປະດິດທີ່ພັນລະນາເຖິງເຫດການປອມທີ່ນັບມື້ນັບຍາກທີ່ຈະເຫັນວ່າເປັນການປອມແປງ, ເນື່ອງຈາກເວທີ AI ທົ່ວໄປເຊັ່ນ Midjourney 5.1 ແລະ OpenAI's DALL-E 2.

ໃນເດືອນພຶດສະພາ, ການປອມແປງເລິກຂອງ Tesla ແລະ CEO ຂອງ Twitter Elon Musk ໄດ້ເຮັດເພື່ອຫລອກລວງນັກລົງທຶນ crypto ໄດ້ແຜ່ລາມໄປ. ວິດີໂອທີ່ແບ່ງປັນໃນສື່ມວນຊົນສັງຄົມມີ footage ຂອງ Musk ຈາກການສໍາພາດທີ່ຜ່ານມາ, ດັດແກ້ເພື່ອໃຫ້ເຫມາະສົມກັບການຫລອກລວງ.

Deepfakes ບໍ່ໄດ້ເປັນອັນຕະລາຍທັງຫມົດ, ການປອມແປງເລິກຂອງ Pope Francis ນຸ່ງເສື້ອເສື້ອ Balenciaga ສີຂາວໄດ້ແຜ່ລາມໃນຕົ້ນປີນີ້, ແລະບໍ່ດົນມານີ້, Deepfakes ທີ່ສ້າງໂດຍ AI ຍັງໄດ້ຖືກນໍາໃຊ້ເພື່ອເຮັດໃຫ້ຜູ້ຖືກເຄາະຮ້າຍຈາກການຄາດຕະກໍາກັບຄືນສູ່ຊີວິດ.

ໃນ​ຂໍ້​ສະ​ເໜີ​ແນະ​ຂອງ​ຕົນ, FBI ໄດ້​ເຕືອນ​ບໍ່​ໃຫ້​ຈ່າຍ​ຄ່າ​ໄຖ່​ໃດໆ ເພາະ​ວ່າ​ການ​ເຮັດ​ແບບ​ນັ້ນ​ບໍ່​ໄດ້​ຮັບ​ປະ​ກັນ​ວ່າ​ອາດ​ຊະ​ຍາ​ກອນ​ຈະ​ບໍ່​ລົງ​ໂທດ​ຢ່າງ​ເລິກ​ເຊິ່ງ.

FBI ຍັງໃຫ້ຄວາມລະມັດລະວັງໃນເວລາແບ່ງປັນຂໍ້ມູນສ່ວນຕົວ ແລະເນື້ອຫາອອນໄລນ໌, ລວມທັງການໃຊ້ຄຸນສົມບັດຄວາມເປັນສ່ວນຕົວ ເຊັ່ນ: ການສ້າງບັນຊີສ່ວນຕົວ, ຕິດຕາມການເຄື່ອນໄຫວອອນໄລນ໌ຂອງເດັກນ້ອຍ, ແລະເບິ່ງພຶດຕິກໍາທີ່ຜິດປົກກະຕິຈາກຄົນທີ່ທ່ານເຄີຍພົວພັນກັບໃນອະດີດ. ອົງການດັ່ງກ່າວຍັງແນະນໍາໃຫ້ດໍາເນີນການຊອກຫາເລື້ອຍໆສໍາລັບຂໍ້ມູນສ່ວນບຸກຄົນແລະສະມາຊິກຄອບຄົວອອນໄລນ໌.

ອົງການອື່ນໆທີ່ສົ່ງສຽງເຕືອນລວມທັງຄະນະກໍາມາທິການການຄ້າຂອງລັດຖະບານກາງສະຫະລັດ, ເຊິ່ງໄດ້ເຕືອນວ່າອາດຊະຍາກອນໄດ້ໃຊ້ deepfakes ເພື່ອຫລອກລວງຜູ້ເຄາະຮ້າຍທີ່ບໍ່ສົງໃສໃຫ້ສົ່ງເງິນຫຼັງຈາກສ້າງສຽງເລິກຂອງຫມູ່ເພື່ອນຫຼືສະມາຊິກໃນຄອບຄົວທີ່ບອກວ່າພວກເຂົາຖືກລັກພາຕົວ.

“ປັນຍາປະດິດບໍ່ແມ່ນຄວາມຄິດທີ່ໄກອອກໄປຈາກຮູບເງົາ sci-fi ອີກຕໍ່ໄປ. ພວກເຮົາກໍາລັງອາໄສຢູ່ກັບມັນ, ທີ່ນີ້ແລະໃນປັດຈຸບັນ. ຜູ້ຫລອກລວງສາມາດໃຊ້ AI ເພື່ອໂຄນສຽງຂອງຄົນທີ່ທ່ານຮັກ, "FTC ກ່າວໃນການແຈ້ງເຕືອນຜູ້ບໍລິໂພກໃນເດືອນມີນາ, ເພີ່ມວ່າຄວາມຕ້ອງການດ້ານອາຊະຍາກໍາທັງຫມົດແມ່ນຄລິບສຽງສັ້ນຂອງສຽງຂອງສະມາຊິກໃນຄອບຄົວເພື່ອເຮັດໃຫ້ການບັນທຶກເປັນຈິງ.

FBI ຍັງບໍ່ທັນຕອບ ຖອດລະຫັດຂອງ ຂໍ ຄຳ ເຫັນ.

ຢູ່ເທິງສຸດຂອງຂ່າວ crypto, ໄດ້ຮັບການປັບປຸງປະຈໍາວັນໃນກ່ອງຈົດຫມາຍຂອງທ່ານ.

ທີ່ມາ: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams