ຄວາມສາມາດຂອງ AI ທົ່ວໄປໃນການສ້າງຮູບພາບທີ່ຄ້າຍຄືກັບຊີວິດແມ່ນຫນ້າປະທັບໃຈ, ແຕ່ສໍານັກງານສືບສວນຂອງລັດຖະບານກາງຂອງສະຫະລັດກ່າວວ່າອາດຊະຍາກອນກໍາລັງໃຊ້ deepfakes ເພື່ອເປົ້າຫມາຍຜູ້ຖືກເຄາະຮ້າຍເພື່ອ extortion.
ອົງການດັ່ງກ່າວກ່າວໃນການແຈ້ງເຕືອນ PSA ໃນວັນຈັນວ່າ "FBI ຍັງສືບຕໍ່ໄດ້ຮັບລາຍງານຈາກຜູ້ເຄາະຮ້າຍ, ລວມທັງເດັກນ້ອຍເລັກນ້ອຍແລະຜູ້ໃຫຍ່ທີ່ບໍ່ຍິນຍອມ, ເຊິ່ງຮູບພາບຫຼືວິດີໂອໄດ້ຖືກປ່ຽນເປັນເນື້ອໃນທີ່ຈະແຈ້ງ,".
FBI ກ່າວວ່າອົງການບັງຄັບໃຊ້ກົດຫມາຍໄດ້ຮັບຫຼາຍກວ່າ 7,000 ລາຍງານໃນປີກາຍນີ້ກ່ຽວກັບການຂົ່ມເຫັງທາງອອນໄລນ໌ທີ່ແນເປົ້າໃສ່ຜູ້ເຍົາ, ໂດຍມີການເພີ່ມຂຶ້ນຂອງຜູ້ຖືກເຄາະຮ້າຍຂອງອັນທີ່ເອີ້ນວ່າ "ການຫລອກລວງການຫລອກລວງ" ໂດຍໃຊ້ການປອມແປງເລິກນັບຕັ້ງແຕ່ເດືອນເມສາ.
Deepfake ແມ່ນປະເພດວິດີໂອ ຫຼືສຽງທົ່ວໄປທີ່ສ້າງຂຶ້ນດ້ວຍປັນຍາປະດິດທີ່ພັນລະນາເຖິງເຫດການປອມທີ່ນັບມື້ນັບຍາກທີ່ຈະເຫັນວ່າເປັນການປອມແປງ, ເນື່ອງຈາກເວທີ AI ທົ່ວໄປເຊັ່ນ Midjourney 5.1 ແລະ OpenAI's DALL-E 2.
ໃນເດືອນພຶດສະພາ, ການປອມແປງເລິກຂອງ Tesla ແລະ CEO ຂອງ Twitter Elon Musk ໄດ້ເຮັດເພື່ອຫລອກລວງນັກລົງທຶນ crypto ໄດ້ແຜ່ລາມໄປ. ວິດີໂອທີ່ແບ່ງປັນໃນສື່ມວນຊົນສັງຄົມມີ footage ຂອງ Musk ຈາກການສໍາພາດທີ່ຜ່ານມາ, ດັດແກ້ເພື່ອໃຫ້ເຫມາະສົມກັບການຫລອກລວງ.
Deepfakes ບໍ່ໄດ້ເປັນອັນຕະລາຍທັງຫມົດ, ການປອມແປງເລິກຂອງ Pope Francis ນຸ່ງເສື້ອເສື້ອ Balenciaga ສີຂາວໄດ້ແຜ່ລາມໃນຕົ້ນປີນີ້, ແລະບໍ່ດົນມານີ້, Deepfakes ທີ່ສ້າງໂດຍ AI ຍັງໄດ້ຖືກນໍາໃຊ້ເພື່ອເຮັດໃຫ້ຜູ້ຖືກເຄາະຮ້າຍຈາກການຄາດຕະກໍາກັບຄືນສູ່ຊີວິດ.
ໃນຂໍ້ສະເໜີແນະຂອງຕົນ, FBI ໄດ້ເຕືອນບໍ່ໃຫ້ຈ່າຍຄ່າໄຖ່ໃດໆ ເພາະວ່າການເຮັດແບບນັ້ນບໍ່ໄດ້ຮັບປະກັນວ່າອາດຊະຍາກອນຈະບໍ່ລົງໂທດຢ່າງເລິກເຊິ່ງ.
FBI ຍັງໃຫ້ຄວາມລະມັດລະວັງໃນເວລາແບ່ງປັນຂໍ້ມູນສ່ວນຕົວ ແລະເນື້ອຫາອອນໄລນ໌, ລວມທັງການໃຊ້ຄຸນສົມບັດຄວາມເປັນສ່ວນຕົວ ເຊັ່ນ: ການສ້າງບັນຊີສ່ວນຕົວ, ຕິດຕາມການເຄື່ອນໄຫວອອນໄລນ໌ຂອງເດັກນ້ອຍ, ແລະເບິ່ງພຶດຕິກໍາທີ່ຜິດປົກກະຕິຈາກຄົນທີ່ທ່ານເຄີຍພົວພັນກັບໃນອະດີດ. ອົງການດັ່ງກ່າວຍັງແນະນໍາໃຫ້ດໍາເນີນການຊອກຫາເລື້ອຍໆສໍາລັບຂໍ້ມູນສ່ວນບຸກຄົນແລະສະມາຊິກຄອບຄົວອອນໄລນ໌.
ອົງການອື່ນໆທີ່ສົ່ງສຽງເຕືອນລວມທັງຄະນະກໍາມາທິການການຄ້າຂອງລັດຖະບານກາງສະຫະລັດ, ເຊິ່ງໄດ້ເຕືອນວ່າອາດຊະຍາກອນໄດ້ໃຊ້ deepfakes ເພື່ອຫລອກລວງຜູ້ເຄາະຮ້າຍທີ່ບໍ່ສົງໃສໃຫ້ສົ່ງເງິນຫຼັງຈາກສ້າງສຽງເລິກຂອງຫມູ່ເພື່ອນຫຼືສະມາຊິກໃນຄອບຄົວທີ່ບອກວ່າພວກເຂົາຖືກລັກພາຕົວ.
“ປັນຍາປະດິດບໍ່ແມ່ນຄວາມຄິດທີ່ໄກອອກໄປຈາກຮູບເງົາ sci-fi ອີກຕໍ່ໄປ. ພວກເຮົາກໍາລັງອາໄສຢູ່ກັບມັນ, ທີ່ນີ້ແລະໃນປັດຈຸບັນ. ຜູ້ຫລອກລວງສາມາດໃຊ້ AI ເພື່ອໂຄນສຽງຂອງຄົນທີ່ທ່ານຮັກ, "FTC ກ່າວໃນການແຈ້ງເຕືອນຜູ້ບໍລິໂພກໃນເດືອນມີນາ, ເພີ່ມວ່າຄວາມຕ້ອງການດ້ານອາຊະຍາກໍາທັງຫມົດແມ່ນຄລິບສຽງສັ້ນຂອງສຽງຂອງສະມາຊິກໃນຄອບຄົວເພື່ອເຮັດໃຫ້ການບັນທຶກເປັນຈິງ.
FBI ຍັງບໍ່ທັນຕອບ ຖອດລະຫັດຂອງ ຂໍ ຄຳ ເຫັນ.
ຢູ່ເທິງສຸດຂອງຂ່າວ crypto, ໄດ້ຮັບການປັບປຸງປະຈໍາວັນໃນກ່ອງຈົດຫມາຍຂອງທ່ານ.
ທີ່ມາ: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams