ຈັນຍາບັນຂອງ AI ໄດ້ຕັ້ງຄຳຖາມຢ່າງເຂັ້ມງວດຕໍ່ການ cloning ສຽງຂອງມະນຸດເຊັ່ນ: ພີ່ນ້ອງທີ່ເສຍຊີວິດຂອງເຈົ້າ, ມີຈຸດປະສົງເພື່ອໃຊ້ໃນລະບົບປົກຄອງຕົນເອງຂອງ AI

ຂໍອະໄພ, ເທັກໂນໂລຍີໃໝ່ທີ່ເບິ່ງຄືວ່າດີຫຼາຍໄດ້ເອົາຕົວມັນເອງ ແລະຜູ້ຜະລິດຂອງມັນເຂົ້າໄປໃນນໍ້າຮ້ອນເລັກນ້ອຍ.

ຂ້າພະເຈົ້າອ້າງເຖິງການເກີດໃຫມ່ຂອງ cloning ສຽງຂອງມະນຸດໂດຍອີງໃສ່ AI ເປັນເຕັກໂນໂລຢີໃຫມ່ທີ່ຄຸ້ມຄອງເພື່ອເຂົ້າໄປໃນຫົວຂໍ້ຂ່າວ oh-my-gosh ຂອງທ້າຍ. ໃນຕົວຢ່າງນີ້, ບໍລິສັດແມ່ນ Amazon ແລະ Alexa ທີ່ກ້າວຫນ້າ.

ຜູ້ອ່ານຂອງຄໍລໍາຂອງຂ້ອຍອາດຈະຈື່ໄດ້ວ່າຂ້ອຍໄດ້ກວມເອົາກ່ອນຫນ້ານີ້ boo-boo ທີ່ບໍ່ຫນ້າເຊື່ອທີ່ເກີດຂຶ້ນເມື່ອມີລາຍງານວ່າໄວຫນຸ່ມໄດ້ຖືກຊຸກຍູ້ໂດຍ Alexa ໃຫ້ເອົາເງິນເຂົ້າໄປໃນເຕົ້າສຽບໄຟຟ້າ (ຢ່າເຮັດແນວນີ້!), ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ໃນສະຖານະການນັ້ນ, ໂຊກດີ, ບໍ່ມີໃຜໄດ້ຮັບບາດເຈັບ, ແລະຄວາມຫຼົງໄຫຼແມ່ນວ່າລະບົບ Alexa AI ໄດ້ເລືອກເອົາແນວໂນ້ມໄວຣັດກ່ອນຫນ້າແລະບໍ່ມີລັກສະນະຂອງການປະເມີນຄວາມຮູ້ສຶກທົ່ວໄປພຽງແຕ່ເຮັດຊ້ໍາຄໍາແນະນໍາທີ່ບ້າໆເມື່ອຮ້ອງຂໍໃຫ້ມີບາງສິ່ງບາງຢ່າງທີ່ມ່ວນຊື່ນທີ່ຈະເຮັດ. ເດັກນ້ອຍພົວພັນກັບ Alexa. ນີ້ຊີ້ໃຫ້ເຫັນຄວາມກັງວົນດ້ານຈັນຍາບັນຂອງ AI ທີ່ພວກເຮົາກໍາລັງຕົກຢູ່ໃນ AI ທີ່ຂາດລັກສະນະການສົມເຫດສົມຜົນຂອງຄວາມຮູ້ສຶກທົ່ວໄປ, ເປັນບັນຫາທີ່ໂດດເດັ່ນທີ່ກໍາລັງປະເຊີນກັບ AI ທີ່ສືບຕໍ່ຕ້ານຄວາມພະຍາຍາມເພື່ອປະກອບໃນ AI (ສໍາລັບການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບ AI ທົ່ວໄປທີ່ມາຈາກຄວາມຮູ້ສຶກທົ່ວໄປ. ຄວາມພະຍາຍາມ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ການຂີ້ຝຸ່ນລ້າສຸດກ່ຽວຂ້ອງກັບການເຮັດໂຄນສຽງ, ເຊິ່ງເອີ້ນກັນວ່າ ການຈຳລອງສຽງ. ຫລ້າສຸດໃນເທກໂນໂລຍີດັ່ງກ່າວ ແລະ AI ກໍາລັງເພີ່ມການພິຈາລະນາດ້ານຈັນຍາບັນຂອງ AI ແລະຈັນຍາບັນຂອງ AI. ສໍາລັບການຄຸ້ມຄອງທົ່ວໄປຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້, ພຽງແຕ່ຊື່ບາງຄົນ.

ການໂຄລນສຽງທີ່ໃຊ້ AI ເປັນແນວຄວາມຄິດທີ່ກົງໄປກົງມາ.

ລະບົບ AI ຖືກຕັ້ງໂຄງການເພື່ອບັນທຶກສຽງບາງຄຳເວົ້າຂອງເຈົ້າ. ຈາກນັ້ນ AI ພະຍາຍາມຊອກຫາຮູບແບບການເວົ້າຂອງເຈົ້າດ້ວຍຄຳນວນ. ອີງໃສ່ຮູບແບບສຽງເວົ້າທີ່ກວດພົບ, AI ຈາກນັ້ນພະຍາຍາມປ່ອຍສຽງເວົ້າທີ່ມີສຽງຄືກັບເຈົ້າ. ພາກສ່ວນທີ່ຫລອກລວງແມ່ນວ່າຄໍາເວົ້າກວມເອົາຄໍາສັບຕ່າງໆທີ່ທ່ານບໍ່ໄດ້ສະຫນອງໃຫ້ເປັນຕົວຢ່າງສຽງກັບ AI. ໃນຄໍາສັບຕ່າງໆອື່ນໆ, AI ຕ້ອງຄາດຄະເນທາງຄະນິດສາດວ່າຄໍາສັບຕ່າງໆອາດຈະຖືກເວົ້າໂດຍທ່ານ. ນີ້ປະກອບມີຄຸນລັກສະນະທັງຫມົດຂອງການປາກເວົ້າເຊັ່ນ: ສຽງ, ການເພີ່ມຂຶ້ນແລະຫຼຸດລົງຂອງສຽງ, ຈັງຫວະຫຼືຄວາມໄວຂອງການເວົ້າ, ແລະອື່ນໆ.

ເມື່ອເຈົ້າໄດ້ຍິນມະນຸດພະຍາຍາມປອມຕົວເປັນມະນຸດຄົນອື່ນ, ເຈົ້າມັກຈະສາມາດເຂົ້າໃຈໄດ້ວ່າຄວາມພະຍາຍາມແມ່ນການປອມຕົວ. ໃນໄລຍະສັ້ນ, ເຊັ່ນວ່າຜູ້ປອມຕົວໃຊ້ພຽງແຕ່ສອງສາມຄໍາ, ມັນອາດຈະເປັນການຍາກທີ່ຈະຄິດອອກວ່າສຽງບໍ່ແມ່ນລໍາໂພງຕົ້ນສະບັບ. ນອກຈາກນັ້ນ, ຖ້າຜູ້ປອມຕົວກໍາລັງເຮັດຕາມຄໍາເວົ້າທີ່ຜູ້ເວົ້າຕົ້ນສະບັບເວົ້າແທ້ໆ, ຄວາມບໍ່ລົງລອຍກັນແມ່ນວ່າພວກເຂົາສາມາດປັບສຽງຂອງຕົນເອງໃຫ້ເຫມາະສົມກັບສຽງຂອງຄົນອື່ນຫຼາຍກວ່າເກົ່າເພື່ອການເວົ້າສະເພາະນັ້ນ.

Brevity ແລະການໄດ້ຍິນຄໍາດຽວກັນຄືກັນອ້ອຍຕ້ອຍສາມາດອະນຸຍາດໃຫ້ໃຜຜູ້ຫນຶ່ງເລັບ pretty ຫຼາຍເປັນ impersonation ໄດ້.

ສິ່ງທ້າທາຍກາຍເປັນຄໍາເວົ້າທີ່ຄົນອື່ນບໍ່ໄດ້ເວົ້າຫຼືສິ່ງທີ່ຜູ້ປອມຕົວບໍ່ເຄີຍໄດ້ຍິນຄົນເວົ້າຄໍາສະເພາະເຫຼົ່ານັ້ນ. ເຈົ້າຢູ່ໃນຄວາມມືດບາງຢ່າງທີ່ພະຍາຍາມຄິດອອກວ່າຄົນທີ່ເຮັດແບບນັ້ນຈະເວົ້າຄຳສັບເຫຼົ່ານັ້ນແນວໃດ. ຂ່າວດີແມ່ນວ່າຖ້າຜູ້ອື່ນທີ່ຟັງຜູ້ປອມຕົວກໍ່ຍັງບໍ່ຮູ້ວ່າຜູ້ຕົ້ນສະບັບຈະເວົ້າຄໍາເວົ້າແນວໃດ, ຜູ້ປອມຕົວສາມາດຂ້ອນຂ້າງເປັນສຽງທີ່ແທ້ຈິງແລະຍັງເບິ່ງຄືວ່າເປັນຄົນຂີ້ຕົວະແລະຢູ່ໃນເປົ້າຫມາຍ.

ຂ້າພະເຈົ້າຍັງຢາກຈະຖອນຕົວອອກຈາກສົມຜົນໃນໄລຍະສັ້ນກ່ຽວກັບລັກສະນະ ແລະການເຄື່ອນໄຫວທາງຮ່າງກາຍຂອງການປອມຕົວ. ເມື່ອເຫັນຜູ້ປອມຕົວ, ເຈົ້າອາດຈະຮູ້ສຶກຫວັ່ນໄຫວ ຖ້າເຂົາເຈົ້າສາມາດຍັບຍັ້ງໃບໜ້າ ຫຼື ຢຽບແຂນດ້ວຍວິທີທີ່ເຮັດການປອມຕົວເປັນຕົວຕົນ. ຕົວຊີ້ບອກເພີ່ມເຕີມຂອງຮ່າງກາຍແລະໃບຫນ້າຈະຫຼອກລວງຈິດໃຈຂອງເຈົ້າໃຫ້ຄິດວ່າສຽງນັ້ນຍັງຕາຍຢູ່, ເຖິງແມ່ນວ່າມັນອາດຈະບໍ່ແມ່ນ. ຄົນບໍລິສຸດທີ່ປອມຕົວເປັນສຽງຈະຢືນຢັນວ່າພຽງແຕ່ສຽງດຽວເທົ່ານັ້ນທີ່ຄວນຈະຖືກໃຊ້ເປັນເງື່ອນໄຂໃນການກໍານົດວ່າສຽງນັ້ນຈະ mimics ບຸກຄົນທີ່ຖືກປອມເປັນຢ່າງຖືກຕ້ອງ.

ທ່ານແນ່ນອນໄດ້ເຫັນວິດີໂອທີ່ປອມແປງເລິກໆທີ່ກໍາລັງດໍາເນີນຢູ່ໃນສື່ສັງຄົມໃນມື້ນີ້. ມີຄົນຫຼິ້ນວິດີໂອຢ່າງສະຫຼາດເພື່ອໃຫ້ມີໃບໜ້າຂອງຄົນອື່ນປາກົດຢູ່ໃນວິດີໂອ, ວາງທັບໃບໜ້າທີ່ເປັນຂອງຄົນອື່ນໃນບັນທຶກຕົ້ນສະບັບ. ນີ້ປົກກະຕິແລ້ວແມ່ນມາພ້ອມກັບການເຮັດ deepfake ກ່ຽວກັບສຽງເຊັ່ນດຽວກັນ. ທ່ານໄດ້ຮັບຄວາມວຸ້ນວາຍສອງເທົ່າ, ກ່ຽວຂ້ອງກັບວິດີໂອທີ່ຖືກປ່ຽນແປງຜ່ານ AI deepfake ແລະສຽງທີ່ຖືກປ່ຽນແປງຜ່ານ deepfake AI.

ສໍາລັບ sake ຂອງການສົນທະນາໃນທີ່ນີ້, ຂ້າພະເຈົ້າກໍາລັງສຸມໃສ່ພຽງແຕ່ AI-based deepfake facets ສຽງ, ທີ່ໄດ້ກ່າວມາກ່ອນຫນ້ານີ້ແມ່ນເອີ້ນວ່າທົ່ວໄປເປັນການ cloning ສຽງຫຼື replication ສຽງ. ບາງ​ຄົນ​ອ້າງ​ເຖິງ​ເລື່ອງ​ນີ້​ເປັນ​ສຽງ​ໃນ​ກະປ໋ອງ.

ຂ້າ​ພະ​ເຈົ້າ​ແນ່​ໃຈວ່​າ​ບາງ​ທ່ານ​ໃນ​ປັດ​ຈຸ​ບັນ​ຊັກ​ຊວນ​ວ່າ​ພວກ​ເຮົາ​ມີ​ຄວາມ​ສາ​ມາດ​ໃນ​ການ​ນໍາ​ໃຊ້​ໂຄງ​ການ​ຄອມ​ພິວ​ເຕີ​ສໍາ​ລັບ​ການ cloning ສຽງ​ສໍາ​ລັບ​ການ​ຂ້ອນ​ຂ້າງ​ໃນ​ຂະ​ນະ​ທີ່​. ນີ້ແມ່ນບໍ່ມີຫຍັງໃຫມ່ຕໍ່ຄົນ. ຂ້ອຍ​ຍອມ​ຮັບ. ໃນຂະນະດຽວກັນ, ພວກເຮົາຈໍາເປັນຕ້ອງຍອມຮັບວ່າຄວາມສາມາດດ້ານເຕັກໂນໂລຢີສູງນີ້ໄດ້ຮັບການປັບປຸງແລະດີຂຶ້ນ. ແລ້ວ, ຂ້ອຍເວົ້າດີກວ່າແລະດີກວ່າ, ແຕ່ບາງທີເຈົ້າຈະເຫັນໃນຂະນະນີ້ຂ້ອຍຄວນຈະເວົ້າວ່າມັນກາຍເປັນຄວາມກັງວົນແລະຫນ້າເປັນຫ່ວງຫຼາຍຂຶ້ນ.

ຍຶດໝັ້ນກັບຄວາມຄິດນັ້ນ.

ຄວາມກ້າວໜ້າທາງດ້ານເທັກໂນໂລຍີແມ່ນມີຄວາມກ້າວໜ້າຢ່າງແນ່ນອນສຳລັບການເຮັດໂຄລນສຽງ. ຕົວຢ່າງ, ມັນເຄີຍເປັນທີ່ເຈົ້າຈະຕ້ອງ "ຝຶກອົບຮົມ" ໂຄງການການຈໍາລອງສຽງ AI ໂດຍການເວົ້າເລື່ອງທັງຫມົດຂອງຄໍາປະສົມແລະຄໍາທີ່ກົງກັນ. ຄ້າຍກັບສາຍທີ່ໂດ່ງດັງ ຫຼື ຊື່ສຽງຂອງໝາໝານ້ຳຕານໄວທີ່ໂດດຂ້າມໝາຂີ້ກຽດ (ສາຍທີ່ຕັ້ງໃຈໃຫ້ຜູ້ໃດຜູ້ໜຶ່ງກວມເອົາຕົວອັກສອນທັງໝົດຂອງຕົວໜັງສື), ມີເລື່ອງສັ້ນທີ່ສ້າງຂື້ນເປັນພິເສດທີ່ມີສ່ວນປະສົມຂອງຄຳສັບຕ່າງໆເພື່ອຈຸດປະສົງ. ເຮັດໃຫ້ເຈົ້າເວົ້າຄຳສັບທີ່ພຽງພໍ ແລະຫຼາກຫຼາຍຄຳສັບທີ່ພຽງພໍເພື່ອເຮັດໃຫ້ຮູບແບບ AI ຈັບຄູ່ໄດ້ງ່າຍຂຶ້ນຫຼາຍ.

ທ່ານອາດຈະຕ້ອງອ່ານຫຼາຍຫນ້າຂອງຄໍາສັບຕ່າງໆ, ເລື້ອຍໆ, ລວມທັງຄໍາທີ່ເຈົ້າພະຍາຍາມອອກສຽງແລະບໍ່ແນ່ໃຈວ່າມັນຫມາຍຄວາມວ່າແນວໃດ, ເພື່ອໃຫ້ພຽງພໍເພື່ອໃຫ້ການຈັບຄູ່ຮູບແບບ AI ເກີດຂຶ້ນ. ອັນນີ້ອາດຈະໃຊ້ເວລາຫຼາຍນາທີ ຫຼືບາງຄັ້ງຫຼາຍຊົ່ວໂມງໃນການເວົ້າເພື່ອໃຫ້ AI ມີສຽງພຽງພໍເພື່ອໃຊ້ເພື່ອຊອກຫາຮູບແບບທີ່ແຕກຕ່າງຂອງສຽງຂອງເຈົ້າ. ຖ້າທ່ານປ່ຽນກິດຈະກໍາການຝຶກອົບຮົມນີ້, ໂອກາດທີ່ການຈໍາລອງສຽງທີ່ໄດ້ຮັບຜົນຈະຖືກຍິງໄດ້ງ່າຍໂດຍຫມູ່ເພື່ອນຂອງເຈົ້າທີ່ຮູ້ຈັກສຽງຂອງເຈົ້າດີ.

ຕົກລົງ, ຄວາມສົນໃຈຈາກຜູ້ພັດທະນາ AI ໄດ້ສຸມໃສ່ວິທີການເພີ່ມປະສິດທິພາບລັກສະນະການຈໍາລອງສຽງ. ຜູ້ສ້າງ AI ເພີດເພີນກັບສິ່ງທ້າທາຍ. ເຂົາເຈົ້າໄດ້ຖືກກ່າວວ່າເປັນ optimizers ໃນຫົວໃຈ. ໃຫ້ພວກເຂົາມີບັນຫາແລະພວກເຂົາມີແນວໂນ້ມທີ່ຈະເພີ່ມປະສິດທິພາບ, ໂດຍບໍ່ຄໍານຶງເຖິງບ່ອນທີ່ອາດຈະນໍາໄປສູ່ (ຂ້າພະເຈົ້າກ່າວເຖິງນີ້ເປັນ foreshadowing, ເຊິ່ງຈະກາຍເປັນທີ່ຈະແຈ້ງໃນໄວໆນີ້).

ຕອບຂ້ອຍນີ້:

  • ຈໍານວນຕົວຢ່າງສຽງທີ່ຫນ້ອຍທີ່ສຸດທີ່ຕ້ອງການເພື່ອໂຄນສຽງຂອງບຸກຄົນສູງສຸດແລະສໍາລັບຕົວຢ່າງສຽງສາມາດເກືອບທຸກຊຸດຄໍາທີ່ອະນຸຍາດແບບສຸ່ມແລະຍັງອະນຸຍາດໃຫ້ cloning ສຽງເພື່ອຜະລິດເກືອບທຸກຄໍາທີ່ອາດຈະເຄີຍເວົ້າ. ໂດຍສຽງທີ່ຕັ້ງເປົ້າໝາຍໄວ້ ແລະສຽງທີ່ມີລັກສະນະຄ້າຍຄືກັນກັບສຽງຂອງບຸກຄົນນັ້ນໃນການສົນທະນາ ຫຼື ການຕັ້ງຄ່າບໍລິບົດອື່ນໆຂອງການເລືອກ?

ມີຫຼາຍຢູ່ໃນນັ້ນເພື່ອ unpack.

ຈົ່ງຈື່ໄວ້ວ່າທ່ານຕ້ອງການຕົວຢ່າງສຽງຂັ້ນຕ່ໍາທີ່ຈະໂຄນສຽງສູງສຸດ, ເຊັ່ນວ່າຄໍາເວົ້າຂອງ AI ທີ່ເປັນຜົນມາຈາກສຽງທີ່ເຮັດແບບອັດຕະໂນມັດໃນປັດຈຸບັນຈະເບິ່ງຄືວ່າບໍ່ສາມາດຈໍາແນກໄດ້ຈາກບຸກຄົນທີ່ແທ້ຈິງ. ນີ້ແມ່ນ trickier ກວ່າທີ່ເຈົ້າຄິດ.

ມັນເກືອບຄືກັບການສະແດງເກມທີ່ເຈົ້າຕ້ອງລອງຕັ້ງຊື່ເພງໂດຍອ້າງອີງໃສ່ບັນທຶກທີ່ໄດ້ຍິນໜ້ອຍທີ່ສຸດ. ການຫຼິ້ນບັນທຶກໜ້ອຍລົງ, ການຄາດເດົາເພງນັ້ນແມ່ນຍາກຂຶ້ນ. ຖ້າການຄາດເດົາຂອງທ່ານຜິດ, ທ່ານຈະສູນເສຍຄະແນນຫຼືສູນເສຍເກມ. ການດີ້ນລົນເກີດຂື້ນວ່າທ່ານຄວນໃຊ້ພຽງແຕ່ຫນຶ່ງບັນທຶກ, ເປັນຂໍ້ຄຶດທີ່ເປັນໄປໄດ້ຫນ້ອຍທີ່ສຸດ, ແຕ່ຫຼັງຈາກນັ້ນຄວາມເປັນໄປໄດ້ຂອງເຈົ້າໃນການຄາດເດົາເພງແມ່ນຫຼຸດລົງຢ່າງຮ້າຍແຮງ. ຍິ່ງເຈົ້າໄດ້ຍິນສຽງບັນທຶກຫຼາຍເທົ່າໃດ, ຄວາມເປັນໄປໄດ້ຂອງການເດົາເພງທີ່ຖືກຕ້ອງກໍສູງຂື້ນ, ແຕ່ເຈົ້າຍັງປ່ອຍໃຫ້ຜູ້ເຂົ້າແຂ່ງຂັນຄົນອື່ນໆມີໂອກາດທຳການເດົາໄດ້ສູງເຊັ່ນກັນ.

ຈົ່ງຈື່ໄວ້ວ່າພວກເຮົາຍັງຈັດການກັບແນວຄິດຂອງຄໍາທີ່ກໍານົດທຽບກັບຄໍາສັບຕ່າງໆໃນກໍລະນີຂອງການໂຄນສຽງ. ຖ້າຄົນເຮົາເວົ້າຄຳວ່າ "ເຈົ້າບໍ່ສາມາດຈັດການຄວາມຈິງໄດ້" ແລະພວກເຮົາຕ້ອງການໃຫ້ AI ປອມຕົວ ຫຼືປອມຕົວຄົນນັ້ນ, AI ອາດຈະສາມາດຈັບຕົວແບບຢ່າງໄດ້ຢ່າງງ່າຍດາຍ. ໃນອີກດ້ານຫນຶ່ງ, ສົມມຸດວ່າພວກເຮົາມີພຽງແຕ່ຄໍາເຫຼົ່ານີ້ທີ່ເວົ້າໂດຍຄົນນັ້ນ "ແມ່ນເຈົ້າຕ້ອງຖາມຂ້ອຍ" ແລະພວກເຮົາຕ້ອງການໃຊ້ຄໍາເຫຼົ່ານັ້ນເພື່ອໃຫ້ AI ເວົ້າວ່າ "ທ່ານບໍ່ສາມາດຈັດການກັບຄວາມຈິງໄດ້." ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເຫັນຄວາມຫຍຸ້ງຍາກໃນການຝຶກອົບຮົມໃນຊຸດຂອງຄໍາສັບຕ່າງໆແລະຕ້ອງ extrapolate ກັບຊຸດຄໍາທີ່ແຕກຕ່າງກັນທັງຫມົດ.

ອົງປະກອບທີ່ຫຍຸ້ງຍາກອີກອັນໜຶ່ງປະກອບດ້ວຍບໍລິບົດຂອງຄຳເວົ້າ. ສົມມຸດ​ວ່າ​ເຮົາ​ໃຫ້​ເຈົ້າ​ບັນທຶກ​ສຽງ​ປະໂຫຍກ​ໜຶ່ງ​ຕອນ​ທີ່​ເຈົ້າ​ສະຫງົບ​ແລະ​ສະບາຍ​ໃຈ. AI ເປັນຮູບແບບຂອງຄໍາເຫຼົ່ານັ້ນ. ມັນອາດເປັນຕົວແບບໄປສູ່ຄວາມງຽບສະຫງົບຂອງສຽງຂອງເຈົ້າ. ຈິນຕະນາການວ່າຫຼັງຈາກນັ້ນພວກເຮົາຕ້ອງການ AI ທີ່ຈະທໍາທ່າວ່າມັນແມ່ນທ່ານໃນເວລາທີ່ທ່ານກໍາລັງຮ້ອງດັງແລະໃຈຮ້າຍເປັນ hornet. ການມີ AI ບິດເບືອນຮູບແບບຕົ້ນສະບັບໃຫ້ກາຍເປັນສຽງທີ່ໃຈຮ້າຍຢ່າງຖືກຕ້ອງຂອງສຽງຂອງທ່ານສາມາດເປັນເລື່ອງທີ່ໜ້າຢ້ານກົວ.

ພວກເຮົາເບິ່ງຕໍາ່ສຸດທີ່ປະເພດໃດ?

ເປົ້າຫມາຍໃນປັດຈຸບັນແມ່ນເພື່ອທໍາລາຍເຄື່ອງຫມາຍນາທີ.

ຈັບສຽງທີ່ບັນທຶກໄວ້ທີ່ທ່ານມີສຽງໜ້ອຍກວ່າໜຶ່ງນາທີ ແລະເອົາ AI ເພື່ອເຮັດການໂຄນສຽງທີ່ໜ້າອັດສະຈັນທັງໝົດຈາກຕົວຢ່າງນ້ອຍໆນັ້ນຢ່າງດຽວ. ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງວ່າພຽງແຕ່ກ່ຽວກັບໃຜສາມາດປະກອບ AI ທີ່ສາມາດເຮັດສິ່ງນີ້ໄດ້ ໂດຍທົ່ວໄປ ໃນເວລາໜ້ອຍກວ່າໜຶ່ງນາທີ, ເຖິງແມ່ນວ່າການໂຄນສຽງທີ່ເປັນຜົນອອກມາແມ່ນ wimpy ແລະກວດພົບວ່າບໍ່ຄົບຖ້ວນ. ອີກເທື່ອ ໜຶ່ງ, ຂ້ອຍໄດ້ຜູກມັດກັນຢ່າງຈະແຈ້ງແລະກ້າຫານວ່າເວລາເກັບຕົວຢ່າງແມ່ນຕໍ່າສຸດ. ແລະ ໃນ​ຂະ​ນະ​ດຽວ​ກັນ cloning ສຽງ​ແມ່ນ​ຢູ່​ທີ່​ສູງ​ສຸດ​. dollt ສາມາດບັນລຸການເກັບຕົວຢ່າງຕໍາ່ສຸດທີ່ຖ້າຫາກວ່າພວກເຂົາເຈົ້າຍັງໄດ້ຮັບການອະນຸຍາດໃຫ້ເປັນ submaximal ທັງຫມົດໃນການ cloning ສຽງ.

ນີ້ແມ່ນສິ່ງທ້າທາຍດ້ານເຕັກໂນໂລຢີທີ່ມ່ວນແລະຕື່ນເຕັ້ນ. ທ່ານອາດຈະສົງໄສວ່າກ່ຽວກັບຄຸນຄ່າຫຼືຜົນປະໂຫຍດຂອງການເຮັດສິ່ງນີ້. ເຮົາ​ຊອກ​ຫາ​ຈຸດ​ຈົບ​ອັນ​ໃດ? ຜົນປະໂຫຍດອັນໃດສໍາລັບມະນຸດທີ່ພວກເຮົາສາມາດຄາດຫວັງໂດຍການສາມາດເຮັດການຈໍາລອງສຽງໂດຍອີງໃສ່ AI ໄດ້ຢ່າງມີປະສິດທິພາບແລະປະສິດທິຜົນ?

ຂ້ອຍຕ້ອງການໃຫ້ເຈົ້າຄິດຂ້າມຄຳຖາມທີ່ແຊບໆນັ້ນ.

ຄໍາຕອບທີ່ຜິດພາດສາມາດເຮັດໃຫ້ທ່ານເຂົ້າໄປໃນ pile ຂອງ mush ໂດຍບໍ່ໄດ້ຕັ້ງໃຈ.

ນີ້ແມ່ນບາງສິ່ງບາງຢ່າງທີ່ເບິ່ງຄືວ່າຕື່ນເຕັ້ນແລະໃນທາງບວກທັງຫມົດ.

ສົມມຸດວ່າພວກເຮົາອາດຈະມີບັນທຶກສຽງເກົ່າແກ່ຂອງບຸກຄົນທີ່ມີຊື່ສຽງເຊັ່ນ: Abraham Lincoln ແລະສາມາດນໍາໃຊ້ຕົວຢ່າງສຽງຂີ້ຝຸ່ນເຫຼົ່ານັ້ນສໍາລັບການສ້າງໂຄນສຽງທີ່ອີງໃສ່ AI. ຫຼັງຈາກນັ້ນພວກເຮົາສາມາດໄດ້ຍິນ Lincoln ເວົ້າທີ່ຢູ່ Gettysburg ຄືກັບວ່າພວກເຮົາຢູ່ທີ່ນັ້ນໃນມື້ທີ່ລາວເວົ້າສີ່ຄະແນນແລະຄໍາເວົ້າທີ່ຫນ້າຈົດຈໍາເມື່ອເຈັດປີກ່ອນ. ເປັນບັນທຶກຂ້າງຄຽງ, ແຕ່ຫນ້າເສຍດາຍ, ພວກເຮົາບໍ່ມີການບັນທຶກສຽງຂອງສຽງຂອງ Lincoln (ເຕັກໂນໂລຢີຍັງບໍ່ທັນມີ), ແຕ່ພວກເຮົາມີບັນທຶກສຽງຂອງປະທານາທິບໍດີ Benjamin Harrison (ປະທານາທິບໍດີສະຫະລັດຄົນທໍາອິດທີ່ມີການບັນທຶກສຽງທີ່ເຮັດຈາກ. ) ແລະ​ປະ​ທານ​ປະ​ເທດ​ອື່ນໆ​ຫຼັງ​ຈາກ​ນັ້ນ​.

ຂ້າ​ພະ​ເຈົ້າ​ເຊື່ອ​ວ່າ​ພວກ​ເຮົາ​ທັງ​ຫມົດ​ອາດ​ຈະ​ເຫັນ​ດີ​ສົມ​ເຫດ​ສົມ​ຜົນ​ວ່າ​ການ​ນໍາ​ໃຊ້​ສະ​ເພາະ​ຂອງ cloning ສຽງ​ທີ່​ອີງ​ໃສ່ AI ແມ່ນ​ດີ​ທີ່​ສຸດ​. ໃນຄວາມເປັນຈິງ, ພວກເຮົາອາດຈະຕ້ອງການສິ່ງນີ້ຫຼາຍກວ່າຖ້ານັກສະແດງໃນມື້ນີ້ພະຍາຍາມທໍາທ່າວ່າພວກເຂົາເວົ້າຄືກັບ Lincoln. ນັກສະແດງອາດຈະສົມມຸດວ່າພວກເຂົາຄິດເຖິງສຽງທີ່ແທ້ຈິງຂອງ Lincoln. ມັນອາດຈະເປັນສິ່ງປະດິດ, ບາງທີອາດຈະຢູ່ໄກຈາກສຽງຂອງ Lincoln. ແທນທີ່ຈະ, ໂດຍຜ່ານການນໍາໃຊ້ລະບົບ cloning ສຽງ AI ທີ່ມີຄຸນວຸດທິດີ, ຈະມີການໂຕ້ຖຽງເລັກນ້ອຍກ່ຽວກັບວິທີການສຽງຂອງ Lincoln ຢ່າງແທ້ຈິງ. AI ຈະຖືກຕ້ອງຕາມຄວາມເປັນຈິງ, ຢ່າງຫນ້ອຍໃນຂອບເຂດຂອງ AI ທີ່ດີໃນການຈໍາລອງສຽງທີ່ຖືກເປົ້າຫມາຍ.

ໃນປະເພດຂອງຄວາມດີກ່ຽວກັບການ cloning ສຽງ AI, ພວກເຮົາສາມາດຄະແນນຊະນະກັບປະເພດຂອງການນໍາໃຊ້ນີ້.

ບໍ່ຕ້ອງການຄວາມມືດມົວ, ແຕ່ມີຂໍ້ເສຍຕໍ່ກັບການຊົມໃຊ້ທີ່ເຫັນໄດ້ຊັດເຈນ.

ບາງຄົນໃຊ້ລະບົບໂຄນສຽງ AI ເພື່ອຄົ້ນຫາສຽງຂອງ Theodore Roosevelt (“Teddy”), ສົມບັດຂອງພວກເຮົາ 26th ປະທານປະເທດຂອງສະຫະລັດອາເມລິກາ, ທໍາມະຊາດ, ນັກອະນຸລັກ, ລັດຜູ້ຊາຍ, ນັກຂຽນ, ນັກປະຫວັດສາດ, ແລະເກືອບທົ່ວໂລກໄດ້ຕິດສະຫລາກເປັນບຸກຄົນທີ່ນັບຖື. ຄໍາປາໄສທີ່ລາວໄດ້ໃຫ້ແລະສໍາລັບທີ່ພວກເຮົາບໍ່ມີສະບັບສຽງທີ່ຖືກຮັກສາໄວ້ທາງປະຫວັດສາດໃນປັດຈຸບັນສາມາດຖືກ "ເວົ້າ" ຄືກັບວ່າລາວເອງກໍາລັງເວົ້າໃນມື້ນີ້. ເປັນ​ການ​ຍົກ​ສູງ​ທີ່​ຫນ້າ​ຍົກ​ຍ້ອງ​ສໍາ​ລັບ​ການ​ສຶກ​ສາ​ປະ​ຫວັດ​ສາດ​.

ປ່ອຍໃຫ້ອັນນີ້ຂີ້ຮ້າຍ, ພຽງແຕ່ເພື່ອຈຸດປະສົງຂອງການເປີດເຜີຍຂໍ້ເສຍຂອງມັນ.

ພວກເຮົາໃຊ້ໂຄນສຽງທີ່ໃຊ້ Teddy AI ເພື່ອອ່ານຄຳປາໄສທີ່ຖືກມອບໃຫ້ໂດຍຜູ້ບັງຄັບບັນຊາທີ່ຊົ່ວຮ້າຍ. AI ບໍ່ສົນໃຈສິ່ງທີ່ມັນເວົ້າເພາະວ່າມັນບໍ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກໃນ ​​AI. ຄໍາສັບຕ່າງໆແມ່ນຄໍາທີ່ງ່າຍດາຍ, ຫຼືຫຼາຍຢ່າງຖືກຕ້ອງພຽງແຕ່ puffs ຂອງສຽງ.

ເຈົ້າອາດຈະຮູ້ສຶກຕົກໃຈທີ່ບາງຄົນຈະເຮັດບາງສິ່ງບາງຢ່າງທີ່ມີລັກສະນະບໍ່ມີປະໂຫຍດນີ້. ເປັນຫຍັງສຽງໂຄນທີ່ໃຊ້ AI ຂອງ Theodore Roosevelt ທີ່ມີຊື່ສຽງແລະເຄົາລົບນັບຖືແມ່ນໃຊ້ເພື່ອກ່າວຄໍາປາໄສທີ່ບໍ່ພຽງແຕ່ Teddy ບໍ່ໄດ້ເຮັດໃນຕົ້ນເດີມ, ແຕ່ຍັງເວົ້າໃນຫົວຂໍ້ທີ່ພັນລະນາເຖິງຄວາມຊົ່ວຮ້າຍຂອງສິ່ງທີ່ຫນ້າກຽດຊັງ. dictator?

ຂີ້ຮ້າຍ, ເຈົ້າອາດຈະຮ້ອງອອກມາ.

ເຮັດໄດ້ງ່າຍໆ, ຄຳຕອບມາ.

ໂດຍເນື້ອແທ້ແລ້ວ, ຄວາມກັງວົນທີ່ສໍາຄັນອັນຫນຶ່ງກ່ຽວກັບການຈໍາລອງສຽງທີ່ອີງໃສ່ AI ແມ່ນວ່າພວກເຮົາທັນທີທັນໃດຈະພົບເຫັນຕົວເຮົາເອງເປັນຂີ້ຕົວະຫຼືພວກເຮົາຈະເວົ້າຄໍາເວົ້າແລະຄໍາເວົ້າທີ່ປອມແປງທີ່ບໍ່ມີຫຍັງກ່ຽວຂ້ອງກັບຄວາມຈິງທາງປະຫວັດສາດຫຼືຄວາມຖືກຕ້ອງ. ຖ້າສິ່ງເຫຼົ່ານີ້ຖືກສ້າງ ແລະປະກາດໃຊ້ຢ່າງພຽງພໍ, ພວກເຮົາອາດຈະສັບສົນກ່ຽວກັບສິ່ງທີ່ເປັນຄວາມຈິງກັບສິ່ງທີ່ເປັນນິຍາຍ.

ເຈົ້າສາມາດເຫັນໄດ້ຢ່າງອຸດົມສົມບູນວ່າສິ່ງນີ້ອາດຈະເກີດຂື້ນໄດ້ແນວໃດ. ການນໍາໃຊ້ໂຄນສຽງທີ່ອີງໃສ່ AI, ບາງຄົນເຮັດການບັນທຶກສຽງຂອງ Woodrow Wilson ໂດຍໃຫ້ຄໍາເວົ້າທີ່ລາວບໍ່ເຄີຍເວົ້າແທ້ໆ. ອັນນີ້ຖືກຂຽນລົງໃນອິນເຕີເນັດ. ຄົນອື່ນໄດ້ຍິນສຽງບັນທຶກແລະເຊື່ອວ່າມັນເປັນສິ່ງທີ່ແທ້ຈິງ. ພວກເຂົາເຈົ້າປະກາດມັນຢູ່ບ່ອນອື່ນ, ໂດຍກ່າວວ່າພວກເຂົາພົບເຫັນບັນທຶກປະຫວັດສາດທີ່ຍິ່ງໃຫຍ່ນີ້ຂອງ Woodrow Wilson. ​ບໍ່​ດົນ, ນັກ​ສຶກສາ​ໃນ​ຫ້ອງ​ປະຫວັດສາດ​ໃຊ້​ສຽງ​ແທນ​ການ​ອ່ານ​ບົດ​ຂຽນ​ຂອງ​ຄຳ​ປາ​ໄສ.

ບໍ່ມີໃຜສິ້ນສຸດເຖິງການຮູ້ວ່າຄໍາເວົ້າດັ່ງກ່າວຖືກກ່າວໂດຍ Woodrow Wilson ຫຼືບໍ່. ບາງທີມັນອາດຈະແມ່ນ, ບາງທີມັນອາດຈະບໍ່ແມ່ນ, ແລະທຸກຄົນຄິດວ່າມັນບໍ່ສໍາຄັນໃນທາງໃດກໍ່ຕາມ (ດີ, ທີ່ບໍ່ເນັ້ນໃສ່ຄວາມຖືກຕ້ອງທາງປະຫວັດສາດແລະຄວາມຈິງ). ແນ່ນອນ, ຖ້າຄໍາເວົ້ານັ້ນເປັນເລື່ອງທີ່ຂີ້ຮ້າຍ, ນີ້ເຮັດໃຫ້ການປະທັບໃຈທີ່ບໍ່ຖືກຕ້ອງຫຼືການສະແດງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງຂອງຕົວເລກປະຫວັດສາດນັ້ນ. ປະຫວັດສາດແລະນິຍາຍຖືກລວມເຂົ້າເປັນອັນດຽວກັນ.

ຂ້ອຍເຊື່ອໝັ້ນວ່າເຈົ້າໝັ້ນໃຈວ່ານີ້ແມ່ນຂໍ້ເສຍທີ່ກ່ຽວຂ້ອງກັບການໂຄນສຽງທີ່ອີງໃສ່ AI.

ອີກເທື່ອ ໜຶ່ງ, ພວກເຮົາສາມາດເຮັດສິ່ງເຫຼົ່ານີ້ໄດ້ແລ້ວ, ການເຮັດແບບນັ້ນໂດຍບໍ່ມີການ replicating ສຽງທີ່ອີງໃສ່ AI ໃໝ່ ແລະປັບປຸງ, ແຕ່ມັນຈະງ່າຍຂຶ້ນທີ່ຈະເຮັດສິ່ງນີ້ແລະສຽງທີ່ໄດ້ຮັບຜົນແມ່ນຍາກທີ່ຈະແຍກຄວາມແຕກຕ່າງລະຫວ່າງຈິງແລະປອມ. ໃນປັດຈຸບັນ, ການນໍາໃຊ້ໂຄງການຜະລິດສຽງແບບດັ້ງເດີມ, ໂດຍທົ່ວໄປແລ້ວທ່ານສາມາດຟັງຜົນໄດ້ຮັບແລະມັກຈະຢືນຢັນໄດ້ງ່າຍວ່າສຽງຖືກປອມແປງ. ດ້ວຍຄວາມກ້າວຫນ້າໃນ AI, ທັນທີທີ່ເຈົ້າບໍ່ສາມາດເຊື່ອຫູຂອງເຈົ້າ, ໃນລັກສະນະການເວົ້າ.

ບໍ່ດີເທົ່າທີ່ການ cloning ສຽງຂອງຕົວເລກປະຫວັດສາດອາດຈະເປັນ, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ຄິດໂດຍຜ່ານບາງທີອາດມີການນໍາໃຊ້ທີ່ຂີ້ຮ້າຍໂດຍສະເພາະທີ່ກ່ຽວຂ້ອງກັບປະຊາຊົນດໍາລົງຊີວິດໃນມື້ນີ້.

ທໍາອິດ, ເຈົ້າເຄີຍໄດ້ຍິນເລື່ອງການຫລອກລວງທີ່ມີຄວາມນິຍົມບາງຢ່າງທີ່ກ່ຽວຂ້ອງກັບບາງຄົນທີ່ປອມຕົວເປັນນາຍຈ້າງຫຼືທຽບເທົ່າມັນບໍ? ບາງປີກ່ອນ, ມີການລົບກວນການໂທຫາຮ້ານອາຫານຫຼືຮ້ານຄ້າແລະທໍາທ່າວ່າເປັນນາຍຈ້າງຂອງການສ້າງຕັ້ງ. ການປອມແປງຈະກ່ຽວຂ້ອງກັບການບອກພະນັກງານໃຫ້ເຮັດສິ່ງທີ່ຫນ້າລັງກຽດ, ເຊິ່ງເຂົາເຈົ້າມັກຈະເຮັດຢ່າງເຕັມທີ່ພາຍໃຕ້ຄວາມເຊື່ອທີ່ບໍ່ຖືກຕ້ອງວ່າພວກເຂົາເວົ້າກັບນາຍຈ້າງຂອງພວກເຂົາ.

ຂ້ອຍບໍ່ຕ້ອງການທີ່ຈະຕິດຢູ່ໃນການກະທຳຜິດອັນໂຫດຮ້າຍອັນໂຫດຮ້າຍເຫຼົ່ານີ້, ແຕ່ອີກອັນໜຶ່ງທີ່ກ່ຽວພັນກັນປະກອບດ້ວຍການໂທຫາບາງຄົນທີ່ຟັງຍາກ ແລະ ອ້າງວ່າເປັນຫລານຊາຍ ຫຼື ຫລານສາວຂອງເຂົາເຈົ້າ. ຜູ້ປອມຕົວພະຍາຍາມໂນ້ມນ້າວພໍ່ຕູ້ໃຫ້ຫາເງິນຊ່ວຍເຫຼືອ ຫຼືອາດຈະຊ່ວຍເຂົາເຈົ້າໃນບາງຮູບແບບ. ອີງ​ຕາມ​ສຽງ​ປອມ​ຕົວ, ພໍ່​ເຖົ້າ​ແມ່​ຕູ້​ຖືກ​ຫຼອກ​ລວງ​ໃຫ້​ເຮັດ​ເຊັ່ນ​ນັ້ນ. ໜ້າລັງກຽດ. ໜ້າກຽດ. ໂສກເສົ້າ.

ພວກເຮົາ ກຳ ລັງຈະເຂົ້າສູ່ຍຸກທີ່ການໂຄນສຽງທີ່ອີງໃສ່ AI ຈະເປີດໃຊ້ຢາສະເຕີຣອຍ, ຖ້າທ່ານເປັນ, ການມາເຖິງຂອງການຫລອກລວງທີ່ກ່ຽວຂ້ອງກັບສຽງແລະ swindles. AI ຈະເຮັດວຽກທີ່ໂດດເດັ່ນຂອງການຈໍາລອງສຽງທີ່ຜູ້ທີ່ໄດ້ຍິນສຽງຈະສາບານໃນຄໍາສາບານຂອງພວກເຂົາວ່າຄົນທີ່ແທ້ຈິງແມ່ນຜູ້ທີ່ເຮັດການເວົ້າ.

ມັນອາດຈະໄປໄກປານໃດ?

ບາງຄົນມີຄວາມກັງວົນວ່າການປ່ອຍອາວຸດປະລໍາມະນູແລະການໂຈມຕີທາງທະຫານອາດຈະເກີດຂື້ນໂດຍບາງຄົນທີ່ໃຊ້ໂຄນສຽງທີ່ໃຊ້ AI ທີ່ຫຼອກລວງໃຫ້ຄົນອື່ນເຊື່ອວ່າເຈົ້າຫນ້າທີ່ທະຫານລະດັບສູງສຸດກໍາລັງອອກຄໍາສັ່ງໂດຍກົງ. ສິ່ງດຽວກັນສາມາດເວົ້າໄດ້ກ່ຽວກັບຜູ້ໃດຢູ່ໃນຕໍາແຫນ່ງທີ່ໂດດເດັ່ນ. ໃຊ້ໂຄນສຽງ AI ທີ່ຖືກຕ້ອງສູງເພື່ອໃຫ້ຜູ້ບໍລິຫານທະນາຄານປ່ອຍເງິນຫຼາຍລ້ານໂດລາ, ເຮັດແນວນັ້ນໂດຍອີງໃສ່ການຫຼອກລວງທີ່ເຊື່ອວ່າພວກເຂົາເວົ້າກັບລູກຄ້າທະນາຄານຢູ່ໃນມື.

ໃນຊຸມປີມໍ່ໆມານີ້, ການດໍາເນີນການນີ້ກັບ AI ຈະບໍ່ມີຄວາມຈໍາເປັນທີ່ຫນ້າເຊື່ອຖື. ເວລາທີ່ມະນຸດຢູ່ອີກດ້ານໜຶ່ງຂອງໂທລະສັບເລີ່ມຖາມຄຳຖາມ, AI ຈະຕ້ອງອອກຈາກສະຄຣິບທີ່ກຽມໄວ້. ໃນຊ່ວງເວລານັ້ນ, ການໂຄນສຽງຈະຊຸດໂຊມລົງ, ບາງຄັ້ງກໍ່ເປັນແບບຢ່າງ. ວິທີດຽວທີ່ຈະຮັກສາ swindle ໄປແມ່ນການບັງຄັບການສົນທະນາກັບຄືນໄປບ່ອນຢູ່ໃນສະຄິບ.

ດ້ວຍປະເພດຂອງ AI ທີ່ພວກເຮົາມີໃນມື້ນີ້, ລວມທັງຄວາມກ້າວຫນ້າໃນການປຸງແຕ່ງພາສາທໍາມະຊາດ (NLP), ທ່ານສາມາດປິດສະຄິບແລະອາດຈະເຮັດໃຫ້ໂຄນສຽງ AI ເບິ່ງຄືວ່າຈະເວົ້າໃນການສົນທະນາທໍາມະຊາດ (ນີ້ບໍ່ແມ່ນກໍລະນີ, ແລະຍັງມີວິທີທີ່ຈະໄປເຖິງ AI).

ກ່ອນທີ່ຈະເຂົ້າໄປໃນບາງຊີ້ນແລະມັນຕົ້ນເພີ່ມເຕີມກ່ຽວກັບການພິຈາລະນາຂອງທໍາມະຊາດແລະຂົນສັດທີ່ຕິດພັນກັບການ cloning ສຽງໂດຍອີງໃສ່ AI, ໃຫ້ພວກເຮົາສ້າງບາງພື້ນຖານເພີ່ມເຕີມກ່ຽວກັບຫົວຂໍ້ທີ່ສໍາຄັນຢ່າງເລິກເຊິ່ງ. ພວກເຮົາຈໍາເປັນຕ້ອງໃຊ້ເວລາສັ້ນໆເຂົ້າໄປໃນຈັນຍາບັນ AI ແລະໂດຍສະເພາະແມ່ນການມາຮອດຂອງ Machine Learning (ML) ແລະ Deep Learning (DL).

ທ່ານອາດຈະຮູ້ຢ່າງຈະແຈ້ງວ່າສຽງດັງທີ່ສຸດໃນປະຈຸບັນນີ້ຢູ່ໃນພາກສະຫນາມ AI ແລະເຖິງແມ່ນວ່າຢູ່ນອກພາກສະຫນາມຂອງ AI ປະກອບດ້ວຍການຮ້ອງອອກມາສໍາລັບລັກສະນະທີ່ໃຫຍ່ກວ່າຂອງ AI ດ້ານຈັນຍາບັນ. ລອງພິຈາລະນາເບິ່ງວ່າມັນຫມາຍຄວາມວ່າແນວໃດກັບຈັນຍາບັນ AI ແລະຈັນຍາບັນ AI. ນອກຈາກນັ້ນ, ພວກເຮົາຈະຄົ້ນຫາສິ່ງທີ່ຂ້ອຍຫມາຍເຖິງເມື່ອຂ້ອຍເວົ້າກ່ຽວກັບ Machine Learning ແລະ Deep Learning.

ພາກສ່ວນຫນຶ່ງໂດຍສະເພາະຫຼືບາງສ່ວນຂອງຈັນຍາບັນ AI ທີ່ໄດ້ຮັບຄວາມສົນໃຈຈາກສື່ມວນຊົນຫຼາຍແມ່ນປະກອບດ້ວຍ AI ທີ່ສະແດງໃຫ້ເຫັນຄວາມບໍ່ສະເຫມີພາບແລະຄວາມບໍ່ສະເຫມີພາບ. ເຈົ້າອາດຈະຮູ້ວ່າເມື່ອຍຸກຫຼ້າສຸດຂອງ AI ກ້າວໄປສູ່ຄວາມກະຕືລືລົ້ນຢ່າງໃຫຍ່ຫຼວງສໍາລັບສິ່ງທີ່ບາງຄົນເອີ້ນວ່າໃນປັດຈຸບັນ. AI ສໍາລັບທີ່ດີ. ແຕ່ຫນ້າເສຍດາຍ, ໃນ heels ຂອງຄວາມຕື່ນເຕັ້ນທີ່ gushing ນັ້ນ, ພວກເຮົາໄດ້ເລີ່ມຕົ້ນເປັນພະຍານ AI ສໍາລັບບໍ່ດີ. ຕົວຢ່າງເຊັ່ນ, ລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ອີງໃສ່ AI ຕ່າງໆໄດ້ຖືກເປີດເຜີຍວ່າປະກອບດ້ວຍຄວາມລໍາອຽງທາງເຊື້ອຊາດແລະຄວາມລໍາອຽງທາງເພດ, ເຊິ່ງຂ້າພະເຈົ້າໄດ້ສົນທະນາຢູ່. ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຄວາມພະຍາຍາມເພື່ອຕໍ່ສູ້ກັບຄືນ AI ສໍາລັບບໍ່ດີ ກໍາລັງດໍາເນີນຢ່າງຫ້າວຫັນ. ນອກ​ຈາກ vociferous​ ທາງດ້ານກົດຫມາຍ ການ​ສະ​ແຫວ​ງຫາ​ການ​ຍຶດໝັ້ນ​ໃນ​ການ​ກະທຳ​ຜິດ, ຍັງ​ມີ​ການ​ຊຸກຍູ້​ອັນ​ສຳຄັນ​ໄປ​ສູ່​ການ​ຖື​ສິນ​ທຳ AI ​ເພື່ອ​ແກ້​ໄຂ​ຄວາມ​ຊົ່ວ​ຮ້າຍ​ຂອງ AI. ແນວຄວາມຄິດແມ່ນວ່າພວກເຮົາຄວນຈະຮັບຮອງເອົາແລະຮັບຮອງຫຼັກການ AI ດ້ານຈັນຍາບັນທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະພາກສະຫນາມຂອງ AI ເຮັດແນວນັ້ນເພື່ອຫຼຸດຜ່ອນການ. AI ສໍາລັບບໍ່ດີ ພ້ອມ​ກັນ​ນັ້ນ ​ໄດ້​ປະກາດ ​ແລະ ສົ່ງ​ເສີມ​ຄວາມ​ນິຍົມ AI ສໍາລັບທີ່ດີ.

ກ່ຽວກັບແນວຄິດທີ່ກ່ຽວຂ້ອງ, ຂ້າພະເຈົ້າເປັນຜູ້ສະຫນັບສະຫນູນຂອງຄວາມພະຍາຍາມທີ່ຈະໃຊ້ AI ເປັນສ່ວນຫນຶ່ງຂອງການແກ້ໄຂບັນຫາ AI, ຕໍ່ສູ້ກັບໄຟດ້ວຍໄຟໃນລັກສະນະທີ່ຄິດ. ສໍາລັບຕົວຢ່າງ, ພວກເຮົາອາດຈະຝັງອົງປະກອບ AI ດ້ານຈັນຍາບັນເຂົ້າໄປໃນລະບົບ AI ທີ່ຈະກວດສອບວ່າສ່ວນທີ່ເຫຼືອຂອງ AI ກໍາລັງເຮັດຫຍັງແລະດັ່ງນັ້ນຈຶ່ງສາມາດຈັບໄດ້ໃນເວລາທີ່ແທ້ຈິງຄວາມພະຍາຍາມຈໍາແນກໃດໆ, ເບິ່ງການສົນທະນາຂອງຂ້ອຍທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້. ພວກເຮົາຍັງສາມາດມີລະບົບ AI ແຍກຕ່າງຫາກທີ່ເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ AI Ethics monitor. ລະບົບ AI ເຮັດຫນ້າທີ່ເປັນຜູ້ເບິ່ງແຍງເພື່ອຕິດຕາມແລະກວດພົບວ່າ AI ອື່ນກໍາລັງເຂົ້າໄປໃນເຫວເລິກທີ່ບໍ່ມີຈັນຍາບັນ (ເບິ່ງການວິເຄາະຂອງຂ້ອຍກ່ຽວກັບຄວາມສາມາດດັ່ງກ່າວຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ໃນເວລານີ້, ຂ້ອຍຈະແບ່ງປັນຫຼັກການພື້ນຖານກ່ຽວກັບຈັນຍາບັນຂອງ AI ໃຫ້ກັບເຈົ້າ. ມີຫຼາຍຊະນິດຂອງລາຍຊື່ທີ່ລອຍຢູ່ອ້ອມຮອບນີ້ ແລະບ່ອນນັ້ນ. ເຈົ້າສາມາດເວົ້າໄດ້ວ່າຍັງບໍ່ທັນມີບັນຊີລາຍຊື່ທີ່ເປັນເອກກະພາບຂອງການອຸທອນ ແລະ ເອກະພາບກັນ. ນັ້ນແມ່ນຂ່າວທີ່ໂຊກບໍ່ດີ. ຂ່າວດີແມ່ນວ່າຢ່າງຫນ້ອຍມີບັນຊີລາຍຊື່ຈັນຍາບັນ AI ທີ່ມີຢູ່ພ້ອມແລ້ວແລະພວກມັນມັກຈະຄ້າຍຄືກັນ. ທັງຫມົດທີ່ບອກ, ນີ້ຊີ້ໃຫ້ເຫັນວ່າໂດຍຮູບແບບຂອງການລວມກັນທີ່ສົມເຫດສົມຜົນຂອງການຈັດລຽງທີ່ພວກເຮົາກໍາລັງຊອກຫາວິທີການຂອງພວກເຮົາໄປສູ່ຄວາມທໍາມະດາທົ່ວໄປຂອງສິ່ງທີ່ AI ຈັນຍາບັນປະກອບດ້ວຍ.

ກ່ອນອື່ນ, ໃຫ້ພວກເຮົາກວມເອົາບາງຂໍ້ສັ້ນໆກ່ຽວກັບຈັນຍາບັນຂອງ AI ໂດຍລວມເພື່ອສະແດງໃຫ້ເຫັນເຖິງສິ່ງທີ່ຄວນຈະເປັນການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບທຸກຄົນທີ່ເຮັດເຄື່ອງຫັດຖະກໍາ, ພາກສະຫນາມ, ຫຼືການນໍາໃຊ້ AI.

ສໍາລັບການຍົກຕົວຢ່າງ, ດັ່ງທີ່ໄດ້ກ່າວໂດຍ Vatican ໃນ Rome ຮຽກຮ້ອງຈັນຍາບັນ AI ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ເຫຼົ່ານີ້ແມ່ນຫຼັກການພື້ນຖານດ້ານຈັນຍາບັນ AI ຫົກຂໍ້ທີ່ໄດ້ລະບຸໄວ້ຂອງເຂົາເຈົ້າ:

  • ຄວາມສະຫວ່າງ: ໃນຫຼັກການ, ລະບົບ AI ຕ້ອງໄດ້ຮັບການອະທິບາຍ
  • ລວມ: ຄວາມຕ້ອງການຂອງມະນຸດທັງຫມົດຕ້ອງໄດ້ຮັບການພິຈາລະນາເພື່ອໃຫ້ທຸກຄົນໄດ້ຮັບຜົນປະໂຫຍດ, ແລະບຸກຄົນທັງຫມົດສາມາດໄດ້ຮັບການສະເຫນີເງື່ອນໄຂທີ່ດີທີ່ສຸດເພື່ອສະແດງອອກແລະພັດທະນາ.
  • ຄວາມຮັບຜິດຊອບ: ຜູ້ທີ່ອອກແບບ ແລະ ນຳໃຊ້ AI ຕ້ອງດຳເນີນໄປດ້ວຍຄວາມຮັບຜິດຊອບ ແລະ ຄວາມໂປ່ງໃສ
  • ບໍ່ ລຳ ອຽງ: ຫ້າມ​ສ້າງ​ຫຼື​ກະທຳ​ຕາມ​ຄວາມ​ລຳອຽງ, ​ເປັນ​ການ​ປົກ​ປ້ອງ​ຄວາມ​ຍຸຕິ​ທຳ ​ແລະ ກຽດ​ສັກ​ສີ​ຂອງ​ມະນຸດ
  • ຄວາມຫນ້າເຊື່ອຖື: ລະບົບ AI ຈະຕ້ອງສາມາດເຮັດວຽກໄດ້ຢ່າງຫນ້າເຊື່ອຖື
  • ຄວາມ​ປອດ​ໄພ​ແລະ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​: ລະບົບ AI ຕ້ອງເຮັດວຽກຢ່າງປອດໄພແລະເຄົາລົບຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້.

ດັ່ງທີ່ໄດ້ກ່າວໂດຍກະຊວງປ້ອງກັນປະເທດສະຫະລັດ (DoD) ໃນຂອງພວກເຂົາ ຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ ແລະດັ່ງທີ່ຂ້າພະເຈົ້າໄດ້ກວມເອົາໃນຄວາມເລິກຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ນີ້ແມ່ນຫົກຫຼັກການຫຼັກຈັນຍາບັນ AI ຂອງພວກເຂົາ:

  • ຮັບຜິດຊອບ: ບຸກຄະລາກອນ DoD ຈະໃຊ້ລະດັບການຕັດສິນ ແລະການດູແລທີ່ເໝາະສົມ ໃນຂະນະທີ່ຍັງຮັບຜິດຊອບຕໍ່ການພັດທະນາ, ການນຳໃຊ້ ແລະການນຳໃຊ້ຄວາມສາມາດຂອງ AI.
  • ສະເໝີພາບ: ພະແນກຈະດໍາເນີນຂັ້ນຕອນໂດຍເຈດຕະນາເພື່ອຫຼຸດຜ່ອນຄວາມລໍາອຽງທີ່ບໍ່ໄດ້ຕັ້ງໃຈໃນຄວາມສາມາດ AI.
  • ສາມາດຕິດຕາມໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະຖືກພັດທະນາແລະນໍາໃຊ້ເພື່ອໃຫ້ບຸກຄະລາກອນທີ່ກ່ຽວຂ້ອງມີຄວາມເຂົ້າໃຈທີ່ເຫມາະສົມກ່ຽວກັບເຕັກໂນໂລຢີ, ຂະບວນການພັດທະນາ, ແລະວິທີການປະຕິບັດງານທີ່ໃຊ້ກັບຄວາມສາມາດຂອງ AI, ລວມທັງວິທີການທີ່ໂປ່ງໃສແລະສາມາດກວດສອບໄດ້, ແຫຼ່ງຂໍ້ມູນ, ແລະຂັ້ນຕອນການອອກແບບແລະເອກະສານ.
  • ທີ່ເຊື່ອຖືໄດ້: ຄວາມສາມາດຂອງ AI ຂອງພະແນກຈະມີການນໍາໃຊ້ທີ່ຊັດເຈນ, ຖືກກໍານົດໄວ້ດີ, ແລະຄວາມປອດໄພ, ຄວາມປອດໄພ, ແລະປະສິດທິພາບຂອງຄວາມສາມາດດັ່ງກ່າວຈະຂຶ້ນກັບການທົດສອບແລະການຮັບປະກັນພາຍໃນການນໍາໃຊ້ທີ່ກໍານົດໄວ້ໃນທົ່ວວົງຈອນຊີວິດຂອງເຂົາເຈົ້າທັງຫມົດ.
  • ປົກຄອງ: ພະແນກຈະອອກແບບແລະວິສະວະກອນຄວາມສາມາດຂອງ AI ເພື່ອປະຕິບັດຫນ້າທີ່ຕັ້ງໃຈຂອງເຂົາເຈົ້າໃນຂະນະທີ່ມີຄວາມສາມາດໃນການກວດພົບແລະຫຼີກເວັ້ນຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ແລະຄວາມສາມາດໃນການຍົກເລີກຫຼືປິດການໃຊ້ງານລະບົບທີ່ສະແດງໃຫ້ເຫັນເຖິງພຶດຕິກໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ.

ຂ້າພະເຈົ້າຍັງໄດ້ປຶກສາຫາລືກ່ຽວກັບການວິເຄາະລວມຕ່າງໆກ່ຽວກັບຫຼັກຈັນຍາບັນຂອງ AI, ລວມທັງໄດ້ກວມເອົາຊຸດທີ່ສ້າງຂຶ້ນໂດຍນັກຄົ້ນຄວ້າທີ່ໄດ້ກວດກາແລະ condensed ຄວາມສໍາຄັນຂອງຫຼັກຈັນຍາບັນ AI ລະດັບຊາດແລະສາກົນຈໍານວນຫລາຍໃນເອກະສານທີ່ມີຫົວຂໍ້ "ພູມສັນຖານທົ່ວໂລກຂອງຄໍາແນະນໍາດ້ານຈັນຍາບັນ AI" (ຈັດພີມມາ. ໃນ ລັກສະນະ), ແລະວ່າການຄຸ້ມຄອງຂອງຂ້ອຍຂຸດຄົ້ນຢູ່ ການເຊື່ອມຕໍ່ທີ່ນີ້, ຊຶ່ງນໍາໄປສູ່ບັນຊີລາຍຊື່ສໍາຄັນນີ້:

  • ຄວາມ​ໂປ່ງ​ໃສ
  • ຄວາມຍຸຕິທຳ & ຄວາມຍຸດຕິທຳ
  • ຄວາມບໍ່ເປັນອັນຕະລາຍ
  • ຄວາມຮັບຜິດຊອບ
  • ຄວາມເປັນສ່ວນຕົວ
  • ຜົນປະໂຫຍດ
  • ເສລີພາບ & ການປົກຄອງຕົນເອງ
  • ຄວາມໄວ້ວາງໃຈ
  • ຄວາມຍືນຍົງ
  • ກຽດຕິຍົດ
  • ຄວາມສົມດຸນ

ດັ່ງທີ່ເຈົ້າອາດຈະເດົາໄດ້ໂດຍກົງ, ການພະຍາຍາມປັກໝຸດສະເພາະກ່ຽວກັບຫຼັກການເຫຼົ່ານີ້ສາມາດເຮັດໄດ້ຍາກທີ່ສຸດ. ຍິ່ງໄປກວ່ານັ້ນ, ຄວາມພະຍາຍາມທີ່ຈະປ່ຽນຫຼັກການອັນກວ້າງໃຫຍ່ເຫຼົ່ານັ້ນໃຫ້ກາຍເປັນສິ່ງທີ່ເຫັນໄດ້ຊັດເຈນ ແລະ ລະອຽດພໍທີ່ຈະໃຊ້ໃນເວລາທີ່ການສ້າງລະບົບ AI ຍັງເປັນໝາກໄມ້ທີ່ຫຍຸ້ງຍາກທີ່ຈະແຕກ. ມັນເປັນເລື່ອງງ່າຍທີ່ຈະເຮັດໂດຍລວມກ່ຽວກັບສິ່ງທີ່ AI Ethics precepts ແລະວິທີການທີ່ເຂົາເຈົ້າຄວນຈະໄດ້ຮັບການສັງເກດເຫັນໂດຍທົ່ວໄປ, ໃນຂະນະທີ່ມັນເປັນສະຖານະການທີ່ສັບສົນຫຼາຍໃນ AI coding ຈະຕ້ອງເປັນຢາງທີ່ແທ້ຈິງທີ່ຕອບສະຫນອງຖະຫນົນຫົນທາງ.

ຫຼັກການດ້ານຈັນຍາບັນຂອງ AI ຈະຖືກ ນຳ ໃຊ້ໂດຍຜູ້ພັດທະນາ AI, ພ້ອມກັບຜູ້ທີ່ຄຸ້ມຄອງຄວາມພະຍາຍາມໃນການພັດທະນາ AI, ແລະແມ່ນແຕ່ສິ່ງທີ່ສຸດທ້າຍໄດ້ປະຕິບັດແລະຮັກສາລະບົບ AI. ພາກສ່ວນກ່ຽວຂ້ອງທັງໝົດຕະຫຼອດວົງຈອນຊີວິດ AI ຂອງການພັດທະນາ ແລະການນຳໃຊ້ທັງໝົດແມ່ນພິຈາລະນາຢູ່ໃນຂອບເຂດຂອງການປະຕິບັດຕາມມາດຕະຖານທີ່ສ້າງຂຶ້ນຂອງ AI ດ້ານຈັນຍາບັນ. ນີ້ແມ່ນຈຸດເດັ່ນທີ່ສໍາຄັນນັບຕັ້ງແຕ່ສົມມຸດຕິຖານປົກກະຕິແມ່ນວ່າ "ພຽງແຕ່ coders" ຫຼືຜູ້ທີ່ດໍາເນີນໂຄງການ AI ແມ່ນຂຶ້ນກັບການປະຕິບັດຕາມແນວຄິດຂອງຈັນຍາບັນ AI. ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ມັນໃຊ້ເວລາຫນຶ່ງບ້ານເພື່ອວາງແຜນແລະພາກສະຫນາມ AI, ແລະສໍາລັບບ້ານທັງຫມົດຕ້ອງໄດ້ຮັບການ versed ໃນແລະປະຕິບັດຕາມກົດລະບຽບຈັນຍາບັນຂອງ AI.

ໃຫ້ແນ່ໃຈວ່າພວກເຮົາຢູ່ໃນຫນ້າດຽວກັນກ່ຽວກັບລັກສະນະຂອງ AI ໃນມື້ນີ້.

ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີຄວາມຮູ້ສຶກ. ພວກເຮົາບໍ່ມີອັນນີ້. ພວກເຮົາບໍ່ຮູ້ວ່າ AI sentient ຈະເປັນໄປໄດ້ຫຼືບໍ່. ບໍ່ມີໃຜສາມາດຄາດເດົາໄດ້ຢ່າງຖືກຕ້ອງວ່າພວກເຮົາຈະບັນລຸ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກຈະເກີດຂື້ນຢ່າງມະຫັດສະຈັນໂດຍທໍາມະຊາດໃນຮູບແບບຂອງ supernova ທາງດ້ານສະຕິປັນຍາຄອມພິວເຕີ້ (ໂດຍປົກກະຕິເອີ້ນວ່າເປັນຄໍາດຽວ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້).

ປະເພດຂອງ AI ທີ່ຂ້ອຍກໍາລັງສຸມໃສ່ປະກອບດ້ວຍ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກທີ່ພວກເຮົາມີໃນມື້ນີ້. ຖ້າ ຫາກ ວ່າ ພວກ ເຮົາ ຕ້ອງ ການ ຢາກ wildly ຄາດ ຄະ ເນ ກ່ຽວ ກັບ ຄົນທີ່ມີຄວາມຮູ້ສຶກ AI, ການສົນທະນານີ້ສາມາດໄປໃນທິດທາງທີ່ແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍ. AI ທີ່ມີຄວາມຮູ້ສຶກທີ່ສົມມຸດວ່າຈະເປັນຄຸນນະພາບຂອງມະນຸດ. ທ່ານ ຈຳ ເປັນຕ້ອງພິຈາລະນາວ່າ AI ທີ່ມີຄວາມຮູ້ສຶກແມ່ນມັນສະ ໝອງ ທຽບເທົ່າກັບມະນຸດ. ຫຼາຍກວ່ານັ້ນ, ເນື່ອງຈາກບາງການຄາດເດົາວ່າພວກເຮົາອາດມີ AI ອັດສະລິຍະສູງ, ມັນເປັນໄປໄດ້ວ່າ AI ດັ່ງກ່າວອາດຈະສະຫຼາດກວ່າມະນຸດ.

ຂໍໃຫ້ເຮົາເກັບສິ່ງຕ່າງໆລົງມາສູ່ໂລກ ແລະພິຈາລະນາ AI ທີ່ບໍ່ມີຄວາມຮູ້ສຶກໃນຄຳນວນຂອງມື້ນີ້.

ຮັບ​ຮູ້​ວ່າ AI ໃນ​ທຸກ​ມື້​ນີ້​ບໍ່​ສາ​ມາດ “ຄິດ” ໃນ​ແບບ​ໃດ​ກໍ​ຕາມ​ເທົ່າ​ກັບ​ການ​ຄິດ​ຂອງ​ມະ​ນຸດ. ໃນເວລາທີ່ທ່ານພົວພັນກັບ Alexa ຫຼື Siri, ຄວາມສາມາດໃນການສົນທະນາອາດຈະເບິ່ງຄືວ່າຄ້າຍຄືກັບຄວາມສາມາດຂອງມະນຸດ, ແຕ່ຄວາມຈິງແລ້ວມັນແມ່ນການຄິດໄລ່ແລະຂາດສະຕິປັນຍາຂອງມະນຸດ. ຍຸກຫຼ້າສຸດຂອງ AI ໄດ້ນຳໃຊ້ຢ່າງກ້ວາງຂວາງຂອງ Machine Learning (ML) ແລະ Deep Learning (DL), ເຊິ່ງນຳໃຊ້ການຈັບຄູ່ຮູບແບບການຄຳນວນ. ນີ້ໄດ້ນໍາໄປສູ່ລະບົບ AI ທີ່ມີລັກສະນະຂອງ proclivities ຄ້າຍຄືມະນຸດ. ໃນຂະນະດຽວກັນ, ບໍ່ມີ AI ໃດໆໃນມື້ນີ້ທີ່ມີລັກສະນະຂອງຄວາມຮູ້ສຶກທົ່ວໄປແລະບໍ່ມີຄວາມປະຫລາດໃຈທາງດ້ານສະຕິປັນຍາຂອງຄວາມຄິດຂອງມະນຸດທີ່ເຂັ້ມແຂງ.

ML/DL ແມ່ນຮູບແບບການຈັບຄູ່ຮູບແບບການຄິດໄລ່. ວິທີການປົກກະຕິແມ່ນວ່າທ່ານລວບລວມຂໍ້ມູນກ່ຽວກັບວຽກງານການຕັດສິນໃຈ. ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໄປໃນຕົວແບບຄອມພິວເຕີ ML/DL. ແບບຈໍາລອງເຫຼົ່ານັ້ນຊອກຫາຮູບແບບທາງຄະນິດສາດ. ຫຼັງຈາກຊອກຫາຮູບແບບດັ່ງກ່າວ, ຖ້າພົບແລ້ວ, ລະບົບ AI ຈະໃຊ້ຮູບແບບເຫຼົ່ານັ້ນເມື່ອພົບກັບຂໍ້ມູນໃຫມ່. ຫຼັງຈາກການນໍາສະເຫນີຂໍ້ມູນໃຫມ່, ຮູບແບບທີ່ອີງໃສ່ "ເກົ່າ" ຫຼືຂໍ້ມູນປະຫວັດສາດຖືກນໍາໃຊ້ເພື່ອສະແດງການຕັດສິນໃຈໃນປະຈຸບັນ.

ຂ້ອຍຄິດວ່າເຈົ້າສາມາດເດົາໄດ້ວ່ານີ້ໄປໃສ. ຖ້າມະນຸດທີ່ເຮັດຕາມແບບຢ່າງໃນການຕັດສິນໃຈນັ້ນໄດ້ລວມເອົາຄວາມລຳອຽງທີ່ບໍ່ເຂົ້າກັບຄວາມລຳອຽງ, ຄວາມຜິດຫວັງແມ່ນວ່າຂໍ້ມູນສະທ້ອນເຖິງເລື່ອງນີ້ໃນທາງທີ່ລະອຽດອ່ອນ ແຕ່ມີຄວາມສຳຄັນ. ການຈັບຄູ່ຮູບແບບການຄິດໄລ່ຂອງເຄື່ອງຈັກ ຫຼືການຮຽນຮູ້ເລິກເລິກພຽງແຕ່ຈະພະຍາຍາມເຮັດແບບເລກຄະນິດສາດຕາມຄວາມເໝາະສົມ. ບໍ່ມີຄວາມຮູ້ສຶກທົ່ວໄປຫຼືລັກສະນະຄວາມຮູ້ສຶກອື່ນໆຂອງການສ້າງແບບຈໍາລອງທີ່ເຮັດດ້ວຍ AI ຕໍ່ຄົນ.

ຍິ່ງໄປກວ່ານັ້ນ, ນັກພັດທະນາ AI ອາດຈະບໍ່ຮັບຮູ້ສິ່ງທີ່ ກຳ ລັງເກີດຂື້ນ. ຄະນິດສາດ Arcane ໃນ ML/DL ອາດຈະເຮັດໃຫ້ມັນຍາກທີ່ຈະ ferret ອອກຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ໃນປັດຈຸບັນ. ເຈົ້າຈະຫວັງຢ່າງຖືກຕ້ອງແລະຄາດຫວັງວ່າຜູ້ພັດທະນາ AI ຈະທົດສອບຄວາມລໍາອຽງທີ່ອາດຈະຖືກຝັງໄວ້, ເຖິງແມ່ນວ່ານີ້ແມ່ນ trickier ກວ່າທີ່ມັນອາດຈະເບິ່ງຄືວ່າ. ໂອກາດອັນແຂງແກ່ນມີຢູ່ວ່າເຖິງແມ່ນວ່າຈະມີການທົດສອບຢ່າງກວ້າງຂວາງວ່າຈະມີອະຄະຕິທີ່ຍັງຝັງຢູ່ໃນຮູບແບບການຈັບຄູ່ຮູບແບບຂອງ ML/DL.

ທ່ານສາມາດນໍາໃຊ້ຄໍາສຸພາສິດທີ່ມີຊື່ສຽງຫຼືບໍ່ມີຊື່ສຽງຂອງຂີ້ເຫຍື້ອໃນຂີ້ເຫຍື້ອ. ສິ່ງທີ່ເປັນ, ນີ້ແມ່ນຄ້າຍຄືກັນກັບຄວາມລໍາອຽງໃນ insidiously ໄດ້ຮັບ infused ເປັນຄວາມລໍາອຽງ submerged ພາຍໃນ AI ໄດ້. ການຕັດສິນໃຈຂອງສູດການຄິດໄລ່ (ADM) ຂອງ AI axiomatically ກາຍເປັນບັນຫາທີ່ບໍ່ສະເຫມີພາບ.

ບໍ່​ດີ.

ໃຫ້ກັບຄືນໄປຫາຈຸດສຸມຂອງພວກເຮົາກ່ຽວກັບການ cloning ສຽງໂດຍອີງໃສ່ AI.

ໃນກອງປະຊຸມທີ່ຜ່ານມາ, ການນໍາສະເຫນີໂດຍ Amazon ມີຈຸດປະສົງເພື່ອສະແດງໃຫ້ເຫັນເຖິງຈຸດສູງສຸດທີ່ຕ້ອງການຂອງການໂຄນສຽງທີ່ໃຊ້ AI ແລະຊີ້ໃຫ້ເຫັນ AI ຊັ້ນນໍາຫລ້າສຸດທີ່ຖືກນໍາໃຊ້ໃນ Alexa ສໍາລັບຄວາມກ້າວຫນ້າຂອງຄວາມສາມາດຂອງຕົນ. ອີງ​ຕາມ​ການ​ລາຍ​ງານ​ຂ່າວ, ຕົວ​ຢ່າງ​ທີ່​ໄດ້​ກະ​ກຽມ​ທີ່​ຄວນ​ຈະ​ເຮັດ​ໃຫ້​ໃຈ​ແລະ upbeat ໄດ້​ປະ​ກອບ​ດ້ວຍ​ການ​ມີ​ເດັກ​ນ້ອຍ​ຂໍ Alexa ໃຫ້​ແມ່​ຕູ້​ຂອງ​ເຂົາ​ເຈົ້າ​ສໍາ​ເລັດ​ການ​ອ່ານ​ເລື່ອງ​ຂອງ. Wizard Of Oz. ຜູ້​ຟັງ​ໄດ້​ຮັບ​ການ​ບອກ​ເລົ່າ​ວ່າ​ແມ່​ຕູ້​ໄດ້​ເຖິງ​ແກ່​ມໍລະນະ​ກຳ​ແລ້ວ ​ແລະ ນີ້​ແມ່ນ​ວິທີ​ເພື່ອ​ໃຫ້​ລູກ​ໄດ້​ເຊື່ອມ​ຕໍ່​ກັບ​ພໍ່​ຕູ້​ທີ່​ຮັກ​ແພງ​ຂອງ​ຕົນ. ທັງໝົດນີ້ແມ່ນເປັນສ່ວນໜຶ່ງຂອງວິດີໂອທີ່ Amazon ໄດ້ລວມເຂົ້າກັນເພື່ອຊ່ວຍເຫຼືອໃນການສະແດງເຖິງການບຸກທະລຸຂອງ AI voice cloning ຫຼ້າສຸດໂດຍທີມພັດທະນາ Alexa (ລັກສະນະລວມທີ່ຍັງບໍ່ທັນໄດ້ເປີດຕົວຢ່າງເປັນທາງການສໍາລັບສາທາລະນະ).

ປະຕິກິລິຍາອັນໜຶ່ງຕໍ່ກັບຕົວຢ່າງນີ້ແມ່ນວ່າພວກເຮົາຮູ້ສຶກດີໃຈທີ່ເດັກນ້ອຍສາມາດໄດ້ຍິນສຽງຂອງແມ່ຕູ້ຂອງພວກເຂົາອີກຄັ້ງ. ພວກເຮົາຕ້ອງສົມມຸດວ່າແມ່ຕູ້ບໍ່ໄດ້ບັນທຶກການອ່ານເລື່ອງເຕັມ, ດັ່ງນັ້ນການໂຄນ AI ກໍາລັງເຮັດວຽກເຮັດໃຫ້ສິ່ງຕ່າງໆເບິ່ງຄືວ່າແມ່ຕູ້ກໍາລັງເຮັດການອ່ານທັງຫມົດ.

ເປັນທີ່ໂດດເດັ່ນ ແລະເປັນວິທີທີ່ດີທີ່ຈະເຊື່ອມຕໍ່ຄືນໃຫມ່ກັບຄົນຮັກທີ່ບໍ່ຢູ່ກັບເຮົາອີກຕໍ່ໄປ.

ບໍ່ແມ່ນນັກຂ່າວ ແລະນັກວິເຄາະທັງໝົດ (ບວກກັບ Twitter) ລ້ວນແຕ່ມີທ່າອ່ຽງຕໍ່ການຕີຄວາມໝາຍທີ່ເໝາະສົມກັບຄວາມກ້າວໜ້ານີ້. ບາງຄົນໃສ່ຊື່ອັນນີ້ວ່າເປັນຕາຢ້ານແທ້ໆ. ການພະຍາຍາມສ້າງສຽງຂອງຄົນຮັກທີ່ຕາຍໄປແລ້ວນັ້ນ ໄດ້ຖືກກ່າວວ່າເປັນການກະທຳທີ່ແປກປະຫຼາດ ແລະແປກປະຫຼາດ.

ມີຫຼາຍຄໍາຖາມ, ເຊັ່ນ:

  • ເດັກ​ຈະ​ສັບສົນ​ບໍ​ແລະ​ເຊື່ອ​ວ່າ​ຄົນ​ທີ່​ຮັກ​ຕາຍ​ຍັງ​ມີ​ຊີວິດ​ຢູ່?
  • ດຽວນີ້ເດັກນ້ອຍສາມາດຖືກນຳໄປສູ່ການຢອກກັນທີ່ບໍ່ໜ້າເຊື່ອ ຫຼືການຫຼອກລວງພາຍໃຕ້ຄວາມເຊື່ອທີ່ບໍ່ຖືກຕ້ອງວ່າແມ່ຕູ້ຍັງຢູ່ກັບພວກເຮົາບໍ?
  • ເດັກນ້ອຍອາດຈະທົນທຸກຈາກການໄດ້ຍິນກ່ຽວກັບຄົນທີ່ຮັກທີ່ຕາຍໄປ ແລະກາຍເປັນເສຍໃຈກັບພໍ່ຕູ້ອີກຄັ້ງໜຶ່ງ, ຄືກັບວ່າເປີດບາດແຜທາງອາລົມແລ້ວບໍ?
  • ເດັກນ້ອຍຈະຄິດວ່າຜູ້ຕາຍສາມາດເວົ້າຈາກອີກດ້ານຫນຶ່ງ, ຄືວ່າສຽງທີ່ລຶກລັບທີ່ປາກົດວ່າແມ່ຕູ້ຂອງລາວກໍາລັງເວົ້າກັບລາວຈາກບ່ອນຝັງສົບບໍ?
  • ມັນສົມມຸດວ່າເດັກນ້ອຍຈະຄິດວ່າ AI ໄດ້ປະກອບເປັນແມ່ຕູ້ຂອງລາວຢ່າງໃດກໍ່ຕາມ, ເປັນການສົມມຸດຕິຖານຂອງ AI ທີ່ເດັກນ້ອຍຈະເຕີບໂຕຂຶ້ນໂດຍເຊື່ອວ່າ AI ສາມາດຈໍາລອງມະນຸດໄດ້ທັງຫມົດ?
  • ສົມ​ມຸດ​ວ່າ​ເດັກ​ນ້ອຍ​ຈະ​ຕິດ​ໃຈ​ຫຼາຍ​ກັບ​ສຽງ​ທີ່​ຈໍາ​ລອງ AI ຂອງ​ແມ່​ຕູ້​ທີ່​ເປັນ​ເດັກ​ນ້ອຍ​ກາຍ​ເປັນ​ຄວາມ​ເມົາ​ມົວ​ແລະ​ການ​ນໍາ​ໃຊ້​ສຽງ​ສໍາ​ລັບ​ການ​ຟັງ​ທຸກ​ລັກ​ສະ​ນະ​?
  • ຜູ້ຂາຍທີ່ເຮັດສໍາເນົາສຽງສາມາດເລືອກທີ່ຈະໃຊ້ສຽງນັ້ນສໍາລັບຜູ້ອື່ນໂດຍໃຊ້ລະບົບລວມດຽວກັນ, ການເຮັດແບບນັ້ນໂດຍບໍ່ມີການໄດ້ຮັບການອະນຸຍາດຢ່າງຊັດເຈນຈາກຄອບຄົວແລະດັ່ງນັ້ນຈຶ່ງ "ກໍາໄລ" ຈາກສຽງທີ່ສ້າງຂຶ້ນ?
  • ແລະອື່ນໆ.

ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າທ່ານສາມາດ conjure ເຖິງພຽງແຕ່ເປັນ negatives ຫຼາຍເປັນບວກ, ຫຼືພວກເຮົາຈະເວົ້າວ່າໃນທາງບວກຫຼາຍເປັນ negatives. ມີການແລກປ່ຽນທີ່ຕິດພັນກັບຄວາມກ້າວຫນ້າຂອງ AI ເຫຼົ່ານີ້. ການເບິ່ງພຽງແຕ່ຂ້າງຫນຶ່ງຂອງຫຼຽນແມ່ນອາດຈະເປັນ myopic.

ສິ່ງສໍາຄັນແມ່ນເພື່ອໃຫ້ແນ່ໃຈວ່າພວກເຮົາກໍາລັງຊອກຫາຢູ່ໃນທຸກດ້ານຂອງບັນຫາເຫຼົ່ານີ້. ບໍ່​ໄດ້​ຖືກ​ຟັງ​ໃນ​ຄວາມ​ຄິດ​ຂອງ​ທ່ານ​. ມັນສາມາດເປັນເລື່ອງງ່າຍທີ່ຈະພຽງແຕ່ສໍາຫຼວດໃນທາງບວກ. ມັນ​ສາ​ມາດ​ງ່າຍ​ທີ່​ຈະ​ຄົ້ນ​ຫາ​ພຽງ​ແຕ່​ໃນ​ທາງ​ລົບ​. ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ກວດກາທັງສອງແລະຊອກຫາສິ່ງທີ່ສາມາດເຮັດໄດ້ເພື່ອຫວັງເປັນຢ່າງຍິ່ງທີ່ຈະນໍາໄປໃນທາງບວກແລະຊອກຫາວິທີທີ່ຈະຫຼຸດຜ່ອນ, ລົບລ້າງ, ຫຼືຢ່າງຫນ້ອຍຫຼຸດຜ່ອນຜົນກະທົບທາງລົບ.

ໃນບາງລະດັບ, ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າຈັນຍາບັນຂອງ AI ແລະຈັນຍາບັນ AI ແມ່ນຫົວຂໍ້ສໍາຄັນດັ່ງກ່າວ. ຫຼັກຈັນຍາບັນຂອງ AI ເຮັດໃຫ້ພວກເຮົາມີຄວາມລະມັດລະວັງ. ບາງຄັ້ງນັກເທກໂນໂລຍີ AI ສາມາດກາຍເປັນຄົນທີ່ສົນໃຈກັບເຕັກໂນໂລຢີ, ໂດຍສະເພາະການເພີ່ມປະສິດທິພາບຂອງເຕັກໂນໂລຢີສູງ. ເຂົາເຈົ້າບໍ່ຈໍາເປັນພິຈາລະນາເຖິງຜົນກະທົບຂອງສັງຄົມທີ່ໃຫຍ່ກວ່າ. ການມີແນວຄວາມຄິດດ້ານຈັນຍາບັນຂອງ AI ແລະເຮັດແນວນັ້ນປະສົມປະສານກັບການພັດທະນາ AI ແລະພາກສະຫນາມແມ່ນສໍາຄັນສໍາລັບການຜະລິດ AI ທີ່ເຫມາະສົມ.

ນອກເຫນືອຈາກການຈ້າງງານຈັນຍາບັນ AI, ຍັງມີຄໍາຖາມທີ່ສອດຄ້ອງກັນວ່າພວກເຮົາຄວນຈະມີກົດຫມາຍເພື່ອຄວບຄຸມການນໍາໃຊ້ຕ່າງໆຂອງ AI, ເຊັ່ນ: ລັກສະນະການໂຄນສຽງທີ່ອີງໃສ່ AI. ກົດໝາຍໃໝ່ກຳລັງຖືກຮັດກຸມຢູ່ໃນລະດັບລັດຖະບານກາງ, ລັດ ແລະທ້ອງຖິ່ນ ທີ່ກ່ຽວຂ້ອງກັບຂອບເຂດ ແລະລັກສະນະຂອງວິທີການ AI ຄວນຖືກວາງອອກ. ຄວາມ​ພະ​ຍາ​ຍາມ​ເພື່ອ​ຮ່າງ​ກົດ​ໝາຍ​ດັ່ງ​ກ່າວ​ແມ່ນ​ເປັນ​ໄປ​ເທື່ອ​ລະ​ກ້າວ. ຈັນຍາບັນ AI ເຮັດຫນ້າທີ່ເປັນຊ່ອງຫວ່າງທີ່ພິຈາລະນາ, ຢ່າງຫນ້ອຍ.

ທີ່ຖືກເວົ້າ, ບາງຄົນໂຕ້ຖຽງວ່າພວກເຮົາບໍ່ຕ້ອງການກົດຫມາຍໃຫມ່ທີ່ກວມເອົາ AI ແລະກົດຫມາຍທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແມ່ນພຽງພໍ. ໃນຄວາມເປັນຈິງ, ພວກເຂົາເຕືອນວ່າຖ້າພວກເຮົາປະກາດກົດຫມາຍ AI ເຫຼົ່ານີ້, ພວກເຮົາຈະຂ້າ goose ທອງໂດຍການຍຶດຫມັ້ນໃນຄວາມກ້າວຫນ້າໃນ AI ທີ່ສະເຫນີຂໍ້ໄດ້ປຽບຂອງສັງຄົມອັນໃຫຍ່ຫຼວງ. ເບິ່ງຕົວຢ່າງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້ ແລະ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃນຊ່ວງເວລາຂອງການສົນທະນາທີ່ຫນັກແຫນ້ນນີ້, ຂ້ອຍຈະວາງເດີມພັນວ່າເຈົ້າຕ້ອງການຕົວຢ່າງຕົວຢ່າງທີ່ອາດຈະສະແດງຫົວຂໍ້ນີ້. ມີຊຸດຕົວຢ່າງທີ່ນິຍົມກັນພິເສດແລະແນ່ນອນທີ່ຢູ່ໃກ້ກັບຫົວໃຈຂອງຂ້ອຍ. ເຈົ້າເຫັນ, ໃນຄວາມສາມາດຂອງຂ້ອຍເປັນຜູ້ຊ່ຽວຊານດ້ານ AI ລວມທັງການປະຕິບັດດ້ານຈັນຍາບັນແລະທາງດ້ານກົດຫມາຍ, ຂ້ອຍໄດ້ຖືກຖາມເລື້ອຍໆເພື່ອກໍານົດຕົວຢ່າງທີ່ແທ້ຈິງທີ່ສະແດງໃຫ້ເຫັນເຖິງບັນຫາດ້ານຈັນຍາບັນຂອງ AI ເພື່ອໃຫ້ລັກສະນະທາງທິດສະດີຂອງຫົວຂໍ້ສາມາດເຂົ້າໃຈໄດ້ງ່າຍຂຶ້ນ. ຫນຶ່ງໃນພື້ນທີ່ກະຕຸ້ນເຕືອນທີ່ສຸດທີ່ນໍາສະເຫນີຢ່າງຈະແຈ້ງກ່ຽວກັບຈັນຍາບັນ AI quandary ນີ້ແມ່ນການມາເຖິງຂອງ AI ທີ່ແທ້ຈິງລົດຂັບລົດຕົນເອງໄດ້. ນີ້ຈະເປັນກໍລະນີການນໍາໃຊ້ທີ່ເປັນປະໂຫຍດຫຼືຕົວຢ່າງສໍາລັບການສົນທະນາຢ່າງຫຼວງຫຼາຍກ່ຽວກັບຫົວຂໍ້.

ນີ້ແມ່ນ ຄຳ ຖາມທີ່ ໜ້າ ສັງເກດທີ່ຄວນພິຈາລະນາ: ການມາເຖິງຂອງລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງທີ່ອີງໃສ່ AI ເຮັດໃຫ້ມີແສງຫຍັງກ່ຽວກັບການໂຄນສຽງທີ່ໃຊ້ AI, ແລະຖ້າເປັນດັ່ງນັ້ນ, ສິ່ງນີ້ສະແດງໃຫ້ເຫັນແນວໃດ?

ປ່ອຍໃຫ້ຂ້ອຍຈັກໜ້ອຍເພື່ອເປີດຄຳຖາມ.

ຫນ້າທໍາອິດ, ໃຫ້ສັງເກດວ່າບໍ່ມີຄົນຂັບຂອງມະນຸດທີ່ກ່ຽວຂ້ອງກັບລົດຂັບລົດຕົນເອງທີ່ແທ້ຈິງ. ຈົ່ງຈື່ໄວ້ວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນຂັບເຄື່ອນໂດຍຜ່ານລະບົບການຂັບລົດ AI. ບໍ່​ມີ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຂັບ​ລົດ​ຂອງ​ມະ​ນຸດ​, ແລະ​ບໍ່​ມີ​ການ​ຈັດ​ສັນ​ສໍາ​ລັບ​ມະ​ນຸດ​ຂັບ​ລົດ​ໄດ້​. ສໍາລັບການຄຸ້ມຄອງຢ່າງກວ້າງຂວາງແລະຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍກ່ຽວກັບຍານພາຫະນະອັດຕະໂນມັດ (AVs) ແລະໂດຍສະເພາະແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ເບິ່ງ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ຂ້າພະເຈົ້າຕ້ອງການໃຫ້ຄວາມກະຈ່າງແຈ້ງຕື່ມອີກວ່າມີຄວາມໝາຍແນວໃດເມື່ອຂ້າພະເຈົ້າອ້າງເຖິງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງແທ້ໆ.

ເຂົ້າໃຈລະດັບຂອງລົດທີ່ຂັບເອງ

ໃນຖານະເປັນຄວາມກະຈ່າງແຈ້ງ, ລົດຂັບລົດດ້ວຍຕົນເອງທີ່ແທ້ຈິງແມ່ນລົດທີ່ AI ຂັບລົດດ້ວຍຕົວມັນເອງທັງຫມົດແລະບໍ່ມີການຊ່ວຍເຫຼືອຈາກມະນຸດໃດໆໃນລະຫວ່າງການຂັບລົດ.

ຍານພາຫະນະທີ່ບໍ່ມີຄົນຂັບເຫຼົ່ານີ້ຖືກພິຈາລະນາໃນລະດັບ 4 ແລະລະດັບ 5 (ເບິ່ງຄໍາອະທິບາຍຂອງຂ້ອຍຢູ່ທີ່ ລິ້ງນີ້ຢູ່ນີ້), ໃນຂະນະທີ່ລົດທີ່ຮຽກຮ້ອງໃຫ້ມີຄົນຂັບຮ່ວມກັນເພື່ອແບ່ງປັນຄວາມພະຍາຍາມໃນການຂັບລົດແມ່ນປົກກະຕິແລ້ວພິຈາລະນາໃນລະດັບ 2 ຫຼືລະດັບ 3. ລົດທີ່ຮ່ວມໃນການຂັບລົດແມ່ນໄດ້ຖືກອະທິບາຍວ່າເປັນເຄິ່ງອັດຕະໂນມັດ, ແລະໂດຍທົ່ວໄປແລ້ວປະກອບດ້ວຍຄວາມຫລາກຫລາຍຂອງ. add-ons ອັດຕະໂນມັດທີ່ຖືກເອີ້ນວ່າ ADAS (Advanced Driver-Assistance Systems).

ຍັງ​ບໍ່​ທັນ​ມີ​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ຕົວ​ຈິງ​ຢູ່​ໃນ​ລະດັບ 5, ແລະ​ພວກ​ເຮົາ​ຍັງ​ບໍ່​ທັນ​ຮູ້​ວ່າ​ສິ່ງ​ນີ້​ຈະ​ບັນລຸ​ໄດ້​ຫຼື​ບໍ່​ມັນ​ຈະ​ໃຊ້​ເວລາ​ດົນ​ປານ​ໃດ.

ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມລະດັບ 4 ກໍາລັງຄ່ອຍໆພະຍາຍາມເອົາບາງສ່ວນໂດຍການດໍາເນີນການທົດລອງທາງສາທາລະນະທີ່ແຄບແລະເລືອກ, ເຖິງແມ່ນວ່າມີຂໍ້ຂັດແຍ້ງກ່ຽວກັບວ່າການທົດສອບນີ້ຄວນຈະຖືກອະນຸຍາດຫຼືບໍ່ (ພວກເຮົາທັງຫມົດແມ່ນຫມູ guinea ທີ່ມີຊີວິດຫຼືຕາຍໃນການທົດລອງ. ສະຖານທີ່ຢູ່ໃນທາງດ່ວນແລະ byways ຂອງພວກເຮົາ, ບາງຄົນຂັດແຍ້ງ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍຢູ່ ລິ້ງນີ້ຢູ່ນີ້).

ເນື່ອງຈາກວ່າລົດເຄິ່ງອັດຕະໂນມັດຕ້ອງການຄົນຂັບລົດຂອງມະນຸດ, ການຮັບຮອງເອົາລົດປະເພດເຫຼົ່ານັ້ນຈະບໍ່ມີຄວາມແຕກຕ່າງກັນຫຼາຍກ່ວາການຂັບຂີ່ລົດ ທຳ ມະດາ, ໃນປັດຈຸບັນ, ຈຸດຕໍ່ໄປແມ່ນສາມາດໃຊ້ໄດ້ໂດຍທົ່ວໄປ).

ສຳ ລັບລົດເຄິ່ງອັດຕະໂນມັດ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ປະຊາຊົນຕ້ອງໄດ້ຮັບການແຈ້ງເຕືອນລ່ວງ ໜ້າ ກ່ຽວກັບແງ່ລົບກວນທີ່ ກຳ ລັງເກີດຂື້ນໃນໄລຍະມໍ່ໆມານີ້, ເຖິງແມ່ນວ່າເຖິງແມ່ນວ່າຄົນຂັບລົດມະນຸດເຫລົ່ານັ້ນຈະສືບຕໍ່ໂຄສະນາວິດີໂອກ່ຽວກັບຕົວເອງທີ່ ກຳ ລັງນອນຫລັບຢູ່ລໍ້ຂອງລົດລະດັບ 2 ຫລືລົດ 3 , ພວກເຮົາທຸກຄົນຕ້ອງຫລີກລ້ຽງການຫຼອກລວງໃນການເຊື່ອວ່າຜູ້ຂັບຂີ່ສາມາດເອົາຄວາມສົນໃຈຂອງພວກເຂົາອອກຈາກວຽກຂັບລົດໃນຂະນະທີ່ຂັບຂີ່ລົດເຄິ່ງອັດຕະໂນມັດ.

ທ່ານເປັນຝ່າຍທີ່ຮັບຜິດຊອບຕໍ່ການກະ ທຳ ຂອງການຂັບຂີ່ຂອງຍານພາຫະນະໂດຍບໍ່ສົນເລື່ອງອັດຕະໂນມັດອາດຈະຖືກໂຍນເຂົ້າໃນລະດັບ 2 ຫລືລະດັບ 3.

ລົດຂັບລົດດ້ວຍຕົນເອງ ແລະ AI-Based Voice Cloning

ສຳ ລັບພາຫະນະຂັບລົດທີ່ແທ້ຈິງໃນລະດັບ 4 ແລະລະດັບ 5, ຈະບໍ່ມີຄົນຂັບລົດທີ່ເປັນມະນຸດເຂົ້າຮ່ວມໃນວຽກງານຂັບຂີ່.

ຜູ້ປະກອບອາຊີບທຸກຄົນຈະເປັນຜູ້ໂດຍສານ.

AI ແມ່ນ ກຳ ລັງຂັບລົດຢູ່.

ລັກສະນະ ໜຶ່ງ ທີ່ຈະຕ້ອງໄດ້ປຶກສາຫາລືກັນໃນທັນທີແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າ AI ທີ່ກ່ຽວຂ້ອງກັບລະບົບຂັບຂີ່ AI ໃນປະຈຸບັນບໍ່ແມ່ນເລື່ອງງ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, AI ແມ່ນລວມທັງການຂຽນໂປແກຼມຄອມພິວເຕີ້ແລະສູດການຄິດໄລ່ຄອມພິວເຕີ້, ແລະແນ່ນອນວ່າມັນບໍ່ສາມາດມີເຫດຜົນໃນລັກສະນະດຽວກັນກັບມະນຸດ.

ເປັນຫຍັງອັນນີ້ຈິ່ງເນັ້ນ ໜັກ ຕື່ມກ່ຽວກັບ AI ບໍ່ມີຄວາມຮູ້ສຶກອ່ອນໄຫວ?

ເນື່ອງຈາກວ່າຂ້ອຍຕ້ອງການຊີ້ໃຫ້ເຫັນວ່າເມື່ອສົນທະນາກ່ຽວກັບບົດບາດຂອງລະບົບຂັບຂີ່ AI, ຂ້ອຍບໍ່ໄດ້ສະແດງຄຸນນະພາບຂອງມະນຸດຕໍ່ AI. ກະລຸນາຮັບຊາບວ່າມີແນວໂນ້ມທີ່ ກຳ ລັງ ດຳ ເນີນຢູ່ເລື້ອຍໆແລະເປັນອັນຕະລາຍໃນທຸກມື້ນີ້ໃນການລັກລອບຄ້າມະນຸດ AI. ໂດຍເນື້ອແທ້ແລ້ວ, ປະຊາຊົນ ກຳ ລັງມອບຄວາມຮູ້ສຶກຄ້າຍຄືກັບມະນຸດໃຫ້ກັບ AI ໃນປະຈຸບັນນີ້, ເຖິງວ່າຈະມີຄວາມຈິງທີ່ບໍ່ສາມາດປະຕິເສດໄດ້ແລະບໍ່ມີຄ່າຫຍັງເລີຍວ່າບໍ່ມີ AI ດັ່ງກ່າວມີມາກ່ອນ.

ດ້ວຍຄວາມກະຈ່າງແຈ້ງນັ້ນ, ທ່ານສາມາດນຶກພາບວ່າລະບົບຂັບຂີ່ AI ຈະບໍ່ຮູ້ກ່ຽວກັບລັກສະນະຂອງການຂັບຂີ່. ການຂັບຂີ່ແລະສິ່ງທັງ ໝົດ ທີ່ມັນຕ້ອງການຈະຕ້ອງມີໂຄງການເປັນສ່ວນ ໜຶ່ງ ຂອງຮາດແວແລະຊອບແວຂອງລົດທີ່ຂັບເອງ.

ໃຫ້ທ່ານເຂົ້າໄປໃນຫຼາຍໆດ້ານທີ່ມາຫຼີ້ນໃນຫົວຂໍ້ນີ້.

ກ່ອນອື່ນ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະຮັບຮູ້ວ່າບໍ່ແມ່ນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ AI ທັງຫມົດແມ່ນຄືກັນ. ຜູ້ຜະລິດລົດຍົນ ແລະບໍລິສັດເທັກໂນໂລຍີການຂັບລົດເອງແຕ່ລະຄົນກຳລັງໃຊ້ວິທີທີ່ຈະອອກແບບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ມັນເປັນການຍາກທີ່ຈະອອກຄໍາຖະແຫຼງທີ່ກວ້າງຂວາງກ່ຽວກັບສິ່ງທີ່ລະບົບຂັບລົດ AI ຈະເຮັດຫຼືບໍ່ເຮັດ.

ຍິ່ງໄປກວ່ານັ້ນ, ທຸກຄັ້ງທີ່ລະບຸວ່າລະບົບການຂັບຂີ່ AI ບໍ່ໄດ້ເຮັດບາງສິ່ງໂດຍສະເພາະ, ອັນນີ້, ໃນທີ່ສຸດ, ສາມາດເອົາຊະນະນັກພັດທະນາໄດ້ວ່າໃນຄວາມເປັນຈິງແລ້ວວາງໂປຣແກມຄອມພິວເຕີໃຫ້ເຮັດສິ່ງນັ້ນ. ເທື່ອລະກ້າວ, ລະບົບການຂັບຂີ່ AI ກຳ ລັງໄດ້ຮັບການປັບປຸງແລະຂະຫຍາຍອອກເທື່ອລະກ້າວ. ຂໍ້ ຈຳ ກັດທີ່ມີຢູ່ໃນປະຈຸບັນອາດຈະບໍ່ມີຢູ່ໃນການເຮັດຊ້ ຳ ຄືນອີກຫຼືໃນລຸ້ນຂອງລະບົບ.

ຂ້າ​ພະ​ເຈົ້າ​ຫວັງ​ວ່າ​ມັນ​ຈະ​ສະ​ຫນອງ​ໃຫ້​ເປັນ​ພຽງ​ພໍ​ຂອງ​ຄໍາ​ແນະ​ນໍາ​ທີ່​ຈະ underlie ສິ່ງ​ທີ່​ຂ້າ​ພະ​ເຈົ້າ​ກໍາ​ລັງ​ຈະ​ກ່ຽວ​ຂ້ອງ​.

ມາສະເໜີສະຖານະການທີ່ອາດຈະໃຊ້ການໂຄນສຽງທີ່ອີງໃສ່ AI.

ພໍ່ແມ່ແລະລູກຂອງພວກເຂົາເຂົ້າໄປໃນລົດຂັບລົດດ້ວຍຕົນເອງທີ່ອີງໃສ່ AI. ເຂົາເຈົ້າໄປຮ້ານຂາຍເຄື່ອງຍ່ອຍທ້ອງຖິ່ນຂອງເຂົາເຈົ້າ. ນີ້ຄາດວ່າຈະເປັນການຂັບເຄື່ອນທີ່ຂ້ອນຂ້າງບໍ່ສະດວກ. ພຽງ​ແຕ່​ຂັບ​ລົດ​ໄປ​ຮ້ານ​ຄ້າ​ປະ​ຈໍາ​ອາ​ທິດ​, ເຖິງ​ແມ່ນ​ວ່າ​ຄົນ​ຂັບ​ແມ່ນ​ລະ​ບົບ​ການ​ຂັບ​ລົດ AI ແລະ​ພໍ່​ແມ່​ບໍ່​ຈໍາ​ເປັນ​ຕ້ອງ​ເຮັດ​ການ​ຂັບ​ລົດ​ໃດໆ​.

ສໍາລັບພໍ່ແມ່, ນີ້ແມ່ນຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງ. ແທນ​ທີ່​ຈະ​ຕ້ອງ​ເອົາ​ໃຈ​ໃສ່​ໃນ​ການ​ຊີ້​ນຳ​ແລະ​ຮັບ​ມື​ກັບ​ການ​ຂັບ​ລົດ, ພໍ່​ແມ່​ຈະ​ເອົາ​ໃຈ​ໃສ່​ແທນ​ລູກ. ເຂົາເຈົ້າສາມາດຫຼິ້ນຮ່ວມກັນໃນຍານພາຫະນະອັດຕະໂນມັດແລະໃຊ້ເວລາຂອງທໍາມະຊາດທີ່ມີຄຸນຄ່າ. ໃນຂະນະທີ່ພໍ່ແມ່ມັກຈະລົບກວນຈາກການຂັບຂີ່, ແລະອາດຈະກັງວົນໃຈແລະເຄັ່ງຕຶງໃນຂະນະທີ່ຍ່າງທາງໃນຖະຫນົນທີ່ຫຍຸ້ງໆແລະຈັດການກັບຄົນຂັບລົດອື່ນໆທີ່ຢູ່ໃກ້ຄຽງ, ພໍ່ແມ່ຮູ້ສຶກດີໃຈທີ່ບໍ່ຮູ້ເຖິງຄວາມກັງວົນເຫຼົ່ານັ້ນແລະມີຄວາມສຸກກັບລູກທີ່ມີຄ່າຂອງພວກເຂົາ.

ພໍ່ແມ່ເວົ້າກັບລະບົບຂັບລົດ AI ແລະບອກ AI ໃຫ້ນໍາພວກເຂົາໄປຮ້ານຂາຍເຄື່ອງແຫ້ງ. ໃນສະຖານະການປົກກະຕິ, AI ຈະຕອບສະຫນອງໂດຍຜ່ານສຽງທີ່ເປັນກາງທີ່ເຈົ້າອາດຈະຄຸ້ນເຄີຍໄດ້ຍິນຜ່ານ Alexa ຫຼື Siri ຂອງມື້ນີ້. AI ອາດຈະຕອບໂດຍລະບຸວ່າຮ້ານຂາຍເຄື່ອງແຫ້ງແມ່ນໃຊ້ເວລາຂັບລົດ 15 ນາທີ. ນອກຈາກນັ້ນ, AI ອາດຈະລະບຸວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງຈະເອົາພວກມັນລົງຢູ່ທາງຫນ້າຂອງຮ້ານ.

ນັ້ນອາດຈະເປັນການເຄື່ອນໄຫວທີ່ກ່ຽວຂ້ອງກັບສຽງເທົ່ານັ້ນຂອງ AI ໃນສະຖານະການດັ່ງກ່າວ. ບາງທີ, ເມື່ອລົດທີ່ຂັບລົດດ້ວຍຕົນເອງເຂົ້າມາໃກ້ກັບຮ້ານຂາຍເຄື່ອງແຫ້ງ, AI ອາດຈະເວົ້າບາງສິ່ງບາງຢ່າງກ່ຽວກັບຈຸດຫມາຍປາຍທາງທີ່ໃກ້ເຂົ້າມາ. ອາດມີສຽງເຕືອນໃຫ້ເອົາສິ່ງຂອງຂອງເຈົ້າໄປນຳເມື່ອເຈົ້າອອກຈາກຍານພາຫະນະອັດຕະໂນມັດ.

ຂ້າ​ພະ​ເຈົ້າ​ໄດ້​ອະ​ທິ​ບາຍ​ວ່າ​ບາງ​ລະ​ບົບ​ການ​ຂັບ​ລົດ AI ຈະ​ເປັນ​ແມວ chatty, ເປັນ​ມັນ​ເປັນ. ພວກມັນຈະຖືກຕັ້ງໂຄງການໃຫ້ມີຄວາມຄ່ອງແຄ້ວ ແລະ ຕິດຕໍ່ພົວພັນຢ່າງຕໍ່ເນື່ອງກັບຜູ້ຂັບຂີ່ຂອງມະນຸດ. ໃນເວລາທີ່ທ່ານເຂົ້າໄປໃນຍານພາຫະນະ ridesharing ທີ່ຖືກຂັບເຄື່ອນໂດຍມະນຸດ, ບາງຄັ້ງທ່ານຕ້ອງການໃຫ້ຄົນຂັບລົດເປັນ chatty. ນອກຈາກການເວົ້າສະບາຍດີ, ເຈົ້າອາດຈະຕ້ອງການໃຫ້ພວກເຂົາບອກເຈົ້າກ່ຽວກັບສະພາບອາກາດໃນທ້ອງຖິ່ນ, ຫຼືອາດຈະຊີ້ໃຫ້ເຫັນສະຖານທີ່ອື່ນໆທີ່ຈະເຫັນຢູ່ໃນທ້ອງຖິ່ນ. ບໍ່ແມ່ນທຸກຄົນຈະຕ້ອງການ cat chatty, ດັ່ງນັ້ນ AI ຄວນຖືກອອກແບບເພື່ອເຂົ້າຮ່ວມການສົນທະນາພຽງແຕ່ໃນເວລາທີ່ມະນຸດຮ້ອງຂໍມັນ, ເບິ່ງການຄຸ້ມຄອງຂອງຂ້ອຍໄດ້ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃນປັດຈຸບັນທີ່ຂ້າພະເຈົ້າໄດ້ຮັບການສ້າງຕັ້ງຂຶ້ນທັງຫມົດ, ໃຫ້ພວກເຮົາປ່ຽນແປງສິ່ງຕ່າງໆໃນວິທີການຂະຫນາດນ້ອຍແຕ່ສໍາຄັນ.

ທຳທ່າວ່າລະບົບຂັບລົດ AI ມີຄຸນສົມບັດການໂຄນສຽງທີ່ອີງໃສ່ AI. ໃຫ້ສົມມຸດວ່າກ່ອນໜ້ານີ້ພໍ່ແມ່ໄດ້ສ້າງໂຄລນສຽງ AI ໂດຍການສະໜອງສະນິບເພັດສຽງຂອງແມ່ຕູ້ຂອງເດັກນ້ອຍ. ຄວາມແປກໃຈ, ພໍ່ແມ່ຄິດວ່າ, ຂ້ອຍຈະມີລະບົບການຂັບລົດ AI ເວົ້າຄືກັບແມ່ຕູ້ທີ່ເສຍຊີວິດຂອງເດັກ.

ໃນຂະນະທີ່ກໍາລັງຂັບລົດໄປຮ້ານຂາຍເຄື່ອງແຫ້ງ, ລະບົບການຂັບລົດ AI ພົວພັນກັບພໍ່ແມ່ແລະເດັກນ້ອຍ, ໂດຍສະເພາະແມ່ນການໃຊ້ສຽງໂຄນຂອງແມ່ຕູ້ຕະຫຼອດເວລາ.

ທ່ານຄິດແນວໃດກັບເລື່ອງນີ້?

ໜ້າຢ້ານ ຫຼື ໜ້າຈົດຈຳ?

ຂ້າ​ພະ​ເຈົ້າ​ຈະ​ເຕະ​ເຖິງ​ສິ່ງ​ທີ່ notch. ກຽມ​ພ້ອມ. ຮັດສາຍແອວຂອງທ່ານ.

ບາງ​ຄົນ​ເຊື່ອ​ວ່າ​ຂ້ອຍ​ເຮັດ​ວ່າ​ໃນ​ທີ່​ສຸດ​ພວກ​ເຮົາ​ຈະ​ອະ​ນຸ​ຍາດ​ໃຫ້​ເດັກ​ນ້ອຍ​ຂີ່​ລົດ​ທີ່​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ AI ດ້ວຍ​ຕົນ​ເອງ, ເບິ່ງ​ວິ​ເຄາະ​ຂອງ​ຂ້າ​ພະ​ເຈົ້າ​ຢູ່​ທີ່ ການເຊື່ອມຕໍ່ທີ່ນີ້.

ໃນລົດທີ່ຂັບເຄື່ອນດ້ວຍມະນຸດໃນທຸກມື້ນີ້, ຜູ້ໃຫຍ່ຕ້ອງຢູ່ສະເໝີ ເພາະກົດໝາຍກຳນົດໃຫ້ຜູ້ຂັບຂີ່ຜູ້ໃຫຍ່ຢູ່ລໍ້. ສໍາລັບຈຸດປະສົງປະຕິບັດທັງຫມົດ, ທ່ານບໍ່ສາມາດມີລູກຢູ່ໃນລົດທີ່ເຄື່ອນທີ່ຢູ່ໃນຍານພາຫະນະດ້ວຍຕົນເອງ (ແມ່ນແລ້ວ, ຂ້ອຍຮູ້ວ່າມັນເກີດຂື້ນ, ເຊັ່ນ: ລູກຊາຍອາຍຸ 10 ປີທີ່ໂດດເດັ່ນຂອງນັກສະແດງຮູບເງົາທີ່ສໍາຄັນທີ່ບໍ່ດົນມານີ້. ລົດລາຄາແພງຫຼາຍເຂົ້າໄປໃນລົດລາຄາແພງຫຼາຍ, ແຕ່ຢ່າງໃດກໍ່ຕາມເຫຼົ່ານີ້ແມ່ນຫາຍາກ).

ພໍ່​ແມ່​ໃນ​ທຸກ​ມື້​ນີ້​ອາດ​ຈະ​ຄັດຄ້ານ​ຢ່າງ​ແຂງ​ແຮງ​ທີ່​ຈະ​ໃຫ້​ລູກ​ຂີ່​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ທີ່​ຂາດ​ຜູ້​ໃຫຍ່​ໃນ​ລົດ​ທີ່​ເປັນ​ຜູ້​ດູ​ແລ ຫຼື​ເບິ່ງ​ແຍງ​ລູກ. ຂ້າພະເຈົ້າຮູ້ວ່າມັນເບິ່ງຄືວ່າເກືອບເປັນໄປບໍ່ໄດ້ທີ່ຈະຈິນຕະນາການ, ແຕ່ຂ້າພະເຈົ້າວາງເດີມພັນວ່າເມື່ອລົດຂັບລົດດ້ວຍຕົນເອງມີຢູ່ທົ່ວໄປ, ພວກເຮົາຈະຍອມຮັບແນວຄວາມຄິດຂອງເດັກນ້ອຍທີ່ບໍ່ມີຜູ້ໃຫຍ່ໃນຂະນະທີ່ຂີ່ລົດຂັບລົດດ້ວຍຕົນເອງ.

ພິຈາລະນາປັດໄຈຄວາມສະດວກ.

ເຈົ້າຢູ່ບ່ອນເຮັດວຽກ ແລະເຈົ້ານາຍຂອງເຈົ້າກຳລັງໄລ່ເຈົ້າໃຫ້ເຮັດວຽກໃຫ້ສຳເລັດ. ເຈົ້າຕ້ອງເອົາລູກຂອງເຈົ້າອອກຈາກໂຮງຮຽນ ແລະພາເຂົາເຈົ້າໄປຝຶກເບດບານ. ເຈົ້າຕິດຢູ່ລະຫວ່າງຫີນ ແລະບ່ອນແຂງຄືກັບທີ່ເຈົ້າໜ້າພໍໃຈ ຫຼືບໍ່ພາລູກໄປສະໜາມຝຶກຊ້ອມ. ບໍ່ມີຜູ້ອື່ນທີ່ທ່ານຮູ້ຈັກມີໃຫ້ລູກຂອງເຈົ້າມີລົດຍົກ. ຖ້າມີອັນໃດອັນໜຶ່ງ, ແນ່ນອນເຈົ້າບໍ່ຕ້ອງການໃຊ້ບໍລິການ ridesharing ທີ່ມີຄົນຂັບເປັນມະນຸດ, ເພາະວ່າຕາມທຳມະຊາດແລ້ວ ເຈົ້າຄົງຈະເປັນຫ່ວງກ່ຽວກັບສິ່ງທີ່ຜູ້ໃຫຍ່ຄົນແປກໜ້າຄົນນັ້ນຈະເວົ້າ ຫຼືເຮັດໃນຂະນະທີ່ໃຫ້ລູກຂອງເຈົ້າຂີ່.

ບໍ່ມີບັນຫາ, ບໍ່ຕ້ອງກັງວົນ, ພຽງແຕ່ໃຊ້ລົດຂັບລົດຕົນເອງທີ່ໃຊ້ AI. ທ່ານ​ຊີ້​ນຳ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ຈາກ​ໄລຍະ​ໄກ​ເພື່ອ​ໄປ​ຮັບ​ລູກ. ຜ່ານ​ກ້ອງ​ຖ່າຍ​ຮູບ​ຂອງ​ລົດ​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​, ທ່ານ​ສາ​ມາດ​ເບິ່ງ​ແລະ​ເບິ່ງ​ລູກ​ຂອງ​ທ່ານ​ໄດ້​ຮັບ​ການ​ເຂົ້າ​ໄປ​ໃນ​ຍານ​ພາ​ຫະ​ນະ​ຂອງ​ຕົນ​ເອງ​. ນອກຈາກນັ້ນ, ມີກ້ອງຖ່າຍຮູບທີ່ປະເຊີນຫນ້າພາຍໃນແລະທ່ານສາມາດເບິ່ງລູກຂອງທ່ານໄດ້ຕະຫຼອດການເດີນທາງຂັບລົດ. ອັນນີ້ເບິ່ງຄືວ່າປອດໄພ ຖ້າບໍ່ປອດໄພກວ່າການຂໍໃຫ້ຄົນຂັບລົດຄົນແປກໜ້າໃຫ້ລົດຍົກໃຫ້ລູກຂອງເຈົ້າ. ດັ່ງທີ່ກ່າວມານັ້ນ, ບາງຄົນມີຄວາມກັງວົນຢ່າງຖືກຕ້ອງວ່າ ຖ້າການຂັບຂີ່ລົດໄປຜິດກົດໝາຍ, ເຈົ້າມີລູກໄວ້ໃຫ້ຕົນເອງ ແລະ ບໍ່ມີຜູ້ໃຫຍ່ມາໃຫ້ການຊ່ວຍເຫຼືອ ຫຼື ໃຫ້ຄຳແນະນຳເດັກທັນທີ.

ການຖິ້ມໂທດໃສ່ຫຼາຍໆຢ່າງ, ສົມມຸດວ່າພໍ່ແມ່ແລະລູກດຽວກັນທີ່ຂ້ອຍໄດ້ອະທິບາຍໃນສະຖານະການທີ່ຜ່ານມາແມ່ນເຫມາະສົມທີ່ເດັກຈະໄປຂີ່ລົດໂດຍທີ່ບໍ່ມີພໍ່ແມ່ຢູ່. ພຽງແຕ່ຍອມຮັບວ່າສຸດທ້າຍນີ້ແມ່ນສະຖານະການທີ່ເປັນໄປໄດ້.

ນີ້ແມ່ນນັກເຕະຂັ້ນສຸດທ້າຍ.

ແຕ່ລະຄັ້ງທີ່ເດັກນ້ອຍຂີ່ໃນລົດຂັບລົດຕົນເອງທີ່ໃຊ້ AI, ເຂົາເຈົ້າໄດ້ຮັບການທັກທາຍ ແລະ ໂຕ້ຕອບກັບ AI ຍ້ອນວ່າມັນກໍາລັງໃຊ້ໂຄລນສຽງທີ່ໃຊ້ AI ແລະຈໍາລອງສຽງຂອງແມ່ເຖົ້າທີ່ເສຍຊີວິດໄປ.

ເຈົ້າຄິດແນວໃດກັບຫມາກໂປມເຫຼົ່ານັ້ນ?

ໃນເວລາທີ່ພໍ່ແມ່ຍັງຢູ່ໃນລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ, ບາງທີພວກເຮົາສາມາດແກ້ຕົວໃນການນໍາໃຊ້ສຽງ AI ນັບຕັ້ງແຕ່ພໍ່ແມ່ຢູ່ທີ່ນັ້ນເພື່ອແນະນໍາເດັກນ້ອຍກ່ຽວກັບສິ່ງທີ່ເກີດຂື້ນໃນເວລາທີ່ສຽງ AI ກໍາລັງເວົ້າ. ​ແຕ່​ເມື່ອ​ພໍ່​ແມ່​ບໍ່​ຢູ່, ​ໃນ​ເວລາ​ນີ້​ພວກ​ເຮົາ​ກໍ​ຄິດ​ວ່າ​ລູກ​ດີ​ໃຈ​ຫລາຍ​ກັບ​ສຽງ​ຂອງ​ແມ່ຕູ້.

ນີ້ແມ່ນຫນຶ່ງໃນຊ່ວງເວລາຢຸດຊົ່ວຄາວທີ່ຈະຄິດຢ່າງຈິງຈັງກ່ຽວກັບວ່ານີ້ແມ່ນຢູ່ໃນຄວາມສົມດຸນທີ່ດີຫຼືບໍ່ດີສໍາລັບເດັກນ້ອຍ.

ສະຫຼຸບ

ລອງເຮັດການທົດລອງຄິດເລັກໆນ້ອຍໆເພື່ອພິຈາລະນາເບິ່ງເລື່ອງທີ່ໜັກໜ່ວງເຫຼົ່ານີ້.

ກະລຸນາມາເຖິງສາມຢ່າງແຂງ ໃນທາງບວກ ເຫດຜົນທີ່ຈະມີການໂຄນນາສຽງທີ່ໃຊ້ AI.

ຂ້ອຍຈະລໍຖ້າໃນຂະນະທີ່ເຈົ້າມາກັບເຂົາເຈົ້າ.

ຕໍ່ໄປ, ມາເຖິງສາມຢ່າງແຂງ ກະທົບທາງລົບ ເຫດ​ຜົນ​ທີ່​ຕັດ​ການ​ມາ​ເຖິງ​ຂອງ cloning ສຽງ​ທີ່​ອີງ​ໃສ່ AI ໄດ້​.

ຂ້ອຍຈະສົມມຸດວ່າເຈົ້າໄດ້ມາກັບບາງຄົນ.

ຂ້າພະເຈົ້າຮັບຮູ້ວ່າທ່ານແນ່ນອນສາມາດມີເຫດຜົນຫຼາຍກ່ວາພຽງແຕ່ສາມຢ່າງທີ່ມັກຫຼືບໍ່ພໍໃຈກັບເຕັກໂນໂລຢີນີ້. ໃນທັດສະນະຂອງເຈົ້າ, ແງ່ລົບຫຼາຍກວ່າຜົນບວກບໍ? ມີນັກວິຈານເຫຼົ່ານັ້ນທີ່ໂຕ້ຖຽງວ່າພວກເຮົາຄວນຈະເອົາ kibosh ໃນຄວາມພະຍາຍາມດັ່ງກ່າວ.

ບາງຄົນຕ້ອງການພະຍາຍາມແລະຂັດຂວາງບໍລິສັດຈາກການນໍາໃຊ້ການໂຄນສຽງທີ່ອີງໃສ່ AI, ເຖິງແມ່ນວ່າຮູ້ວ່ານີ້ແມ່ນຫນຶ່ງຂອງບັນຫາ whack-a-mole ຄລາສສິກເຫຼົ່ານັ້ນ. ບໍ​ລິ​ສັດ​ໃດ​ຫນຶ່ງ​ທີ່​ທ່ານ​ໄດ້​ຮັບ​ການ​ຢຸດ​ເຊົາ​ການ​ນໍາ​ໃຊ້​ມັນ​, ບໍ່​ລົງ​ຮອຍ​ກັນ​ແມ່ນ​ວ່າ​ບາງ​ບໍ​ລິ​ສັດ​ອື່ນໆ​ຈະ​ເລີ່ມ​ຕົ້ນ​ການ​ນໍາ​ໃຊ້​ມັນ​. ການເຮັດໃຫ້ໂມງຄ້າງໄວ້ ຫຼືເອົາ AI ປະເພດນີ້ໄປເກືອບຈະເປັນໄປບໍ່ໄດ້.

ໃນຂໍ້ສັງເກດສຸດທ້າຍກ່ຽວກັບຫົວຂໍ້ນີ້ສໍາລັບປັດຈຸບັນ, ຈິນຕະນາການສິ່ງທີ່ອາດຈະເກີດຂຶ້ນຖ້າຫາກວ່າມື້ຫນຶ່ງພວກເຮົາສາມາດບັນລຸ AI sentient. ຂ້າພະເຈົ້າບໍ່ໄດ້ເວົ້າວ່ານີ້ຈະເກີດຂຶ້ນ. ພວກເຮົາສາມາດຄາດເດົາໄດ້ຢ່າງໃດກໍ່ຕາມແລະເບິ່ງບ່ອນທີ່ອາດຈະນໍາໄປສູ່.

ທໍາອິດ, ພິຈາລະນາຄໍາເວົ້າທີ່ເຂົ້າໃຈກ່ຽວກັບການເວົ້າແລະການມີສຽງ. Madeleine Albright ເວົ້າເລື່ອງນີ້ທີ່ມີຊື່ສຽງວ່າ: "ມັນໃຊ້ເວລາດົນຫຼາຍໃນການພັດທະນາສຽງ, ແລະຕອນນີ້ຂ້ອຍມີມັນ, ຂ້ອຍຈະບໍ່ງຽບ."

ຖ້າພວກເຮົາສາມາດຜະລິດ AI ທີ່ມີຄວາມຮູ້ສຶກ, ຫຼືຄວາມຮູ້ສຶກທີ່ເກີດຂື້ນເຖິງແມ່ນວ່າພວກເຮົາບໍ່ໄດ້ນໍາມັນອອກມາໂດຍກົງ, AI ຄວນຈະມີສຽງໃດ? ສົມມຸດວ່າມັນສາມາດນໍາໃຊ້ການໂຄນສຽງທີ່ອີງໃສ່ AI ແລະ ergo ຜະລິດສຽງຂອງມະນຸດໃດໆໂດຍຜ່ານຕົວຢ່າງສຽງນ້ອຍໆຂອງໄວລຸ້ນທີ່ອາດຈະສາມາດໃຊ້ໄດ້ຕາມທີ່ມະນຸດເວົ້າ. AI ດັ່ງກ່າວສາມາດເວົ້າແລະຫຼອກລວງເຈົ້າໃຫ້ເຊື່ອວ່າ AI ເບິ່ງຄືວ່າຄົນນັ້ນ.

ຫຼັງຈາກນັ້ນ, ອີກເທື່ອຫນຶ່ງ, ບາງທີ AI ຈະຕ້ອງການທີ່ຈະມີສຽງຂອງຕົນເອງແລະຕັ້ງໃຈສ້າງສຽງທີ່ແຕກຕ່າງຈາກສຽງຂອງມະນຸດອື່ນໆ, ຕ້ອງການທີ່ຈະມີຄວາມພິເສດໃນລັກສະນະທີ່ມີສະເຫນ່ຂອງຕົນເອງ.

ໂດຍ gosh, ນີ້ເຮັດໃຫ້ຫນຶ່ງເກືອບ speakless.

ທີ່ມາ: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- ຈຸດປະສົງເພື່ອນຳໃຊ້-in-ai-autonomous-systems/