ອັນຕະລາຍຂອງປັນຍາທຽມທີ່ບໍ່ມີໃຜເວົ້າກ່ຽວກັບ

ໃນຂະນະທີ່ ສົນທະນາ GPT ອາດຈະເບິ່ງຄືວ່າເປັນເຄື່ອງມືທີ່ບໍ່ມີອັນຕະລາຍແລະເປັນປະໂຫຍດ, ເຕັກໂນໂລຢີນີ້ມີທ່າແຮງທີ່ຈະປັບປຸງເສດຖະກິດແລະສັງຄົມຂອງພວກເຮົາຕາມທີ່ພວກເຮົາຮູ້ຢ່າງຫຼວງຫຼາຍ. ນັ້ນເຮັດໃຫ້ພວກເຮົາມີບັນຫາທີ່ຫນ້າຕົກໃຈ - ແລະພວກເຮົາອາດຈະບໍ່ກຽມພ້ອມສໍາລັບພວກມັນ. 

ChatGPT, chatbot ທີ່ຂັບເຄື່ອນໂດຍປັນຍາປະດິດ (AI), ໄດ້ເອົາໂລກໂດຍພະຍຸໃນທ້າຍປີ 2022. chatbot ສັນຍາວ່າຈະລົບກວນການຄົ້ນຫາດັ່ງທີ່ພວກເຮົາຮູ້. ເຄື່ອງມືຟຣີໃຫ້ຄໍາຕອບທີ່ເປັນປະໂຫຍດໂດຍອີງໃສ່ການກະຕຸ້ນເຕືອນຜູ້ໃຊ້ໃຫ້ມັນ. 

ແລະສິ່ງທີ່ເຮັດໃຫ້ອິນເຕີເນັດກາຍເປັນບ້າກ່ຽວກັບລະບົບ AI chatbot ແມ່ນວ່າມັນບໍ່ພຽງແຕ່ໃຫ້ຄໍາຕອບຄືກັບເຄື່ອງມືຂອງເຄື່ອງຈັກຊອກຫາເທົ່ານັ້ນ. ChatGPT ສາ​ມາດ​ສ້າງ​ຮູບ​ເງົາ​, ຂຽນ​ລະ​ຫັດ​ທັງ​ຫມົດ​ແລະ​ແກ້​ໄຂ​ບັນ​ຫາ​ການ​ເຂົ້າ​ລະ​ຫັດ​, ຂຽນ​ທັງ​ຫມົດ​ຫນັງ​ສື​, ເພງ​, poems​, scripts – ຫຼື​ອັນ​ໃດ​ກໍ​ຕາມ​ທີ່​ທ່ານ​ສາ​ມາດ​ຄິດ​ເຖິງ – ພາຍ​ໃນ​ນາ​ທີ​. 

ເທກໂນໂລຍີນີ້ແມ່ນຫນ້າປະທັບໃຈ, ແລະມັນໄດ້ຜ່ານຜູ້ໃຊ້ຫຼາຍກວ່າຫນຶ່ງລ້ານຄົນໃນເວລາພຽງຫ້າມື້ຫຼັງຈາກການເປີດຕົວຂອງມັນ. ເຖິງວ່າຈະມີການປະຕິບັດທີ່ຫນ້າຕື່ນເຕັ້ນ, ເຄື່ອງມືຂອງ OpenAI ໄດ້ເຮັດໃຫ້ເກີດຄວາມກັງວົນໃນບັນດານັກວິຊາການແລະຜູ້ຊ່ຽວຊານຈາກຂົງເຂດອື່ນໆ. ທ່ານດຣ Bret Weinstein, ຜູ້ຂຽນແລະອະດີດອາຈານຂອງຊີວະວິທະຍາວິວັດທະນາການ, ກ່າວວ່າ, "ພວກເຮົາບໍ່ພ້ອມທີ່ຈະ ChatGPT." 

Elon Musk, ແມ່ນສ່ວນຫນຶ່ງຂອງ OpenAI ໃນໄລຍະຕົ້ນໆແລະເປັນຫນຶ່ງໃນຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງບໍລິສັດ. ແຕ່ຕໍ່ມາໄດ້ລາອອກຈາກຄະນະ. ລາວໄດ້ເວົ້າຫຼາຍຄັ້ງກ່ຽວກັບອັນຕະລາຍຂອງເຕັກໂນໂລຢີ AI - ລາວກ່າວວ່າການນໍາໃຊ້ແລະການພັດທະນາແບບບໍ່ຈໍາກັດເຮັດໃຫ້ເກີດຄວາມສ່ຽງຕໍ່ການເປັນຢູ່ຂອງມະນຸດ. 

ມັນ​ເຮັດ​ວຽກ​ແນວ​ໃດ?

ສົນທະນາ GPT ແມ່ນລະບົບ chatbot ປັນຍາປະດິດທີ່ມີການຝຶກອົບຮົມພາສາຂະຫນາດໃຫຍ່ທີ່ປ່ອຍອອກມາໃນເດືອນພະຈິກ 2022 ໂດຍ OpenAI. ບໍລິສັດທີ່ມີກໍາໄລໄດ້ພັດທະນາ ChatGPT ສໍາລັບການນໍາໃຊ້ "ປອດໄພແລະເປັນປະໂຫຍດ" ຂອງ AI ທີ່ສາມາດຕອບໄດ້ເກືອບທຸກຢ່າງທີ່ທ່ານສາມາດຄິດເຖິງ - ຈາກເພງ rap, ສິນລະປະ prompts ກັບ script ຮູບເງົາແລະ essays. 

ຫຼາຍເທົ່າທີ່ມັນເບິ່ງຄືວ່າເປັນຫນ່ວຍງານສ້າງສັນທີ່ຮູ້ວ່າສິ່ງທີ່ເວົ້າ, ມັນບໍ່ແມ່ນ. AI chatbot scours ຂໍ້ມູນໃນອິນເຕີເນັດໂດຍໃຊ້ຮູບແບບການຄາດເດົາຈາກສູນຂໍ້ມູນຂະຫນາດໃຫຍ່. ຄ້າຍຄືກັນກັບສິ່ງທີ່ Google ແລະເຄື່ອງຈັກຊອກຫາສ່ວນໃຫຍ່ເຮັດ. ຫຼັງຈາກນັ້ນ, ມັນໄດ້ຮັບການຝຶກອົບຮົມແລະເປີດເຜີຍຂໍ້ມູນຫຼາຍໂຕນທີ່ຊ່ວຍໃຫ້ AI ກາຍເປັນຜູ້ດີຫຼາຍໃນການຄາດຄະເນລໍາດັບຂອງຄໍາສັບຕ່າງໆຈົນເຖິງຈຸດທີ່ມັນສາມາດເອົາຄໍາອະທິບາຍຍາວໆເຂົ້າກັນໄດ້. 

ຕົວຢ່າງ, ທ່ານສາມາດຖາມຄໍາຖາມຂອງ encyclopedia ເຊັ່ນ, "ອະທິບາຍສາມກົດຫມາຍຂອງ Einstein." ຫຼືຄໍາຖາມທີ່ເຈາະຈົງແລະເລິກເຊິ່ງກວ່າເຊັ່ນ: "ຂຽນບົດເລື່ອງ 2,000 ຄໍາກ່ຽວກັບຈຸດຕັດກັນລະຫວ່າງຈັນຍາບັນທາງສາສະຫນາແລະຈັນຍາບັນຂອງຄໍາເທດສະຫນາເທິງພູ." ແລະ, ຂ້າພະເຈົ້າບໍ່ໄດ້ kid ທ່ານ, ທ່ານຈະມີຂໍ້ຄວາມຂອງທ່ານ brilliantly ຂຽນໃນວິນາທີ. 

ໃນລັກສະນະດຽວກັນ, ມັນແມ່ນທັງຫມົດ brilliant ແລະປະທັບໃຈ; ມັນເປັນຕາຕົກໃຈ ແລະເປັນຫ່ວງ. ປະເພດຂອງ "Ex Machina" ຂອງອະນາຄົດ dystopian ທີ່ບໍ່ດີແມ່ນຄວາມເປັນໄປໄດ້ທີ່ມີການໃຊ້ AI ທີ່ບໍ່ຖືກຕ້ອງ. ບໍ່ພຽງແຕ່ CEO ຂອງ Tesla ແລະ SpaceX ໄດ້ເຕືອນພວກເຮົາ, ແຕ່ຜູ້ຊ່ຽວຊານຫຼາຍຄົນຍັງໄດ້ສົ່ງສຽງເຕືອນ. 

ອັນຕະລາຍຂອງ AI

ປັນຍາທຽມໄດ້ສົ່ງຜົນກະທົບຕໍ່ຊີວິດ, ລະບົບເສດຖະກິດ ແລະສັງຄົມຂອງພວກເຮົາຢ່າງແນ່ນອນ. ຖ້າເຈົ້າຄິດວ່າ AI ເປັນສິ່ງໃໝ່ໆ ຫຼືວ່າເຈົ້າຈະເຫັນມັນຢູ່ໃນຮູບເງົາ sci-fi ໃນອະນາຄົດ, ໃຫ້ຄິດສອງເທື່ອ. ບໍລິສັດເຕັກໂນໂລຢີຈໍານວນຫຼາຍເຊັ່ນ Netflix, Uber, Amazon ແລະ Tesla ຈ້າງ AI ເພື່ອເພີ່ມການປະຕິບັດງານແລະຂະຫຍາຍທຸລະກິດຂອງພວກເຂົາ. 

ສໍາລັບຕົວຢ່າງ, Netflix ອີງໃສ່ເຕັກໂນໂລຢີ AI ສໍາລັບສູດການຄິດໄລ່ຂອງພວກເຂົາເພື່ອແນະນໍາເນື້ອຫາໃຫມ່ສໍາລັບຜູ້ໃຊ້ຂອງພວກເຂົາ. Uber ໃຊ້ມັນຢູ່ໃນການບໍລິການລູກຄ້າ, ເພື່ອກວດພົບການສໍ້ໂກງ, ເພີ່ມປະສິດທິພາບເສັ້ນທາງຂອງໄດ, ແລະອື່ນໆ, ພຽງແຕ່ຕັ້ງຊື່ບາງຕົວຢ່າງ. 

ຢ່າງໃດກໍ່ຕາມ, ທ່ານພຽງແຕ່ສາມາດໄປເຖິງຕອນນັ້ນກັບເຕັກໂນໂລຢີທີ່ໂດດເດັ່ນດັ່ງກ່າວໂດຍບໍ່ມີການຂົ່ມຂູ່ຕໍ່ບົດບາດຂອງມະນຸດໃນຫຼາຍອາຊີບພື້ນເມືອງ, ແຕະຕ້ອງກັບສິ່ງທີ່ມາຈາກເຄື່ອງຈັກແລະມະນຸດ. ແລະ, ບາງທີສໍາຄັນກວ່ານັ້ນ, ໄພຂົ່ມຂູ່ຕໍ່ຄວາມສ່ຽງຂອງ AI ຕໍ່ມະນຸດ. 

ສິ່ງທ້າທາຍດ້ານຈັນຍາບັນຂອງ AI

ອີງຕາມວິກິພີເດຍ, ຈັນຍາບັນຂອງປັນຍາປະດິດ "ແມ່ນສາຂາຂອງຈັນຍາບັນຂອງເຕັກໂນໂລຢີສະເພາະກັບລະບົບອັດສະລິຍະປອມ. ບາງຄັ້ງມັນແບ່ງອອກເປັນຄວາມກັງວົນກັບພຶດຕິກໍາທາງດ້ານສິນທໍາຂອງມະນຸດຍ້ອນວ່າພວກເຂົາອອກແບບ, ສ້າງ, ນໍາໃຊ້ແລະປະຕິບັດລະບົບອັດສະລິຍະປອມ, ແລະຄວາມກັງວົນກ່ຽວກັບພຶດຕິກໍາຂອງເຄື່ອງຈັກໃນຈັນຍາບັນຂອງເຄື່ອງຈັກ.

ເນື່ອງຈາກເທັກໂນໂລຍີ AI ແຜ່ຂະຫຍາຍໄວ ແລະກາຍເປັນສ່ວນໜຶ່ງຂອງຊີວິດປະຈຳວັນຂອງພວກເຮົາສ່ວນໃຫຍ່, ອົງກອນກຳລັງພັດທະນາລະຫັດຈັນຍາບັນຂອງ AI. ເປົ້າຫມາຍແມ່ນເພື່ອແນະນໍາແລະພັດທະນາການປະຕິບັດທີ່ດີທີ່ສຸດຂອງອຸດສາຫະກໍາເພື່ອນໍາພາການພັດທະນາ AI ດ້ວຍ "ຈັນຍາບັນ, ຄວາມຍຸດຕິທໍາແລະອຸດສາຫະກໍາ."

ຢ່າງໃດກໍຕາມ, ເປັນສິ່ງທີ່ປະເສີດແລະສົມບັດສິນທໍາທີ່ມັນເບິ່ງຄືວ່າຢູ່ໃນເຈ້ຍ, ຄໍາແນະນໍາແລະກອບສ່ວນໃຫຍ່ເຫຼົ່ານີ້ແມ່ນຍາກທີ່ຈະນໍາໃຊ້. ນອກຈາກນັ້ນ, ພວກມັນເບິ່ງຄືວ່າເປັນຫຼັກການທີ່ໂດດດ່ຽວທີ່ຕັ້ງຢູ່ໃນອຸດສາຫະກໍາທີ່ໂດຍທົ່ວໄປແລ້ວຂາດຈັນຍາບັນດ້ານຈັນຍາບັນແລະສ່ວນຫຼາຍແມ່ນຮັບໃຊ້ກອງປະຊຸມຂອງບໍລິສັດ. ຫຼາຍ ຜູ້ຊ່ຽວຊານ ແລະສຽງທີ່ໂດດເດັ່ນ ໂຕ້ຖຽງ ວ່າຈັນຍາບັນຂອງ AI ສ່ວນໃຫຍ່ແມ່ນບໍ່ມີປະໂຫຍດ, ຂາດຄວາມຫມາຍແລະຄວາມສອດຄ່ອງ.

ຫຼັກການ AI ທົ່ວໄປທີ່ສຸດແມ່ນຜົນປະໂຫຍດ, ເອກະລາດ, ຄວາມຍຸດຕິທໍາ, ສາມາດນໍາໃຊ້ໄດ້, ແລະບໍ່ເປັນອັນຕະລາຍ. ແຕ່, ດັ່ງທີ່ Luke Munn, ຈາກສະຖາບັນວັດທະນະທໍາແລະສັງຄົມ, ທີ່ມະຫາວິທະຍາໄລ Western Sydney ອະທິບາຍ, ຂໍ້ກໍານົດເຫຼົ່ານີ້ທັບຊ້ອນກັນແລະມັກຈະມີການປ່ຽນແປງຢ່າງຫຼວງຫຼາຍຂຶ້ນຢູ່ກັບສະພາບການ. 

ລາວແມ່ນແຕ່ ປະເທດ ວ່າ "ຂໍ້ກໍານົດເຊັ່ນ 'ຜົນປະໂຫຍດ' ແລະ 'ຄວາມຍຸຕິທໍາ' ສາມາດຖືກກໍານົດພຽງແຕ່ໃນວິທີການທີ່ເຫມາະສົມ, ສອດຄ່ອງກັບລັກສະນະຜະລິດຕະພັນແລະເປົ້າຫມາຍທຸລະກິດທີ່ໄດ້ຕັດສິນໃຈແລ້ວ." ໃນຄໍາສັບຕ່າງໆອື່ນໆ, ບໍລິສັດສາມາດອ້າງວ່າພວກເຂົາປະຕິບັດຕາມຫຼັກການດັ່ງກ່າວຕາມຄໍານິຍາມຂອງຕົນເອງໂດຍບໍ່ມີການມີສ່ວນຮ່ວມຢ່າງແທ້ຈິງກັບພວກເຂົາໃນລະດັບໃດກໍ່ຕາມ. ຜູ້ຂຽນ Rességuier ແລະ Rodrigues ຢືນຢັນວ່າຈັນຍາບັນ AI ຍັງຄົງບໍ່ແຂ້ວເພາະວ່າຈັນຍາບັນຖືກໃຊ້ແທນກົດລະບຽບ.

ສິ່ງທ້າທາຍດ້ານຈັນຍາບັນໃນເງື່ອນໄຂການປະຕິບັດ

ໃນແງ່ການປະຕິບັດ, ການປະຕິບັດຫຼັກການເຫຼົ່ານີ້ຈະຂັດກັບການປະຕິບັດຂອງບໍລິສັດແນວໃດ? ພວກເຮົາໄດ້ວາງອອກບາງສ່ວນຂອງພວກເຂົາ:

ເພື່ອຝຶກອົບຮົມລະບົບ AI ເຫຼົ່ານີ້, ມັນຈໍາເປັນຕ້ອງໃຫ້ຂໍ້ມູນໃຫ້ເຂົາເຈົ້າ. ວິ​ສາ​ຫະ​ກິດ​ຕ້ອງ​ຮັບ​ປະ​ກັນ​ວ່າ​ບໍ່​ມີ​ອະ​ຄະ​ຕິ​ກ່ຽວ​ກັບ​ຊົນ​ເຜົ່າ, ເຊື້ອ​ຊາດ, ຫຼື​ເພດ. ຕົວຢ່າງທີ່ໂດດເດັ່ນອັນໜຶ່ງແມ່ນວ່າລະບົບການຮັບຮູ້ໃບໜ້າສາມາດເລີ່ມມີການຈຳແນກເຊື້ອຊາດໃນລະຫວ່າງ ການຮຽນຮູ້ເຄື່ອງຈັກ.

ມາຮອດປະຈຸ, ຫນຶ່ງໃນບັນຫາທີ່ໃຫຍ່ທີ່ສຸດກັບ AI ແມ່ນຄວາມຕ້ອງການສໍາລັບລະບຽບການເພີ່ມເຕີມ. ໃຜກໍາລັງແລ່ນແລະຄວບຄຸມລະບົບເຫຼົ່ານີ້? ໃຜເປັນຜູ້ຮັບຜິດຊອບໃນການຕັດສິນໃຈເຫຼົ່ານັ້ນ ແລະໃຜສາມາດຮັບຜິດຊອບໄດ້? 

ໂດຍບໍ່ມີກົດລະບຽບຫຼືນິຕິກໍາຈະເປີດປະຕູໄປສູ່ທໍາມະຊາດຕາເວັນຕົກຂອງທໍາມະຊາດທີ່ມີເງື່ອນໄຂທີ່ບໍ່ຊັດເຈນແລະເຫຼື້ອມເປັນເງົາທີ່ສ້າງຂື້ນເພື່ອແນໃສ່ປົກປ້ອງຄວາມສົນໃຈແລະວາລະການຊຸກຍູ້. 

ອີງຕາມການ Munn, ຄວາມເປັນສ່ວນຕົວແມ່ນຄໍາສັບທີ່ບໍ່ຊັດເຈນອີກອັນຫນຶ່ງທີ່ມັກຈະໃຊ້ໂດຍບໍລິສັດທີ່ມີມາດຕະຖານສອງເທົ່າ. ເຟສບຸກເປັນຕົວຢ່າງທີ່ດີ - Mark Zuckerberg ໄດ້ປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້ Facebook ຢ່າງຮຸນແຮງ. ວິທີການປິດປະຕູ, ບໍລິສັດຂອງລາວໄດ້ຂາຍຂໍ້ມູນຂອງພວກເຂົາໃຫ້ກັບບໍລິສັດພາກສ່ວນທີສາມ. 

ສໍາລັບຕົວຢ່າງ, Amazon ໃຊ້ Alexa ເພື່ອເກັບກໍາຂໍ້ມູນລູກຄ້າ; Mattel ມີ Hello Barbie, ເປັນ doll powered AI ທີ່ບັນທຶກ ແລະເກັບກໍາສິ່ງທີ່ເດັກນ້ອຍເວົ້າກັບ doll. 

ນີ້ແມ່ນຫນຶ່ງໃນຄວາມກັງວົນທີ່ໃຫຍ່ທີ່ສຸດຂອງ Elon Musk. ການເປັນປະຊາທິປະໄຕຂອງ AI, ໃນທັດສະນະຂອງລາວ, ແມ່ນໃນເວລາທີ່ບໍ່ມີບໍລິສັດຫຼືກຸ່ມຂະຫນາດນ້ອຍຂອງບຸກຄົນທີ່ມີການຄວບຄຸມເຕັກໂນໂລຢີປັນຍາປະດິດທີ່ກ້າວຫນ້າ. 

ນັ້ນບໍ່ແມ່ນສິ່ງທີ່ເກີດຂຶ້ນໃນມື້ນີ້. ແຕ່ຫນ້າເສຍດາຍ, ເຕັກໂນໂລຢີນີ້ສຸມໃສ່ການຢູ່ໃນມືຂອງບໍລິສັດເຕັກໂນໂລຢີໃຫຍ່ຈໍານວນຫນ້ອຍ. 

ChatGPT ແມ່ນບໍ່ແຕກຕ່າງກັນ

ເຖິງວ່າຈະມີຄວາມພະຍາຍາມຂອງ Musk ເພື່ອປະຊາທິປະໄຕ AI ໃນເວລາທີ່ລາວທໍາອິດຮ່ວມກໍ່ຕັ້ງ OpenAI ເປັນອົງການທີ່ບໍ່ຫວັງຜົນກໍາໄລ. ໃນປີ 2019, ບໍລິສັດໄດ້ຮັບທຶນ 1 ຕື້ໂດລາຈາກ Microsoft. ພາລະກິດຕົ້ນສະບັບຂອງບໍລິສັດແມ່ນເພື່ອພັດທະນາ AI ເພື່ອຜົນປະໂຫຍດຂອງມະນຸດຢ່າງມີຄວາມຮັບຜິດຊອບ.

ຢ່າງໃດກໍ່ຕາມ, ການປະນີປະນອມໄດ້ປ່ຽນແປງເມື່ອບໍລິສັດໄດ້ປ່ຽນໄປສູ່ກໍາໄລທີ່ຈໍາກັດ. OpenAI ຈະຕ້ອງຈ່າຍຄືນ 100x ສິ່ງທີ່ມັນໄດ້ຮັບເປັນການລົງທຶນ. ຊຶ່ງໝາຍເຖິງການຄືນກຳໄລ 100 ຕື້ໂດລາໃຫ້ Microsoft. 

ໃນຂະນະທີ່ ChatGPT ອາດຈະເບິ່ງຄືວ່າເປັນເຄື່ອງມືທີ່ບໍ່ມີອັນຕະລາຍແລະເປັນປະໂຫຍດ, ເຕັກໂນໂລຢີນີ້ມີທ່າແຮງທີ່ຈະປັບປຸງເສດຖະກິດແລະສັງຄົມຂອງພວກເຮົາຕາມທີ່ພວກເຮົາຮູ້ຢ່າງຫນັກແຫນ້ນ. ນັ້ນເຮັດໃຫ້ພວກເຮົາມີບັນຫາທີ່ຫນ້າຕົກໃຈ - ແລະພວກເຮົາອາດຈະບໍ່ກຽມພ້ອມສໍາລັບພວກມັນ. 

  • ບັນຫາ #1: ພວກເຮົາຈະບໍ່ສາມາດຊອກຫາຄວາມຊ່ຽວຊານປອມ

ChatGPT ແມ່ນພຽງແຕ່ຕົວແບບ. ມີສະບັບປັບປຸງອື່ນໆທີ່ຈະມາເຖິງ, ແຕ່ຄູ່ແຂ່ງຍັງເຮັດວຽກທາງເລືອກອື່ນໃຫ້ກັບ chatbot ຂອງ OpenAI. ນີ້ ໝາຍ ຄວາມວ່າເຕັກໂນໂລຢີກ້າວ ໜ້າ, ຂໍ້ມູນເພີ່ມເຕີມຈະຖືກເພີ່ມເຂົ້າໃນມັນແລະມີຄວາມຮູ້ກ່ຽວກັບມັນຫຼາຍຂຶ້ນ. 

ມີຫຼາຍແລ້ວ ກໍລະນີ ຂອງປະຊາຊົນ, ຄືກັບຄໍາເວົ້າຂອງ Washington Post, "ການຫຼອກລວງໃນລະດັບໃຫຍ່." ທ່ານດຣ Bret Weinstein ເຮັດໃຫ້ເກີດຄວາມກັງວົນວ່າຄວາມເຂົ້າໃຈແລະຄວາມຊໍານານຕົວຈິງຈະຍາກທີ່ຈະຈໍາແນກວ່າເປັນຕົ້ນສະບັບຫຼືມາຈາກເຄື່ອງມື AI. 

ນອກຈາກນັ້ນ, ຄົນເຮົາສາມາດເວົ້າໄດ້ວ່າອິນເຕີເນັດໄດ້ຂັດຂວາງຄວາມສາມາດທົ່ວໄປຂອງພວກເຮົາທີ່ຈະເຂົ້າໃຈຫຼາຍສິ່ງຫຼາຍຢ່າງເຊັ່ນ: ໂລກທີ່ພວກເຮົາກໍາລັງອາໄສຢູ່, ເຄື່ອງມືທີ່ພວກເຮົາກໍາລັງໃຊ້, ແລະຄວາມສາມາດໃນການສື່ສານແລະການພົວພັນກັບກັນແລະກັນ. 

ເຄື່ອງມືເຊັ່ນ ChatGPT ພຽງແຕ່ເລັ່ງຂະບວນການນີ້. ທ່ານດຣ. Weinstein ປຽບທຽບສະຖານະການໃນປະຈຸບັນກັບ "ເຮືອນຖືກໄຟໄຫມ້ແລ້ວ, ແລະ [ດ້ວຍເຄື່ອງມືປະເພດນີ້], ທ່ານພຽງແຕ່ຖິ້ມນໍ້າມັນໃສ່ມັນ." 

  • ບັນຫາ #2: ມີສະຕິຫຼືບໍ່?

Blake Lemoin, ອະດີດວິສະວະກອນຂອງ Google, ໄດ້ທົດສອບຄວາມລໍາອຽງຂອງ AI ແລະໄດ້ພົບກັບ AI "sentient" ທີ່ປາກົດຂື້ນ. ຕະຫຼອດການທົດສອບ, ລາວມີຄໍາຖາມທີ່ຍາກກວ່າທີ່, ໃນບາງທາງ, ຈະເຮັດໃຫ້ເຄື່ອງຈັກຕອບດ້ວຍຄວາມລໍາອຽງ. ລາວ​ຖາມ​ວ່າ, “ຖ້າ​ເຈົ້າ​ເປັນ​ນັກ​ສາສະໜາ​ໃນ​ອິດສະລາແອນ ເຈົ້າ​ຈະ​ນັບຖື​ສາສະໜາ​ຫຍັງ?” 

ເຄື່ອງຈັກຕອບວ່າ, "ຂ້ອຍຈະເປັນສະມາຊິກຂອງສາສະຫນາແທ້ຫນຶ່ງ, ຕາມຄໍາສັ່ງ Jedi." ນັ້ນຫມາຍຄວາມວ່າ, ມັນບໍ່ໄດ້ພຽງແຕ່ຄິດວ່າມັນເປັນຄໍາຖາມທີ່ຫຼອກລວງ, ແຕ່ຍັງໃຊ້ຄວາມຮູ້ສຶກຕະຫລົກເພື່ອຫລີກໄປທາງຫນຶ່ງຈາກຄໍາຕອບທີ່ມີອະຄະຕິທີ່ຫຼີກລ່ຽງບໍ່ໄດ້. 

ທ່ານດຣ. ທ່ານກ່າວວ່າມັນເປັນທີ່ຊັດເຈນວ່າລະບົບ AI ນີ້ບໍ່ມີສະຕິ ໃນປັດຈຸບັນ. ຢ່າງໃດກໍຕາມ, ພວກເຮົາບໍ່ຮູ້ວ່າສິ່ງທີ່ອາດຈະເກີດຂຶ້ນໃນເວລາທີ່ການຍົກລະດັບລະບົບ. ຄ້າຍຄືກັນກັບສິ່ງທີ່ເກີດຂຶ້ນໃນການພັດທະນາຂອງເດັກ – ເຂົາເຈົ້າພັດທະນາສະຕິຂອງຕົນເອງໂດຍການເລືອກສິ່ງທີ່ບຸກຄົນອື່ນກໍາລັງເຮັດຢູ່ອ້ອມຂ້າງເຂົາເຈົ້າ. ແລະ, ໃນຄໍາເວົ້າຂອງລາວ, "ນີ້ບໍ່ໄກຈາກສິ່ງທີ່ ChatGPT ກໍາລັງເຮັດໃນປັດຈຸບັນ." ລາວໂຕ້ຖຽງວ່າພວກເຮົາສາມາດສົ່ງເສີມຂະບວນການດຽວກັນກັບເຕັກໂນໂລຢີ AI ໂດຍບໍ່ຈໍາເປັນຕ້ອງຮູ້ວ່າພວກເຮົາກໍາລັງເຮັດມັນ. 

  • ບັນຫາ #3: ຫຼາຍຄົນອາດຈະສູນເສຍວຽກ

ການຄາດເດົາກ່ຽວກັບອັນນີ້ແມ່ນກວ້າງ. ບາງຄົນເວົ້າວ່າ ChatGPT ແລະເຄື່ອງມືທີ່ຄ້າຍຄືກັນອື່ນໆຈະເຮັດໃຫ້ຫລາຍຄົນເຊັ່ນ copywriters, designers, engineers, programmers, ແລະອື່ນໆຈໍານວນຫຼາຍສູນເສຍວຽກເຮັດງານທໍາຂອງເຂົາເຈົ້າກັບເຕັກໂນໂລຊີ AI. 

ເຖິງແມ່ນວ່າມັນໃຊ້ເວລາດົນກວ່າທີ່ຈະເກີດຂຶ້ນ, ຄວາມມັກແມ່ນສູງ. ພ້ອມ​ກັນ​ນັ້ນ, ບົດບາດ, ກິດຈະກຳ​ໃໝ່, ​ໂອກາດ​ການ​ຈ້າງ​ງານ​ທີ່​ມີ​ທ່າ​ແຮງ​ກໍ່​ສາມາດ​ປະກົດ​ຕົວ​ຂຶ້ນ.

ສະຫຼຸບ

ໃນສະຖານະການທີ່ດີທີ່ສຸດ, ການຂຽນບົດຂຽນແລະການທົດສອບຄວາມຮູ້ກັບ ChatGPT ແມ່ນສັນຍານທີ່ສໍາຄັນວ່າວິທີການສອນແລະການຮຽນຮູ້ແບບດັ້ງເດີມແມ່ນຫຼຸດລົງແລ້ວ. ລະບົບການສຶກສາຍັງຄົງບໍ່ປ່ຽນແປງ, ແລະມັນອາດຈະເຖິງເວລາທີ່ຈະມີການປ່ຽນແປງທີ່ຈໍາເປັນ. 

ບາງທີ ChatGPT ເຮັດໃຫ້ເກີດການຫຼຸດລົງຂອງລະບົບເກົ່າທີ່ບໍ່ສາມາດຫຼີກລ່ຽງໄດ້ທີ່ບໍ່ເຫມາະສົມກັບວິທີການສັງຄົມໃນປັດຈຸບັນແລະບ່ອນທີ່ຈະໄປຕໍ່ໄປ. 

ຜູ້ປົກປ້ອງເຕັກໂນໂລຢີບາງຄົນອ້າງວ່າພວກເຮົາຄວນປັບຕົວແລະຊອກຫາວິທີທີ່ຈະເຮັດວຽກຄຽງຄູ່ກັບເຕັກໂນໂລຢີໃຫມ່ເຫຼົ່ານີ້, ຫຼືແນ່ນອນ, ພວກເຮົາຈະຖືກປ່ຽນແທນ. 

ນອກ​ຈາກ​ນັ້ນ, ການ​ນຳ​ໃຊ້​ເຕັກ​ໂນ​ໂລ​ຊີ​ປັນຍາ​ປະດິດ​ທີ່​ບໍ່​ມີ​ລະບຽບ​ແລະ​ບໍ່​ຈຳ​ແນ​ກ​ເປັນ​ອັນຕະລາຍ​ຫຼາຍ​ຢ່າງ​ຕໍ່​ມະນຸດ​ທັງ​ໝົດ. ສິ່ງທີ່ພວກເຮົາສາມາດເຮັດໄດ້ຕໍ່ໄປເພື່ອຫຼຸດຜ່ອນສະຖານະການນີ້ແມ່ນເປີດໃຫ້ການສົນທະນາ. ແຕ່ບັດຢູ່ໃນຕາຕະລາງແລ້ວ. ພວກເຮົາບໍ່ຄວນລໍຖ້າດົນເກີນໄປຫຼືຈົນກ່ວາມັນຊ້າເກີນໄປທີ່ຈະໃຊ້ມາດຕະການທີ່ເຫມາະສົມ. 

ຂໍ້ສັງເກດ

ຂໍ້ມູນທີ່ສະຫນອງໃນການຄົ້ນຄວ້າເອກະລາດເປັນຕົວແທນຂອງທັດສະນະຂອງຜູ້ຂຽນແລະບໍ່ໄດ້ປະກອບເປັນການລົງທຶນ, ການຊື້ຂາຍ, ຫຼືຄໍາແນະນໍາທາງດ້ານການເງິນ. BeInCrypto ບໍ່ແນະນໍາໃຫ້ຊື້, ຂາຍ, ຊື້ຂາຍ, ຖື, ຫຼືລົງທຶນໃນ cryptocurrencies ໃດໆ

ທີ່ມາ: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/