ຜູ້ຊ່ຽວຊານດ້ານປັນຍາປະດິດ (AI) ຫຼາຍສິບຄົນ, ລວມທັງ CEOs ຂອງ OpenAI, Google DeepMind ແລະ Anthropic, ບໍ່ດົນມານີ້ໄດ້ລົງນາມໃນຄໍາຖະແຫຼງທີ່ເປີດເຜີຍໂດຍສູນຄວາມປອດໄພ AI (CAIS).
ພວກເຮົາພຽງແຕ່ອອກຖະແຫຼງການ:
"ການຫຼຸດຜ່ອນຄວາມສ່ຽງຕໍ່ການສູນພັນຈາກ AI ຄວນເປັນບູລິມະສິດທົ່ວໂລກຄຽງຄູ່ກັບຄວາມສ່ຽງໃນສັງຄົມອື່ນໆເຊັ່ນ: ໂລກລະບາດແລະສົງຄາມນິວເຄຼຍ."
ຜູ້ລົງນາມປະກອບມີ Hinton, Bengio, Altman, Hassabis, Song, ແລະອື່ນໆ https://t.co/N9f6hs4bpa
(1 / 6)
— Dan Hendrycks (@DanHendrycks) ອາດ 30, 2023
ຄໍາຖະແຫຼງທີ່ປະກອບດ້ວຍປະໂຫຍກດຽວ:
"ການຫຼຸດຜ່ອນຄວາມສ່ຽງຕໍ່ການສູນພັນຈາກ AI ຄວນເປັນບູລິມະສິດທົ່ວໂລກຄຽງຄູ່ກັບຄວາມສ່ຽງໃນສັງຄົມອື່ນໆເຊັ່ນ: ໂລກລະບາດແລະສົງຄາມນິວເຄຼຍ."
ໃນບັນດາຜູ້ລົງນາມໃນເອກະສານແມ່ນ "ໃຜເປັນຜູ້ທີ່" ທີ່ແທ້ຈິງຂອງ AI luminaries, ລວມທັງ "Godfather" ຂອງ AI, Geoffrey Hinton; ມະຫາວິທະຍາໄລຄາລິຟໍເນຍ, Stuart Russell ຂອງ Berkeley; ແລະ Lex Fridman ຂອງສະຖາບັນເຕັກໂນໂລຊີ Massachusetts. ນັກດົນຕີ Grimes ຍັງເປັນຜູ້ລົງນາມ, ພາຍໃຕ້ຫມວດ "ຕົວເລກທີ່ໂດດເດັ່ນອື່ນໆ".
ທີ່ກ່ຽວຂ້ອງ: ນັກດົນຕີ Grimes ເຕັມໃຈທີ່ຈະ 'ແບ່ງຄ່າພາກຫຼວງ 50%' ດ້ວຍດົນຕີທີ່ສ້າງຂຶ້ນໂດຍ AI
ໃນຂະນະທີ່ຄໍາຖະແຫຼງດັ່ງກ່າວອາດຈະເບິ່ງຄືວ່າບໍ່ມີເຫດຜົນຢູ່ໃນຫນ້າດິນ, ຂໍ້ຄວາມທີ່ຕິດພັນແມ່ນເປັນຂໍ້ຂັດແຍ້ງບາງຢ່າງໃນຊຸມຊົນ AI.
ຈໍານວນຜູ້ຊ່ຽວຊານທີ່ເບິ່ງຄືວ່າເພີ່ມຂຶ້ນເຊື່ອວ່າເຕັກໂນໂລຢີໃນປະຈຸບັນອາດຈະນໍາໄປສູ່ການປະກົດຕົວຫຼືການພັດທະນາຂອງລະບົບ AI ທີ່ສາມາດສ້າງໄພຂົ່ມຂູ່ທີ່ມີຢູ່ແລ້ວຕໍ່ຊະນິດຂອງມະນຸດ.
ຄວາມຄິດເຫັນຂອງເຂົາເຈົ້າ, ແນວໃດກໍ່ຕາມ, ແມ່ນ countered ໂດຍ contingent ຂອງຜູ້ຊ່ຽວຊານທີ່ມີຄວາມຄິດເຫັນກົງກັນຂ້າມ diametrically. ສໍາລັບຕົວຢ່າງ, ຫົວຫນ້າວິທະຍາສາດ AI Yann LeCun, ຫົວຫນ້າ Meta ໄດ້ສັງເກດເຫັນໃນຫຼາຍໆຄັ້ງວ່າລາວບໍ່ຈໍາເປັນຕ້ອງເຊື່ອວ່າ AI ຈະກາຍເປັນທີ່ບໍ່ສາມາດຄວບຄຸມໄດ້.
AI Super-human ບໍ່ມີບ່ອນໃດຢູ່ໃກ້ກັບຈຸດສູງສຸດຂອງບັນຊີລາຍຊື່ຄວາມສ່ຽງທີ່ມີຢູ່ແລ້ວ.
ສ່ວນໃຫຍ່ເນື່ອງຈາກວ່າມັນຍັງບໍ່ທັນມີ.ຈົນກ່ວາພວກເຮົາມີການອອກແບບພື້ນຖານສໍາລັບ AI ລະດັບຫມາ (ປ່ອຍໃຫ້ຢູ່ຄົນດຽວໃນລະດັບມະນຸດ), ການສົນທະນາວິທີການເຮັດໃຫ້ມັນປອດໄພແມ່ນໄວກ່ອນໄວອັນຄວນ. https://t.co/ClkZxfofV9
— Yann LeCun (@yecun) ອາດ 30, 2023
ສໍາລັບລາວແລະຜູ້ອື່ນທີ່ບໍ່ເຫັນດີກັບຄໍາເວົ້າ "ການສູນພັນ", ເຊັ່ນ Andrew Ng, ຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Google Brain ແລະອະດີດຫົວຫນ້າວິທະຍາສາດຂອງ Baidu, AI ບໍ່ແມ່ນບັນຫາ, ມັນແມ່ນຄໍາຕອບ.
ໃນອີກດ້ານຫນຶ່ງຂອງການໂຕ້ຖຽງ, ຜູ້ຊ່ຽວຊານເຊັ່ນ Hinton ແລະ Conjecture CEO Connor Leahy ເຊື່ອວ່າ AI ລະດັບມະນຸດແມ່ນຫລີກລ້ຽງບໍ່ໄດ້ແລະດັ່ງນັ້ນ, ເວລາທີ່ຈະປະຕິບັດແມ່ນໃນປັດຈຸບັນ.
ຫົວຫນ້າຫ້ອງທົດລອງ AI ທີ່ສໍາຄັນທັງຫມົດໄດ້ລົງນາມໃນຈົດຫມາຍສະບັບນີ້ໄດ້ຮັບຮູ້ຢ່າງຈະແຈ້ງກ່ຽວກັບຄວາມສ່ຽງຕໍ່ການສູນພັນຈາກ AGI.
ກ້າວໄປໜ້າຢ່າງບໍ່ໜ້າເຊື່ອ, ຂໍສະແດງຄວາມຍິນດີກັບ Dan ສໍາລັບວຽກງານອັນບໍ່ຫນ້າເຊື່ອຂອງລາວທີ່ເຮັດສິ່ງນີ້ຮ່ວມກັນ ແລະ ຂອບໃຈຜູ້ລົງນາມທຸກຄົນທີ່ເຮັດໜ້າທີ່ຂອງເຂົາເຈົ້າເພື່ອອະນາຄົດທີ່ດີຂຶ້ນ! https://t.co/KDkqWvdJcH
— Connor Leahy (@NPCollapse) ອາດ 30, 2023
ເຖິງຢ່າງໃດກໍ່ຕາມ, ມັນຍັງບໍ່ຈະແຈ້ງເທື່ອວ່າບັນດາຜູ້ລົງນາມໃນຖະແຫຼງການຮຽກຮ້ອງຕ້ອງການຫຍັງ. CEOs ແລະ / ຫຼືຫົວຫນ້າຂອງ AI ສໍາລັບເກືອບທຸກບໍລິສັດ AI ທີ່ສໍາຄັນ, ເຊັ່ນດຽວກັນກັບນັກວິທະຍາສາດທີ່ມີຊື່ສຽງຈາກທົ່ວສະຖາບັນການສຶກສາ, ແມ່ນຢູ່ໃນບັນດາຜູ້ທີ່ໄດ້ລົງນາມ, ເຮັດໃຫ້ມັນຊັດເຈນວ່າເຈດຕະນາຈະບໍ່ຢຸດການພັດທະນາລະບົບອັນຕະລາຍເຫຼົ່ານີ້.
ໃນຕົ້ນເດືອນນີ້, CEO Sam Altman ຂອງ OpenAI, ຫນຶ່ງໃນຜູ້ລົງນາມໃນຄໍາຖະແຫຼງທີ່ໄດ້ກ່າວມາຂ້າງເທິງ, ໄດ້ປາກົດຕົວຄັ້ງທໍາອິດຂອງຕົນຕໍ່ກອງປະຊຸມສະພາໃນລະຫວ່າງການໄຕ່ສວນຂອງວຽງຈັນຝົນເພື່ອປຶກສາຫາລືກ່ຽວກັບກົດລະບຽບ AI. ປະຈັກພະຍານຂອງລາວເຮັດໃຫ້ຫົວຂໍ້ຂ່າວຫຼັງຈາກທີ່ລາວໃຊ້ເວລາສ່ວນໃຫຍ່ຮຽກຮ້ອງໃຫ້ຜູ້ສ້າງກົດຫມາຍຄວບຄຸມອຸດສາຫະກໍາຂອງລາວ.
Altman's Worldcoin, ໂຄງການທີ່ປະສົມປະສານ cryptocurrency ແລະການພິສູດຂອງບຸກຄົນ, ບໍ່ດົນມານີ້ໄດ້ດໍາເນີນຮອບສື່ມວນຊົນຫຼັງຈາກການລະດົມທຶນ $ 115 ລ້ານໃນ Series C, ເຮັດໃຫ້ການສະຫນອງທຶນທັງຫມົດຫຼັງຈາກສາມຮອບເປັນ $ 240 ລ້ານ.
ທີ່ມາ: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war