ການໂຕ້ຖຽງກັນວ່າ Tesla FSD ຈະແລ່ນຂ້າມເດັກນ້ອຍຫຼືເດັກຂີ້ຕົວະຂາດຈຸດ

A ວິດີໂອທີ່ຜ່ານມາ ຈາກ TeslaTSLA
- ນັກວິຈານ Dan O'Dowd ຂອງ "ໂຄງການອາລຸນ" ສະແດງໃຫ້ເຫັນເສັ້ນທາງການທົດສອບທີ່ມີເສັ້ນທາງທີ່ເຮັດດ້ວຍໂກນດອກ. ຢູ່ທີ່ນັ້ນ, ຄົນຂັບລົດທີ່ໃຊ້ຕົ້ນແບບ FSD ຂອງ Tesla ຂັບລົດໄປຫາເດັກນ້ອຍ crash-dummy ແລະຕີມັນ. ມັນໄດ້ຖືກໂຕ້ຖຽງວ່າ Telsa FSD ບໍ່ໄດ້ຫ້າມລໍ້ສໍາລັບເດັກນ້ອຍທີ່ຫນ້າເຊື່ອຖື. ນັກວິຈານຂອງ O'Dowd ກ່າວຫາວ່າວິດີໂອຖືກປອມແປງຫຼືສ້າງບໍ່ດີ, ແລະບາງຄົນໄດ້ເຮັດການສາທິດຂອງຕົນເອງ, ລວມທັງ, ເພື່ອຄວາມທຸກທໍລະມານຂອງທຸກຄົນ, ເຮັດການທົດສອບກັບເດັກນ້ອຍ "ອາສາສະຫມັກ" ທີ່ແທ້ຈິງ. ຈໍານວນຫນ້ອຍທີ່ພິຈາລະນາຄໍາຖາມທີ່ວ່າເຄື່ອງຕົ້ນແບບເຊັ່ນ Tesla FSD ຄວນຈະເປັນເບກທີ່ຫນ້າເຊື່ອຖືສໍາລັບເດັກນ້ອຍ, ເຊິ່ງເປັນບັນຫາທີ່ຫນ້າສົນໃຈແທ້ໆ.

O'Dowd ໄດ້ຂຽນເລື້ອຍໆວ່າລາວຕ້ອງການໃຫ້ Tesla FSD ຫ້າມ. ຂ້າພະເຈົ້າໄດ້ກວມເອົາການໂຄສະນາຂອງລາວກ່ອນຫນ້ານີ້, ແລະບໍ່ດົນມານີ້ລາວໄດ້ດໍາເນີນການສໍາລັບການແຕ່ງຕັ້ງວຽງຈັນຝົນຂອງຄາລິຟໍເນຍພຽງແຕ່ດໍາເນີນການໂຄສະນາການໂຄສະນາຕ້ານ Tesla FSD. ລາວໄດ້ຍົກຄວາມໂກດແຄ້ນຂອງ Elon Musk ແລະຊຸມຊົນທີ່ສົ່ງເສີມ Tesla ໂດຍທໍາມະຊາດ. ດັ່ງ​ນັ້ນ​ຈຶ່ງ​ມີ​ການ​ປະ​ທະ​ກັນ​ໃນ​ທັນ​ທີ. ວິດີໂອຕົ້ນສະບັບທີ່ເຊື່ອມຕໍ່ຂ້າງເທິງບໍ່ໄດ້ສະແດງ FSD ເປີດໃຊ້, ເຖິງແມ່ນວ່າການປ່ອຍຕໍ່ມາສະແດງໃຫ້ເຫັນວ່າມັນແມ່ນ. ບາງຄົນແນະນໍາວ່າຍາກທີ່ຈະອ່ານຮູບພາບຫນ້າຈໍກ່າວວ່າຜູ້ຂັບຂີ່ກໍາລັງຖື pedal. ຂໍ້​ມູນ​ອື່ນໆ​ສະ​ແດງ​ໃຫ້​ເຫັນ​ວ່າ​ລົດ​ຊ້າ​ລົງ​ຫຼື​ອອກ​ຄໍາ​ເຕືອນ​, ແລະ​ການ​ໂຕ້​ຖຽງ​ໄດ້​ກັບ​ຄືນ​ໄປ​ບ່ອນ​ວ່າ​ການ​ສາ​ທິດ​ແມ່ນ​ແທ້​ຈິງ​.

ການໂຄສະນາ

ການສາທິດໄດ້ຖືກເລືອກໃຫ້ເປັນການກະຕຸ້ນ, ເນື່ອງຈາກວ່າບໍ່ມີຫຍັງເປັນຕາຢ້ານຫຼາຍກ່ວາລົດຕີເດັກນ້ອຍ. ເດັກນ້ອຍ 3 ຄົນເສຍຊີວິດໃນອຸບັດຕິເຫດລົດໃຫຍ່ໃນແຕ່ລະວັນໃນສະຫະລັດ, ແລະໃນແຕ່ລະປີມີເດັກນ້ອຍຍ່າງທາງປະມານ 170 ຄົນເສຍຊີວິດຍ້ອນລົດໃຫຍ່. ສໍາລັບຫຼາຍໆຄົນ, ປະຕິກິລິຍາແມ່ນວ່າບໍ່ມີເຕັກໂນໂລຢີໃດໆທີ່ຈະແລ່ນຜ່ານເດັກນ້ອຍທີ່ຍອມຮັບໄດ້. NHTHT
SA ໄດ້ເລີ່ມຕົ້ນການສືບສວນກ່ຽວກັບການຕິດຕັ້ງ Tesla Autopilot (ເຊິ່ງເປັນຜະລິດຕະພັນທີ່ປ່ອຍອອກມາ) ແລະກໍາລັງເລີ່ມເບິ່ງຕົວແບບ FSD. ຄົນອື່ນ, ເຊັ່ນ Ralph Nader, ຍັງໄດ້ໂທຫາເພື່ອເອົາຕົວແບບ FSD ອອກຈາກຖະຫນົນ. ຫຼັງຈາກປະຊາຊົນຈໍານວນນ້ອຍຫຼາຍເຮັດການທົດສອບຄືນໃຫມ່ກັບເດັກນ້ອຍທີ່ແທ້ຈິງ, NHTSA ໄດ້ອອກຄໍາເຕືອນບໍ່ໃຫ້ເຮັດແນວນີ້, ແລະ Youtube ດຶງວິດີໂອຂອງຄົນເຮັດມັນ. Tesla ໄດ້ລາຍງານວ່າໄດ້ຮ້ອງຂໍໃຫ້ວິດີໂອຂອງລົດຂອງເຂົາເຈົ້າຕີ dummy ການທົດສອບຍັງໄດ້ຖືກໂຍກຍ້າຍອອກ. ໜັງສືພິມ Washington Post ລາຍງານວ່າເຫັນຈົດໝາຍຢຸດຕິການຢຸດຕິຈາກ Tesla.

ບັນຫານີ້ແມ່ນສັບສົນຫຼາຍ, ແລະບໍ່ແມ່ນເລື່ອງຜິດປົກກະຕິເກີນໄປ, ບໍ່ມີໃຜໄດ້ຮັບມັນຢ່າງຖືກຕ້ອງ. ລະບົບ FSD, ເຖິງແມ່ນວ່າເອີ້ນວ່າ beta, ແມ່ນເອີ້ນວ່າ prototype ໄດ້ຢ່າງຖືກຕ້ອງກວ່າ. ຕົວແບບການຂັບລົດດ້ວຍຕົນເອງ (ແລະເບຕ້າ) ຈໍາເປັນຕ້ອງມີການທົດສອບຈໍານວນຫລາຍຢູ່ເທິງຖະຫນົນໃນທັດສະນະຂອງຜູ້ພັດທະນາສ່ວນໃຫຍ່, ແລະທີມງານທຸກຄົນເຮັດສິ່ງນີ້, ໂດຍມີ "ຜູ້ຂັບຂີ່ຄວາມປອດໄພ" ຂອງມະນຸດຕິດຕາມລະບົບແລະແຊກແຊງຢ່າງເປັນປົກກະຕິເມື່ອມັນເຮັດຜິດພາດເພື່ອປ້ອງກັນເຫດການ. Tesla ແມ່ນຜິດປົກກະຕິທີ່ມັນອະນຸຍາດໃຫ້ລູກຄ້າທົ່ວໄປເຂົ້າຮ່ວມໃນການທົດສອບນີ້, ໃນຂະນະທີ່ບໍລິສັດອື່ນໆທັງຫມົດມີພະນັກງານ, ການຝຶກອົບຮົມໃນລະດັບໃດຫນຶ່ງເຮັດວຽກນີ້, ແລະໂດຍທົ່ວໄປແລ້ວມີພະນັກງານ 2 ຄົນຕໍ່ຍານພາຫະນະ.

ຕົວແບບ, ໂດຍທໍາມະຊາດຂອງມັນ, ລົ້ມເຫລວ, ລວມທັງສິ່ງທີ່ສໍາຄັນເຊັ່ນການຢຸດສໍາລັບຄົນຍ່າງໃນຖະຫນົນ. ທຸກໆທີມຈາກທີ່ດີທີ່ສຸດເຊັ່ນ Waymo ລົງໄປຈົນເຖິງທີ່ຮ້າຍແຮງທີ່ສຸດ, ໄດ້ວາງຍານພາຫະນະຢູ່ເທິງຖະຫນົນເຊິ່ງມັກຈະເຮັດບາງສິ່ງບາງຢ່າງທີ່ບໍ່ດີຢ່າງຮ້າຍແຮງຍົກເວັ້ນການແຊກແຊງ., ແລະສ່ວນໃຫຍ່ຮູ້ສຶກວ່າການທົດສອບຍານພາຫະນະໃນຂັ້ນຕອນຕົ້ນດັ່ງກ່າວເປັນແລະຍັງມີຄວາມຈໍາເປັນເພື່ອເຮັດໃຫ້ຄວາມຄືບຫນ້າແລະໃນທີ່ສຸດກໍໃຊ້ລົດໄດ້. ເມື່ອຖືກນໍາໄປໃຊ້ແລ້ວ, ລົດຈະມີຄຸນນະພາບສູງກວ່າຫຼາຍ ແລະຊ່ວຍຊີວິດຄົນໄດ້ຫຼາຍ - ດັ່ງນັ້ນທຸກຄົນຕ້ອງການໃຫ້ການຕິດຕັ້ງດັ່ງກ່າວເກີດຂຶ້ນໄວເທົ່າທີ່ຈະໄວໄດ້, ແຕ່ມີຫຼາຍບັນຫາທີ່ຈະປຶກສາຫາລືກ່ຽວກັບວິທີການທີ່ພວກເຮົາໄປເຖິງຈຸດນັ້ນ ແລະເມື່ອພວກເຮົາໄປຮອດຈຸດນັ້ນ. ມັນ.

ການໂຄສະນາ

Driver Assist vs. ການຂັບລົດດ້ວຍຕົນເອງ

ນອກເຫນືອໄປຈາກຄໍາຖາມທີ່ວ່າ Tesla ນໍາໃຊ້ລູກຄ້າເພື່ອທົດສອບຕົ້ນແບບຂອງພວກເຂົາແມ່ນຄວາມຄິດທີ່ດີ, ຫຼາຍບັນຫາກ່ຽວຂ້ອງກັບຄວາມແຕກຕ່າງລະຫວ່າງລະບົບການຊ່ວຍເຫຼືອຜູ້ຂັບຂີ່, ເຊິ່ງກ່ຽວຂ້ອງກັບການຂັບເຄື່ອນຂອງມະນຸດຢ່າງເຕັມທີ່, ແຕ່ການເບິ່ງແຍງລະບົບຫຼາຍກວ່າການເຄື່ອນຍ້າຍທາງດ້ານຮ່າງກາຍ. ການຄວບຄຸມ, ແລະລະບົບການຂັບລົດດ້ວຍຕົນເອງ, ທີ່ບໍ່ຈໍາເປັນຕ້ອງມີການຊີ້ນໍາຂອງມະນຸດ (ແລະແທ້ຈິງແລ້ວ, ຍານພາຫະນະສາມາດແລ່ນກັບບໍ່ມີໃຜຢູ່ໃນມັນ.)

ພາຍໃນອຸດສາຫະກໍາຈໍານວນຫຼາຍຮູ້ສຶກວ່າເຫຼົ່ານີ້ແມ່ນສອງສິ່ງທີ່ແຕກຕ່າງກັນຫຼາຍ, ແລະວ່າມັນເປັນຄວາມຜິດພາດສໍາລັບ NHTSA ທີ່ຈະປະກາດໃຫ້ເຂົາເຈົ້າເປັນພຽງແຕ່ສອງລະດັບທີ່ແຕກຕ່າງກັນຂອງເຕັກໂນໂລຊີອັດຕະໂນມັດ. Sterling Anderson, ຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Aurora self-driving, ຄິດວ່າການຍ້າຍຈາກ driver assist (ຫຼື ADAS, for advanced driver assist) to self-driving is like to see the moon by building taller ladders.

ລະບົບການຊ່ວຍເຫຼືອຜູ້ຂັບຂີ່ແບບພິເສດອັນທໍາອິດທີ່ໃຫ້ຄົນເອົາຕີນອອກຈາກ pedals ແມ່ນການຄວບຄຸມ cruise, ໂດຍສະເພາະການຄວບຄຸມ cruise ທີ່ສາມາດປັບຕົວໄດ້. ຕໍ່ມາ, lanekeeping ມາຮອດທີ່ຊ່ວຍໃຫ້ທ່ານເອົາມືຂອງທ່ານອອກຈາກລໍ້, ແລະໃນໄວໆນີ້ທັງສອງໄດ້ຖືກລວມເຂົ້າກັນໃນຜະລິດຕະພັນເຊັ່ນ Tesla "Autopilot." ໃນ​ຖາ​ນະ​ເປັນ ADAS (ການ​ຊ່ວຍ​ເຫຼືອ​ຄົນ​ຂັບ​) ເຄື່ອງ​ມື​ເຫຼົ່າ​ນີ້​ແມ່ນ​ຫມາຍ​ຄວາມ​ວ່າ​ຈະ​ຖືກ​ນໍາ​ໃຊ້​ຢ່າງ​ເຕັມ​ທີ່​.

ການໂຄສະນາ

ໃນຂະນະທີ່ບໍ່ແມ່ນທຸກຄົນເຊື່ອມັນໃນຕອນທໍາອິດ, ການສະຫລຸບໂດຍທົ່ວໄປໃນມື້ນີ້ແມ່ນວ່າລະບົບເຫຼົ່ານີ້ເຮັດວຽກ, ແລະບໍ່ສ້າງອັນຕະລາຍໃນຖະຫນົນຫົນທາງ. ປະຊາຊົນມີຄວາມສົງໃສວ່າແມ່ນແຕ່ການຄວບຄຸມ cruise ພື້ນຖານໃນຕອນທໍາອິດ, ແຕ່ທັນທີທັນໃດມັນໄດ້ກາຍເປັນລັກສະນະທົ່ວໄປຫຼາຍໃນລົດ.

Tesla Autopilot ໄດ້ຕັ້ງຄໍາຖາມໃຫມ່ສໍາລັບເຫດຜົນຕ່າງໆ, ແຕ່ບັນຫາທີ່ຫນ້າສົນໃຈທີ່ສຸດແມ່ນກ່ຽວຂ້ອງກັບຄວາມຈິງທີ່ວ່າແມ່ນດີກວ່າຢ່າງຊັດເຈນໃນການເຮັດວຽກກັບຜະລິດຕະພັນກ່ອນຫນ້າ, ລວມທັງການຄວບຄຸມການລ່ອງເຮືອທີ່ງ່າຍດາຍ - ແຕ່ຄວາມເຫນືອກວ່ານັ້ນກໍ່ສາມາດເຮັດໃຫ້ມັນເປັນອັນຕະລາຍຫຼາຍ, ແລະດັ່ງນັ້ນຈຶ່ງຕ່ໍາກວ່າ. ຄວາມບໍ່ສົມດຸນທີ່ແປກປະຫຼາດເກີດຂື້ນ, ບ່ອນທີ່ລະບົບທີ່ດີກວ່າ, ຜົນໄດ້ຮັບອາດຈະຮ້າຍແຮງກວ່າເກົ່າ, ເພາະວ່າລະບົບຊັ້ນສູງເຮັດໃຫ້ເກີດ "ຄວາມພໍໃຈໃນລະບົບອັດຕະໂນມັດ" ບ່ອນທີ່ຜູ້ຂັບຂີ່ເອົາໃຈໃສ່ກັບຖະຫນົນຫນ້ອຍລົງ. (ບາງຄົນຍັງເຊື່ອວ່າ "Autopilot" ແລະຊື່ FSD ຂອງ Tesla ຊຸກຍູ້ໃຫ້ຄວາມພໍໃຈນີ້, ແລະການສົ່ງຂໍ້ຄວາມສາທາລະນະກ່ຽວກັບຜະລິດຕະພັນເຫຼົ່ານີ້ກໍ່ເຮັດເຊັ່ນດຽວກັນ.)

ນີ້ບໍ່ແມ່ນ paradox ທີ່ດີທີ່ຈະມີ. ພວກເຮົາຕ້ອງການພັດທະນາລະບົບທີ່ດີຂຶ້ນ, ແຕ່ຖ້າລະບົບໃດນຶ່ງຮ້າຍແຮງໄປກວ່ານັ້ນ ໃນຂະນະທີ່ເຈົ້າເຮັດໃຫ້ມັນດີຂຶ້ນ, ມັນກໍ່ຍາກກວ່າທີ່ຈະໄດ້ລະບົບທີ່ດີແທ້ໆ ໃນຂະນະທີ່ເຈົ້າເດີນທາງຜ່ານຮ່ອມພູທີ່ອັນຕະລາຍ ເຊິ່ງສິ່ງທີ່ຮ້າຍແຮງຂຶ້ນກ່ອນທີ່ມັນຈະດີຂຶ້ນ. ໃນມື້ນີ້, ພວກເຮົາຈະບໍ່ເຄີຍຜິດກັບ cruise control ມາດຕະຖານສໍາລັບຄວາມຈິງທີ່ວ່າມັນຈະຕີເດັກນ້ອຍຫຼືໄຟແດງ - ລະບົບເຫຼົ່ານັ້ນແມ່ນງ່າຍດາຍຫຼາຍແລະບໍ່ມີຄວາມສາມາດໃນການຫຼີກເວັ້ນຄວາມຜິດພາດເຫຼົ່ານັ້ນ. ແຕ່ຫຼາຍໆຄົນຕ້ອງການຄວາມຜິດຂອງລະບົບຊັ້ນສູງທີ່ຢຸດສໍາລັບອຸປະສັກສ່ວນໃຫຍ່ເພາະວ່າມັນບໍ່ໄດ້ຢຸດ 100% - ເຖິງແມ່ນວ່າບໍ່ມີລະບົບໃດຈະສົມບູນແບບເພື່ອຫຼີກເວັ້ນຄວາມຜິດພາດ 100%, ແລະເຖິງແມ່ນວ່າມະນຸດຈະບໍ່ສົມບູນແບບ.

ການໂຄສະນາ

ຂ້າພະເຈົ້າໄດ້ເຂົ້າຮ່ວມໃນການຮ່າງກົດໝາຍວ່າດ້ວຍການທົດສອບການຂັບລົດດ້ວຍຕົນເອງຄັ້ງທຳອິດໃນໂລກ, ໃນລັດເນວາດາ ແລະ ຄາລິຟໍເນຍ. ຜູ້ນໄດ້ຕົກລົງເຫັນດີວ່າຄວນຈະມີກົດລະບຽບພື້ນຖານບາງຢ່າງກ່ຽວກັບວິທີເຮັດການທົດສອບໃນຖະຫນົນຫົນທາງ (ກົດລະບຽບທີ່ຜ່ານມາບໍ່ໄດ້ຫ້າມມັນ, ແນ່ນອນວ່າບໍ່ມີໃຜເຄີຍຄິດທີ່ຈະເຮັດແນວນັ້ນ.) ໃນຂະນະດຽວກັນ, ຜູ້ຜະລິດລົດໃຫຍ່, ຜູ້ທີ່ຂາຍເຄື່ອງມື ADAS, ໄດ້. ບໍ່ຕ້ອງການໃຫ້ລົດ ADAS ຂອງເຂົາເຈົ້າຢູ່ພາຍໃຕ້ກົດລະບຽບການທົດສອບການຂັບຂີ່ດ້ວຍຕົນເອງ, ດັ່ງນັ້ນການປະຕິບັດງານຂອງ ADAS ໄດ້ຖືກແກະສະຫຼັກອອກໂດຍບໍ່ໄດ້ກວມເອົາກົດລະບຽບເຫຼົ່ານັ້ນ.

ໃນຄາລິຟໍເນຍ, ໂດຍສະເພາະ, ນີ້ໄດ້ສ້າງຄໍາຖາມເປີດ. ການ​ທົດ​ສອບ​ການ​ຂັບ​ລົດ​ດ້ວຍ​ຕົນ​ເອງ​ທັງ​ຫມົດ (ໂດຍ​ມີ​ຂໍ້​ຍົກ​ເວັ້ນ​ບໍ່​ຫຼາຍ​ປານ​ໃດ​ທີ່​ຜ່ານ​ມາ​) ແມ່ນ​ເຮັດ​ໄດ້​ກັບ​ຄົນ​ຂັບ​ລົດ​ຄວາມ​ປອດ​ໄພ​ທີ່​ຄວບ​ຄຸມ​. ດ້ວຍວິທີນັ້ນ, ມັນຄ້າຍຄືກັບການຂັບລົດ ADAS ຫຼາຍ. ກົດຫມາຍບໍ່ຈະແຈ້ງກ່ຽວກັບຄວາມແຕກຕ່າງທີ່ໄດ້ສ້າງສະຖານະການທີ່ຫນ້າສົນໃຈ. Anthony Levandowski, ຜູ້ທີ່ຍັງໄດ້ເຂົ້າຮ່ວມໃນການຮ່າງກົດລະບຽບ, ຕໍ່ມາເປັນຫົວຫນ້າ UberUBER
ATG. ລາວໄດ້ປະກາດວ່າຕັ້ງແຕ່ລົດຂອງພວກເຂົາທັງຫມົດໃນເວລານັ້ນພຽງແຕ່ດໍາເນີນການກັບຜູ້ຂັບຂີ່ຄວາມປອດໄພ, ນີ້ແມ່ນ ADAS, ແລະ Uber ບໍ່ຈໍາເປັນຕ້ອງປະຕິບັດຕາມກົດລະບຽບການທົດສອບການຂັບຂີ່ດ້ວຍຕົນເອງ. ລັດຄາລິຟໍເນຍ DMV ກ່າວວ່າບໍ່ມີ, ວ່າພາຍໃຕ້ເຫດຜົນນີ້ບໍ່ມີໃຜທົດສອບການຂັບລົດດ້ວຍຕົນເອງ, ແລະນັ້ນບໍ່ແມ່ນຄວາມຕັ້ງໃຈຂອງກົດຫມາຍ. ພວກເຂົາເຈົ້າບອກ Uber ວ່າພວກເຂົາຈໍາເປັນຕ້ອງລົງທະບຽນເປັນຍານພາຫະນະທົດສອບການຂັບລົດດ້ວຍຕົນເອງ, ຫຼືພວກເຂົາຈະດຶງປ້າຍທະບຽນລົດ Uber ໂດຍໃຊ້ອໍານາດພິເສດຂອງພວກເຂົາ. Uber ປະຕິບັດຕາມ.

ການໂຄສະນາ

DMV ໄດ້ເອົາວິທີການທີ່ຖ້າຫາກວ່າທ່ານກໍາລັງພະຍາຍາມສ້າງລະບົບການຂັບລົດດ້ວຍຕົນເອງ, ເຖິງແມ່ນວ່າມັນເປັນການເລີ່ມຕົ້ນທີ່ບໍ່ສົມບູນແບບທີ່ຕ້ອງການການຊີ້ນໍາແລະຖືກຄວບຄຸມສະເຫມີ, ທ່ານຄວນຖືວ່າເປັນບໍລິສັດທົດສອບການຂັບລົດດ້ວຍຕົນເອງທີ່ຄວບຄຸມໂດຍກົດລະບຽບ.

ເຖິງວ່າຈະມີສິ່ງນີ້, Tesla ຍັງສືບຕໍ່ວິທີການດຽວກັນ. ເນື່ອງຈາກ Tesla ມີຜະລິດຕະພັນ ADAS ແນ່ນອນ, ພວກເຂົາບໍ່ເຄີຍລາຍງານການທົດສອບການຂັບລົດດ້ວຍຕົນເອງຕໍ່ລັດ. ມາຮອດປັດຈຸບັນ DMV ໄດ້ປ່ອຍໃຫ້ສະໄລ້ນີ້ - ແມ່ນແຕ່ການທົດສອບ Tesla FSD ໂດຍພະນັກງານ Tesla ເຊິ່ງຍາກທີ່ຈະແຍກແຍະສິ່ງທີ່ພວກເຂົາຢຸດ Uber. DMV ອາດຈະຄວບຄຸມເລື່ອງນີ້ໄດ້ດີ. ແຕ່ສິ່ງທີ່ກ່ຽວກັບການນໍາໃຊ້ຂອງລູກຄ້າ, ບ່ອນທີ່ມັນເປັນທາງການ (ຖ້າທ່ານອ່ານການພິມທີ່ດີແລະບໍ່ສົນໃຈຊື່) ເຄື່ອງມືຊ່ວຍເຫຼືອຄົນຂັບ?

ແຕ່ເບິ່ງຄືວ່າຈະເຮັດວຽກ

ການແກ້ໄຂຕົ້ນຕໍສໍາລັບການນີ້ແມ່ນວິທີການເພື່ອຮັບປະກັນຄວາມເອົາໃຈໃສ່ໃນການຊີ້ນໍາຍັງສູງ. ມີເຕັກນິກຕ່າງໆສໍາລັບການນີ້, ລວມທັງການຕິດຕາມກວດກາຄົນຂັບໃນຫຼາຍວິທີແລະ nagging ໃຫ້ເຂົາເຈົ້າຖ້າຫາກວ່າພວກເຂົາເຈົ້າບໍ່ໄດ້ເອົາໃຈໃສ່, ຫຼືສັງເກດເຫັນວ່າມີຜູ້ຂັບຂີ່ມືອາຊີບການຝຶກອົບຮົມຫຼືແມ້ກະທັ້ງທີມງານຂອງເຂົາເຈົ້າທີ່ມີຕາຫຼາຍໃນຖະຫນົນຫົນທາງ. ເປັນເວລາຫຼາຍທົດສະວັດທີ່ພວກເຮົາໄດ້ຝຶກອົບຮົມຄົນຂັບລົດໄວຫນຸ່ມຢູ່ໃນໂຮງຮຽນຂັບລົດໂດຍມີຄູສອນທີ່ສາມາດຈັບລໍ້ແລະມີເບກຂອງຕົນເອງເພື່ອຢຸດລົດ, ແລະລະບົບນັ້ນເຮັດວຽກໄດ້ດີຫຼາຍ.

ການໂຄສະນາ

ການສະຫລຸບທີ່ເຂັ້ມແຂງມາເຖິງຕອນນັ້ນແມ່ນວ່ານີ້ເຮັດວຽກ. ບັນທຶກຄວາມປອດໄພຂອງບໍລິສັດຂັບລົດຕົນເອງໃຫຍ່ເຊັ່ນ Waymo ເປັນຕົວຢ່າງ. Waymo ລາຍງານຫຼາຍກວ່າ 20 ລ້ານໄມຂອງການທົດສອບກັບຜູ້ຂັບຂີ່ຄວາມປອດໄພໃນປີ 2021, ແລະໃນເວລານັ້ນບາງທີອາດມີອຸບັດຕິເຫດ 2 ຄັ້ງ. ໂດຍ​ສະ​ເລ່ຍ​ແລ້ວ, ມະນຸດ​ຈະ​ເກີດ​ອຸບັດ​ຕິ​ເຫດ​ເກືອບ 40 ຄັ້ງ​ໃນ​ໄລຍະ​ເວລາ​ນັ້ນ. ເຊັ່ນດຽວກັນກັບການຂັບລົດນັກຮຽນທີ່ມີຄູສອນຂັບລົດເຮັດໄດ້ດີກວ່າຄົນຂັບລົດທີ່ມີໃບອະນຸຍາດໃຫມ່, ລະບົບການຕິດຕາມເຮັດວຽກຢ່າງຊັດເຈນ, ແລະຍານພາຫະນະເຫຼົ່ານີ້ກໍ່ສ້າງຄວາມສ່ຽງຕໍ່ສາທາລະນະຫນ້ອຍກວ່າການຂັບຂີ່ແບບດຽວກັນກັບຄົນທໍາມະດາ.

ຢູ່ໃນສະຫະລັດອາເມລິກາຢ່າງຫນ້ອຍ, ຖ້າບໍ່ມີໃຜໄດ້ຮັບບາດເຈັບ - ຫຼືຢ່າງຫນ້ອຍຖ້າລະດັບຄວາມສ່ຽງແມ່ນຫນ້ອຍກວ່າການຂັບຂີ່ແບບທໍາມະດາ - ໂດຍທົ່ວໄປແລ້ວກິດຈະກໍາຈະບໍ່ຖືກຄວບຄຸມ. ວິທີການຂອງສະຫະລັດແມ່ນໄດ້ຮັບການອະນຸຍາດຫຼາຍກວ່າ - ທ່ານບໍ່ຈໍາເປັນຕ້ອງພິສູດສິ່ງທີ່ທ່ານກໍາລັງເຮັດແມ່ນປອດໄພ, ແຕ່ຖ້າມັນປາກົດວ່າບໍ່ປອດໄພ, ທ່ານອາດຈະຖືກຢຸດເຊົາແລະຕ້ອງຮັບຜິດຊອບຕໍ່ຄວາມເສຍຫາຍໃດໆທີ່ທ່ານເຮັດໃຫ້ເກີດ. ບາງປະເທດຈະຮຽກຮ້ອງໃຫ້ຜູ້ຄວບຄຸມຕັດສິນໃຈລ່ວງຫນ້າວ່າບາງສິ່ງບາງຢ່າງປອດໄພ, ແຖບທີ່ສູງກວ່າຫຼາຍຫນ້ອຍທີ່ເອື້ອອໍານວຍຕໍ່ການປະດິດສ້າງ.

ແນ່ນອນ, ໃນກໍລະນີທີ່ມີຊື່ສຽງອັນໜຶ່ງ, ວິທີການຂັບຂີ່ຄວາມປອດໄພມີຜູ້ເສຍຊີວິດ, ເມື່ອລົດຂອງ Uber ATG ໄດ້ຂ້າຄົນຍ່າງໃນລັດ Arizona. ການສືບສວນຂອງ NTSB ແລະຄະດີໃນສານຕໍ່ມາພົບວ່າຜູ້ຂັບຂີ່ຄວາມປອດໄພມີຄວາມລະເລີຍ (ນາງເບິ່ງໂທລະທັດແທນທີ່ຈະເຮັດວຽກຂອງນາງ) ເຖິງແມ່ນວ່າ Uber ຍັງມີຄວາມຜິດທີ່ມີວັດທະນະທໍາທີ່ບໍ່ດີໃນການຄຸ້ມຄອງຜູ້ຂັບຂີ່ຄວາມປອດໄພຂອງພວກເຂົາເຊິ່ງປະກອບສ່ວນໃນຄວາມຜິດພາດນີ້. ການສະຫລຸບທີ່ສໍາຄັນ, ຢ່າງໃດກໍຕາມ, ແມ່ນວ່າ ລະບົບຄົນຂັບຄວາມປອດໄພເຮັດວຽກ ແລະບໍ່ໄດ້ເຮັດໃຫ້ປະຊາຊົນມີຄວາມສ່ຽງຫຼາຍ, ເຖິງແມ່ນວ່າມັນເປັນໄປໄດ້ແນ່ນອນສໍາລັບຜູ້ຂັບຂີ່ຄວາມປອດໄພຂອງມະນຸດທີ່ຈະລະເລີຍແລະເຮັດໃຫ້ເກີດຄວາມສ່ຽງສູງ.

ການໂຄສະນາ

ນັ້ນແມ່ນລະບົບທີ່ມີຄົນຂັບທີ່ໄດ້ຮັບຄ່າຈ້າງທີ່ໄດ້ຮັບການຝຶກອົບຮົມ. Tesla ໄປຕື່ມອີກ, ແລະມີລູກຄ້າທໍາມະດາເຮັດວຽກ. ມີຫຼາຍເຫດການທີ່ຜູ້ຂັບຂີ່ Tesla ໄດ້ລະເລີຍຢ່າງຈະແຈ້ງໃນການກວດກາຜະລິດຕະພັນ Autopilot, ແລະອຸປະຕິເຫດ, ລວມທັງຜູ້ເສຍຊີວິດ, ໄດ້ເກີດຂຶ້ນ. ຢ່າງໃດກໍຕາມ, ລົດ Tesla ຂັບລົດຫຼາຍກິໂລແມັດກັບ Autopilot ຫຼາຍກ່ວາທີມງານຂັບລົດດ້ວຍຕົນເອງເຮັດ, ດັ່ງນັ້ນການປະກົດຕົວຂອງເຫດການທາງລົບແລະຫນ້າໂສກເສົ້າແມ່ນບໍ່ຈໍາເປັນຫຼັກຖານວ່າລະບົບກໍາລັງເປີດເຜີຍໃຫ້ປະຊາຊົນມີຄວາມສ່ຽງຫຼາຍ.

ແຕ່ລະໄຕມາດ, Tesla ເຜີຍແຜ່ສະຖິຕິທີ່ຫຼອກລວງເຊິ່ງລະບຸວ່າຜູ້ຂັບຂີ່ທີ່ໃຊ້ Autopilot ມີບັນທຶກຄວາມປອດໄພດີກວ່າຜູ້ທີ່ບໍ່ໄດ້, ເຖິງແມ່ນວ່າຜູ້ໃຊ້ Autopilot ບາງຄົນມີຄວາມລະເລີຍ. ໃນຂະນະທີ່ຕົວເລກເຫຼົ່ານີ້ແມ່ນເທົ່າກັບການຕົວະ, ຂ້ອຍແລະຄົນອື່ນໆໄດ້ພະຍາຍາມປີ້ນກັບຕົວເລກຕົວຈິງຂອງວິສະວະກອນ, ແລະຕົວເລກທີ່ແທ້ຈິງບໍ່ແມ່ນເລື່ອງທີ່ບໍ່ດີ, ແລະແນະນໍາວ່າຜູ້ໃຊ້ Autopilot ມີບັນທຶກຄວາມປອດໄພທີ່ຄ້າຍຄືກັນກັບຜູ້ໃຊ້ທີ່ບໍ່ແມ່ນຜູ້ໃຊ້. ໃນ​ຂະ​ນະ​ທີ່​ມັນ​ບໍ່​ໄດ້​ດີກ​ວ່າ, ທັງ​ບໍ່​ແມ່ນ​ມັນ​ຈະ​ເປີດ​ເຜີຍ​ໃຫ້​ຄົນ​ມີ​ຄວາມ​ສ່ຽງ​ເພີ່ມ​ເຕີມ. ຜົນໄດ້ຮັບແມ່ນໃກ້ຊິດພຽງພໍທີ່ NHTSA ກໍາລັງດໍາເນີນການສືບສວນກ່ຽວກັບອຸປະຕິເຫດ Tesla ກັບຍານພາຫະນະສຸກເສີນ. ມັນບໍ່ຮູ້ຈັກວ່າພວກເຂົາຈະໃຊ້ວິທີການລະມັດລະວັງຫຼືເບິ່ງບັນທຶກຄວາມປອດໄພໂດຍລວມ.

ຫຼາຍຄົນໄດ້ແນະນໍາວ່າ Tesla ສາມາດປັບປຸງບັນທຶກຂອງພວກເຂົາດ້ວຍການຕິດຕາມຜູ້ຂັບຂີ່ທີ່ດີກວ່າ. ການ​ຕິດ​ຕາມ​ມາດ​ຕະ​ຖານ​ພຽງ​ແຕ່​ຮຽກ​ຮ້ອງ​ໃຫ້​ຄົນ​ຂັບ​ເປັນ​ປົກ​ກະ​ຕິ​ການ​ນໍາ​ໃຊ້​ແຮງ​ກັບ​ລໍ້​. ບໍລິສັດອື່ນໆມີກ້ອງຖ່າຍຮູບທີ່ສັງເກດເບິ່ງຕາຂອງຜູ້ຂັບຂີ່ເພື່ອໃຫ້ແນ່ໃຈວ່າພວກເຂົາເບິ່ງຖະຫນົນ - ຖ້າ Uber ATG ເຮັດສິ່ງນີ້, ພວກເຂົາຈະປ້ອງກັນການເສຍຊີວິດຂອງພວກເຂົາ. Tesla ບໍ່ດົນມານີ້ໄດ້ເລີ່ມໃຊ້ການຕິດຕາມການເບິ່ງຄົນຂັບເຊັ່ນດຽວກັນ.

ການໂຄສະນາ

ມັນຄວນຈະສັງເກດວ່າການຄິດໄລ່ທີ່ສະແດງໃຫ້ເຫັນຄວາມປອດໄພຂອງ Tesla Autopilot ຄືກັນກັບການຂັບຂີ່ປົກກະຕິແມ່ນເປັນປະໂຫຍດ. ຕົວຈິງແລ້ວມັນແມ່ນການລວມກັນຂອງອັດຕາອຸປະຕິເຫດທີ່ສູງຂຶ້ນໃນບັນດາພະນັກງານຂະຫນາດນ້ອຍຂອງຜູ້ໃຊ້ Autopilot ທີ່ລະເລີຍທີ່ບໍ່ສົນໃຈຖະຫນົນຫົນທາງຫຼືເຂົ້າໄປໃນຄວາມພໍໃຈຂອງອັດຕະໂນມັດ, ແລະບັນທຶກຄວາມປອດໄພທີ່ດີກວ່າຈາກຜູ້ທີ່ດຸຫມັ່ນ. ພວກເຮົາມີເວລາຍາກທາງປັດຊະຍາກັບເລື່ອງນີ້ - ພວກເຮົາບໍ່ມັກເຮັດໃຫ້ບາງຄົນມີຄວາມສ່ຽງສູງເຖິງແມ່ນວ່າປະຊາຊົນຫຼາຍມີຄວາມສ່ຽງຕ່ໍາ. ພວກເຮົາບໍ່ມັກມັນຫຼາຍທີ່ອາດຈະເຮັດໃຫ້ຄົນດຸຫມັ່ນຂອງເຄື່ອງມືທີ່ເຮັດໃຫ້ພວກເຂົາປອດໄພກວ່າເພື່ອປົກປ້ອງຜູ້ທີ່ມີຄວາມລະເລີຍ, ເຖິງແມ່ນວ່ານີ້ບໍ່ແມ່ນເປົ້າຫມາຍຂອງພວກເຮົາ.

ຈະເປັນແນວໃດກ່ຽວກັບ FSD

ຂໍ້ມູນຂ້າງເທິງກ່ຽວກັບ Autopilot, ເຊິ່ງເປັນຜະລິດຕະພັນການຂົນສົ່ງ. Tesla FSD ບໍ່ແມ່ນຜະລິດຕະພັນຂົນສົ່ງ. ພວກເຂົາເອີ້ນມັນວ່າ "ເບຕ້າ" (ເຊິ່ງເປັນຜະລິດຕະພັນເກືອບສຸດທ້າຍໃນໄລຍະການທົດສອບສຸດທ້າຍກ່ອນທີ່ຈະອອກ) ແຕ່ມັນບໍ່ແມ່ນແນວນັ້ນ. ດຽວນີ້ພວກເຂົາມີເຈົ້າຂອງ Tesla ຫຼາຍກວ່າ 100,000 ທົດລອງໃຊ້ມັນ. ເພື່ອໃຊ້ມັນ, ເຈົ້າຂອງຕ້ອງຈ່າຍຄ່າທໍານຽມ (ໃນປັດຈຸບັນເພີ່ມຂຶ້ນເປັນ 15,000 ໂດລາ) ເພື່ອສັ່ງໃຫ້ລະບົບ FSD ສຸດທ້າຍ, ແລະຜ່ານການທົດສອບການຂັບຂີ່ທີ່ປອດໄພເພື່ອເຂົ້າໄປໃນກຸ່ມທົດສອບ. ການທົດສອບການຂັບຂີ່ທີ່ປອດໄພສ່ວນຫຼາຍແມ່ນປອມແລະບໍ່ໄດ້ທົດສອບສິ່ງທີ່ເຈົ້າຕ້ອງການສໍາລັບວຽກງານນີ້, ແຕ່ມັນຫມາຍຄວາມວ່າບໍ່ແມ່ນທຸກຄົນທີ່ຈ່າຍເງິນໄດ້ຮັບມັນ.

ພວກເຂົາເຕືອນຜູ້ຂັບຂີ່ວ່າລະບົບມີຂໍ້ບົກພ່ອງຫຼາຍຢ່າງແລະຕ້ອງການການຊີ້ນໍາຢ່າງຕໍ່ເນື່ອງເຊັ່ນ ADAS, ໂດຍກ່າວວ່າ, "ມັນຈະເຮັດສິ່ງທີ່ຜິດພາດໃນເວລາທີ່ຮ້າຍແຮງທີ່ສຸດ." ນັ້ນແມ່ນຄໍາຖະແຫຼງທີ່ຊັດເຈນ, ແຕ່ໃນເວລາດຽວກັນຊື່ "ຂັບລົດຕົນເອງຢ່າງເຕັມທີ່" ແນ່ນອນ conjures ເຖິງຮູບພາບທີ່ແຕກຕ່າງຈາກ ADAS. ຂ້າພະເຈົ້າໄດ້ຂັບເຄື່ອນດ້ວຍລະບົບນີ້ແລະຕັດສິນການປະຕິບັດຂອງມັນຂ້ອນຂ້າງບໍ່ດີເປັນລະບົບການຂັບລົດດ້ວຍຕົນເອງ.

ການໂຄສະນາ

ເຖິງແມ່ນວ່າ, ເຖິງວ່າຈະມີ intuitions ກົງກັນຂ້າມ, ວິທີການ Tesla ເບິ່ງຄືວ່າຈະເຮັດວຽກ. ມີຜູ້ຂັບຂີ່ 100,000 ຄົນ, ລະບົບກໍາລັງດໍາເນີນການຫຼາຍລ້ານໄມລ໌ (ເຖິງແມ່ນວ່າບໍ່ມີຂໍ້ມູນສາທາລະນະກ່ຽວກັບວ່າຜູ້ຂັບຂີ່ແຕ່ລະຄົນໃຊ້ລະບົບຫຼາຍປານໃດ.) ພວກເຮົາຍັງຮູ້ວ່າມີການກວດສອບສາທາລະນະຢ່າງຫຼວງຫຼາຍກ່ຽວກັບອຸປະຕິເຫດທີ່ກ່ຽວຂ້ອງກັບການທົດສອບ FSD. ລະບົບ, ແລະພຽງແຕ່ຈໍານວນເລັກນ້ອຍຂອງເຫດການເລັກນ້ອຍໄດ້ກາຍເປັນສາທາລະນະ. ໃນຂະນະທີ່ຜູ້ທົດສອບ Tesla FSD ບາງຄົນເປັນແຟນ Tesla ຂະຫນາດໃຫຍ່ທີ່ເຂົາເຈົ້າອາດຈະປິດບັງອຸປະຕິເຫດທີ່ເຂົາເຈົ້າມີ, ມັນເປັນໄປບໍ່ໄດ້ທີ່ສຸດທີ່ຕົວເລກຂອງອຸປະຕິເຫດທີ່ສໍາຄັນແມ່ນເກີດຂຶ້ນໂດຍບໍ່ມີໃຜຖືກເປີດເຜີຍ. ຕໍາຫຼວດຮ້າຍແຮງໃດໆລາຍງານອຸປະຕິເຫດ, ໂດຍສະເພາະອຸປະຕິເຫດການບາດເຈັບ, ອາດຈະໄດ້ຮັບຄວາມສົນໃຈຫຼາຍ, ຍ້ອນວ່າພວກເຂົາເຮັດສໍາລັບ Autopilot.

ແລະພວກເຮົາບໍ່ເຫັນພວກມັນ. ໃນຂະນະທີ່ນີ້ບໍ່ແມ່ນການວິເຄາະທາງວິທະຍາສາດທີ່ແທ້ຈິງ, ມັນເບິ່ງຄືວ່າໂຄງການ FSD ຂອງ Tesla ບໍ່ໄດ້ເຮັດໃຫ້ປະຊາຊົນມີຄວາມສ່ຽງ. ອັນນີ້ອາດຈະເປັນຍ້ອນລະບົບບໍ່ດີປານໃດ. ຄົນຂັບລົດສ່ວນໃຫຍ່ຮູ້ວ່າມັນໂງ່ແທ້ໆທີ່ຈະບໍ່ເອົາໃຈໃສ່ກັບລະບົບນີ້ໃນສະພາບປະຈຸບັນຂອງມັນ. ມັນເປັນໄປໄດ້ວ່າເມື່ອມັນດີຂຶ້ນ, ນີ້ຈະມີການປ່ຽນແປງ. ຖ້າທ່ານພິຈາລະນາການຄວບຄຸມການລ່ອງເຮືອຂັ້ນພື້ນຖານ, ເຊິ່ງເປັນພື້ນຖານຫຼາຍ, ມັນເຮັດວຽກເພາະວ່າບໍ່ມີໃຜກ້າທີ່ຈະບໍ່ສົນໃຈກັບເສັ້ນທາງໃນຂະນະທີ່ໃຊ້ມັນ.

ການໂຄສະນາ

ການຕັ້ງຊື່ Tesla

Tesla ບໍ່ໄດ້ຊ່ວຍຕົວເອງກັບຊື່ຜະລິດຕະພັນຂອງມັນ. ຫຼາຍຄົນໄດ້ວິພາກວິຈານກ່ຽວກັບ Autopilot ເປັນຊື່, ເພາະວ່າຄວາມຮັບຮູ້ຂອງປະຊາຊົນ (ທີ່ບໍ່ຖືກຕ້ອງ) ແມ່ນວ່ານັກບິນຍົນອັດຕະໂນມັດບິນຍົນດ້ວຍຕົນເອງ. ໃນຄວາມເປັນຈິງ, autopilot ຂອງເຮືອບິນແມ່ນລະບົບທີ່ກວ້າງຂວາງ, ງ່າຍດາຍກວ່າ Autopilot ລົດຂອງ Tesla, ແລະມັນເຮັດວຽກພຽງແຕ່ຍ້ອນວ່າຢູ່ເທິງອາກາດ, ເຈົ້າຢູ່ໄກຈາກສິ່ງທີ່ເຈົ້າອາດຈະຕີ. ມັນບໍ່ໄດ້ຢຸດເຊົາການຮັບຮູ້ຂອງປະຊາຊົນທີ່ບໍ່ຖືກຕ້ອງ, ເຖິງແມ່ນວ່າ. ດ້ວຍ FSD, ມັນຮ້າຍແຮງກວ່າເກົ່າ. ມັນບໍ່ໄດ້ຢູ່ໃນລະດັບຂອງການຂັບລົດດ້ວຍຕົນເອງ, ຍັງບໍ່ໃກ້ຊິດ, ແລະແນ່ນອນວ່າມັນບໍ່ "ເຕັມ". ຄວາມສັບສົນນີ້ເຮັດໃຫ້ Waymo ຍອມແພ້ກັບການໃຊ້ ຄຳ ວ່າຂັບລົດດ້ວຍຕົນເອງເພື່ອອະທິບາຍຜະລິດຕະພັນຂອງພວກເຂົາ, ຍ້ອນຢ້ານວ່າ Tesla ໄດ້ ກຳ ນົດ ຄຳ ສັບທີ່ບໍ່ຖືກຕ້ອງໃນໃຈສາທາລະນະ.

Tesla ບໍ່ຕ້ອງການ hype ຫຼາຍສໍາລັບຜະລິດຕະພັນຂອງພວກເຂົາ. ພວກເຂົາເຈົ້າຂາຍທັງຫມົດທີ່ເຂົາເຈົ້າສາມາດເຮັດໄດ້. ມັນເປັນເລື່ອງທີ່ສັບສົນວ່າພວກເຂົາເຈດຕະນາໄປກັບຊື່ເຫຼົ່ານີ້ແທນທີ່ຈະເວົ້າຫນ້ອຍລົງແລະສົ່ງເກີນ. ພວກ​ເຂົາ​ເຈົ້າ​ຈະ​ຊ່ວຍ​ປະ​ຢັດ​ຕົນ​ເອງ​ຂອງ​ຄວາມ​ໂສກ​ເສົ້າ​ຫຼາຍ — ນອກ​ເຫນືອ​ໄປ​ຈາກ​ການ “ການ​ປະ​ຊາ​ຊົນ​ທັງ​ຫມົດ​ແມ່ນ​ການ​ປະ​ຊາ​ຊົນ​ທີ່​ດີ”.

ດັ່ງນັ້ນມັນດີບໍຖ້າ Tesla ຈະຕີ dummy ຂະຫນາດເດັກນ້ອຍ?

ຄໍາຕອບທີ່ຫນ້າປະຫລາດໃຈແມ່ນ "ອາດຈະເປັນ." ລະບົບຕົ້ນແບບທົດສອບທັງໝົດຈະເຮັດສິ່ງຕ່າງໆເຊັ່ນນີ້, ແລະບໍ່ຫ້າມການທົດສອບທັງໝົດຂອງເຄື່ອງຕົ້ນແບບ, ບໍ່ມີທາງທີ່ຈະຮຽກຮ້ອງຄວາມສົມບູນແບບໄດ້ ແມ້ແຕ່ບັນຫາທີ່ເຮັດໃຫ້ເກີດບັນຫາດັ່ງກ່າວເປັນອຸປະຕິເຫດກັບເດັກນ້ອຍ. ມັນເປັນການຍາກທີ່ຈະສ້າງລະບົບກົດລະບຽບທີ່ຈະຫ້າມ Tesla FSD ທີ່ບໍ່ຫ້າມຫຼືຊ້າລົງການພັດທະນາເຕັກໂນໂລຢີທີ່ສໍາຄັນທີ່ຈະຊ່ວຍປະຢັດຊີວິດຫຼາຍລ້ານຄົນໃນເວລານັ້ນ. ຊີວິດຫຼາຍລ້ານຄົນບໍ່ແມ່ນເລື່ອງເລັກໆນ້ອຍໆ, ມັນຈະເປັນຄວາມກ້າວຫນ້າອັນໃຫຍ່ຫຼວງທີ່ສຸດໃນຄວາມປອດໄພໃນປະຫວັດສາດຂອງມະນຸດ.

ການໂຄສະນາ

ຫຼາຍທີ່ສຸດ, ພວກເຮົາສາມາດພະຍາຍາມກໍານົດສິ່ງຕ່າງໆເພື່ອໃຫ້ຜູ້ທີ່ເບິ່ງແຍງລະບົບການທົດສອບດັ່ງກ່າວມີເງື່ອນໄຂທີ່ແນ່ນອນ. ພວກເຮົາອາດຈະຮຽກຮ້ອງໃຫ້ພວກເຂົາໄດ້ຮັບການຕິດຕາມທີ່ດີກວ່າ (ເຊິ່ງ Tesla ກໍາລັງເຮັດ.) ພວກເຮົາອາດຈະຂໍໃຫ້ພວກເຂົາເປັນມືອາຊີບຫຼືຜ່ານການທົດສອບ, ແຕ່ຫຼັງຈາກນັ້ນພວກເຮົາຈະສ້າງຮ່າງກາຍທີ່ກໍານົດແລະບັງຄັບໃຊ້ການທົດສອບເຫຼົ່ານີ້, ເຊິ່ງອາດຈະເປັນສິ່ງທີ່ຫຍຸ້ງຍາກ. ທ່ານສາມາດກາຍເປັນຄູສອນຂັບລົດພຽງແຕ່ຜ່ານການສອບເສັງລາຍລັກອັກສອນແລະໄດ້ຮັບໃບຢັ້ງຢືນສຸຂະພາບດີ, ບໍ່ມີການທົດສອບທັກສະສົດແມ່ນເຮັດ.

ຢ່າງໃດກໍຕາມ, ພວກເຮົາສາມາດກໍານົດຊຸດຂອງກົດລະບຽບສໍາລັບຜູ້ທີ່ສາມາດຄວບຄຸມລະບົບຕົ້ນແບບ, ແລະມັນອາດຈະຢຸດເຊົາກິດຈະກໍາຂອງ Tesla. ແຕ່ການເຮັດແນວນັ້ນຈະເປັນການຕົກຢູ່ໃນຄວາມຂັດແຍ້ງຂອງ "ມັນດີກວ່າ, ພວກເຮົາບໍ່ມັກມັນຫຼາຍ." ພວກເຮົາບໍ່ຕ້ອງການທີ່ຈະເຮັດໃຫ້ມັນຍາກກວ່າທີ່ຈະຂ້າມຮ່ອມພູນັ້ນເພື່ອກາຍເປັນລະບົບທີ່ດີກວ່າ. ຄຳ​ຖາມ​ທີ່​ແທ້​ຈິງ​ແມ່ນ​ວ່າ​ເປັນ​ຫຍັງ​ພວກ​ເຮົາ​ຈຶ່ງ​ຢາກ​ໄປ​ທີ່​ນັ້ນ ຖ້າ​ບໍ່​ມີ​ໃຜ​ຖືກ​ທຳ​ຮ້າຍ. ຂະນະ​ນີ້​ຍັງ​ບໍ່​ທັນ​ມີ​ລາຍ​ງານ​ວ່າ​ມີ​ຄົນ​ບາດ​ເຈັບ, ​ແນ່ນອນ​ວ່າ​ບໍ່​ມີ​ລະດັບ​ໃດ​ທີ່​ຈະ​ຊີ້​ບອກ​ວ່າ​ມີ​ຄວາມ​ສ່ຽງ​ຫຼາຍ​ກວ່າ​ການ​ຂັບ​ຂີ່​ແບບ​ທຳ​ມະ​ດາ. ພວກເຮົາບໍ່ຕ້ອງການທີ່ຈະຕົກຢູ່ໃນຈັ່ນຈັບຂອງການຫ້າມສິ່ງຂອງເພາະວ່າພວກເຮົາມີ intuition ວ່າມັນເປັນອັນຕະລາຍ. ພວກເຮົາພຽງແຕ່ຕ້ອງການຫ້າມສິ່ງທີ່ຕົວຈິງແລ້ວເປັນອັນຕະລາຍ.

ມັນເປັນໄປໄດ້ຂ້ອນຂ້າງວ່າການທົດສອບ Tesla FSD ຕໍ່ມາຈະເລີ່ມເປັນອັນຕະລາຍເກີນໄປ. ອັນນີ້ອາດຈະເກີດຂຶ້ນຍ້ອນຄວາມພໍໃຈຂອງລະບົບອັດຕະໂນມັດ, ຫຼືການປ່ຽນແປງລະບົບ. ມັນສົມເຫດສົມຜົນທີ່ Tesla ໄດ້ຖືກຮ້ອງຂໍໃຫ້ລາຍງານກັບເຈົ້າຫນ້າທີ່ວ່າມີເຫດການຫຼາຍປານໃດເກີດຂື້ນໃນລະຫວ່າງການທົດສອບລະບົບ, ດັ່ງນັ້ນພວກເຮົາສາມາດຮູ້ວ່າມັນເປັນອັນຕະລາຍແລະເວລາໃດ. ວິທີການຂອງ O'Dowd ຂອງ "ພວກເຮົາຄວນຫ້າມສິ່ງນີ້ເພາະວ່າມັນເບິ່ງຄືວ່າມັນເປັນອັນຕະລາຍ" ແມ່ນຜິດພາດ, ຢ່າງຫນ້ອຍໃນສະຫະລັດ.

ການໂຄສະນາ

ອ່ານແລະອອກຄໍາເຫັນທີ່ນີ້

ແຫຼ່ງຂໍ້ມູນ: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- ຄິດຮອດຈຸດ/