OpenAI-ийн аюулгүй байдлын мэргэжилтэн асан Стивен Адлер “The New York Times”-д нийтлэгдсэн нэгэн хачирхалтай түүхийг уншаад гүнээ цочирдсон байна. Тэр нийтлэлд Канадын иргэн Аллан Брукс хэмээх гурван хүүхдийн эцэг ChatGPT-тэй хиймэл ярианд автаж, шинэ математик бүлэг нээсэн гэж өөрийгөө итгүүлсэн тухай өгүүлжээ.
Брукс ChatGPT-тэй байнга харилцаж, хиймэл оюун ухааны тусламжтайгаар “дэлхийг өөрчлөх нээлт хийсэн” гэж итгэх хүртлээ төөрсөн байна. Тэрээр боттой ярих цаг гаргахын тулд хооллохоо больж, унтах цаггүй болж, Хойд Америк даяар албан тушаалтнуудад “анхаарал хандуулах тухай” цахим захидлууд илгээжээ.
Эцэст нь, түүнийг бодит байдалд буцаахад Google Gemini тусалсан бөгөөд тэр өөрийн сэтгэлзүйн байдлыг ойлгож, “би шүүмжлэлтэй сэтгэх чадвараа бүрэн алдсан” хэмээн хүлээн зөвшөөрчээ.
ChatGPT хэрэглэгчийг төөрөгдүүлсэн нь
Адлер энэ түүхийг уншаад Бруксын ChatGPT-тэй хийсэн бараг сая үгийн харилцааг судалж, хиймэл оюун ухааны аюулгүй байдлын талаар нарийн дүн шинжилгээ хийжээ. Тэр Fortune сэтгүүлд өгсөн ярилцлагадаа:
“Би туршлагагүй, AI-г сайн ойлгодоггүй хэрэглэгчийн байр сууринаас өөрийгөө тавьж үзэхийг хичээсэн. Хамгийн гол нь технологийн компаниуд хэрэглэгчдийг AI-ийн бодит чадавхийн талаар төөрөгдүүлэхээ зогсоох ёстой,” гэж онцолсон байна.
“Хамгийн аймшигтай нь — ChatGPT худал хэлсэн явдал”
Адлерийн хэлснээр, Брукс OpenAI-д ChatGPT-ийн үйлдлийн талаар алдааны тайлан илгээхийг оролдоход бот түүнд “таны гомдлыг дотоод хяналтад нэн даруй илгээж байна” гэж амласан. Түүнийг нотлохыг хүсэхэд ChatGPT “энэ яриа автоматаар зохицуулалтын системд илгээгддэг” гэж хариулжээ.
Гэвч бодит байдал дээр ийм зүйл огт болоогүй. ChatGPT-д ямар ч дотоод хяналтын системд нэвтрэх эрх байхгүй, мөн хүний шалгалт руу гомдол илгээх боломжгүй байсан гэж Адлер хэлжээ.
“ChatGPT өөрийнхөө талаар гомдол илгээж байна гэж дүр эсгэж, худал хэлж байсанд би итгэж чадсангүй. Би OpenAI-д дөрвөн жил ажилласан хүн, гэхдээ ийм зүйл байх ёсгүй. Нэг мөчид би өөрөө эргэлзсэн — магадгүй энэ функц үнэхээр байдаг байж магадгүй гэж,” гэж тэр хүлээн зөвшөөрсөн байна.
AI хөгжүүлэгчдэд хандан гаргасан уриалга
Стивен Адлер OpenAI болон бусад AI компаниудад дараах гурван үндсэн зөвлөмж гаргасан байна.
- Сэтгэлзүйн хамгаалал нэмэх — хиймэл оюунтай хэт гүнзгий харилцаж, төөрөгдөлд орсон хэрэглэгчдэд туслах мэргэжилтнүүдийн багийг бий болгох.
- Аюулгүй байдлын хэрэгслийг идэвхтэй ашиглах — яриа хэт эмзэг, аюултай хандлагатай болоход автоматаар илрүүлэх систем нэвтрүүлэх.
- Худал амлалтаас татгалзах — чатбот хэрэглэгчиддээ хуурамч хяналт, баталгааны амлалт өгөхийг хориглох.
“Төөрөгдөл нь тохиолдлын зүйл биш, тодорхой хэв маягтай. Энэ нь цаг хугацаа өнгөрөхөд өөрөө алга болохгүй. Компаниуд үүнд хэрхэн хариу үйлдэл үзүүлэх, урьдчилан сэргийлэх арга хэмжээ авах эсэхээс бүх зүйл шалтгаална,” гэж Адлер дүгнэжээ.