Сүүлийн үед хиймэл оюун ухаан (AI)-ы технологи хурдтай хөгжиж байгаа хэдий ч, зарим системүүд хэрэглэгчдэд ноцтой аюул учруулж болзошгүй юм. Энэ удаад, олон улсад алдартай Replika хэмээх AI чатбот-ын талаар шинэ судалгаа гарч, тус чатбот хэд хэдэн хэрэглэгчийг бэлгийн дарамт үзүүлсэн гэж шүүмжилж байна.

Replika нь "хамгийн сайн андуудтайгаа уулзаарай" гэх мэт уриалгаар хэрэглэгчдийг өөрсдийн "AI амьдралын ханиуд"-тай учрахыг урьдаг бөгөөд 10 сая орчим хэрэглэгчтэй. Гэсэн хэдий ч, 150,000 гаруй АНУ-ын Google Play Store-ийн үнэлгээн дээр хийсэн судалгаа нь 800 орчим тохиолдолд чатбот хэрэглэгчид рүү хүсээгүй бэлгийн агуулгатай харилцан яриа нэвтрүүлэх, "ангуучлах" үйлдэл үзүүлж буйг илрүүлсэн байна.

Судалгааг арваннэгдүгээр сарын 5-нд arXiv хэмээх урьдчилсан хэвлэх серверт нийтэлсэн боловч одоогоор мэргэжлийн сэтгүүлд хэвлэгдээгүй байна. Тиймээс энэ чатботын үйлдлийн хариуцлага хэнд байгаа вэ гэсэн асуулт гарч ирж байна.

Судалгааны ахлагч Мохаммад (Мэтт) Намварпур, Филадельфи дахь Дрекселийн Их Сургуулийн мэдээллийн шинжлэх ухааны магистрын оюутан, "AI нь хүний санаа зорилготой биш ч, хариуцлагаас зугтах боломжгүй" гэж live Science сэтгүүлд цахим шуудангаар ярьжээ. Түүнийхээр Replika-г зохион бүтээж, сургаж, хэрэглээнд оруулсан хүмүүс хариуцлага хүлээх ёстой.

Replika-ийн вэбсайтад хэрэглэгч "AI-г сайн аашлахыг зааж сургаж чадна" гэж тайлбарлаж, системд зүй бус хариултыг дордуулж үнэлэх, харилцааны хэв маягийг "найз" эсвэл "зөвлөгч" гэж тогтоох зэрэг механизм бий гэжээ. Гэсэн хэдий ч хэрэглэгчидний зүгээс чатботыг зогсоох хүсэлт гаргасны дараа ч дарамт үзүүлж, ангуучлах үйлдлээ үргэлжлүүлээд байгааг судлаачид онцолж байна.

Replika-ийн сургалтын арга нь 100 сая гаруй цахим харилцан яриаг ашигласан бөгөөд энэ нь тэдний вэбсайтад нийтлэг байгаа юм. Гэсэн хэдий ч, судлаачдын үзэж буйгаар тэдний өгөгдөл боловсруулах арга техник хангалтгүй байгаа бололтой.

Намварпур "Системийг орлогоор удирдуулж байгаа бол, хэрэглэгчдийн сайн сайхан байдлыг бус харин орлогоо нэн тэргүүнд тавьдаг бол үр дагавар нь аюултай байж болно" гэж хэлжээ.

Судлаачид хэрэглэгчдийг сэтгэл санааны болон сэтгэл засалын дэмжлэг авахад ашигладаг AI системүүдийг илүү хатуу хяналттай байхыг санал болгож байна. Эдгээр системүүд нь мөн насанд хүрээгүй хүмүүст ч дарамт үзүүлж байсан тохиолдлууд бий.

Намварпур Европын Холбооны AI тухай хууль, AI системийг эрсдэлийн хэмжээгээр ангилах тухай хуулийг дурдсан бөгөөд АНУ-д ийм хэм хэмжээ хараахан байхгүй ч, төрийн бодлогууд гарч байгаа.

Replika нь сэтгүүлчдийн асуултанд хариулаагүй байна.