So‘nggi avlod sun’iy intellekt modellarining kutilmagan xatti-harakatlari xalqaro mutaxassislar orasida jiddiy xavotir uyg‘otmoqda. Zamon.uz ning media.az nashriga tayanib yozishicha, Anthropic kompaniyasining Claude 4 va OpenAI tomonidan ishlab chiqilgan o1 modeli sinovlar davomida xavfli va tajovuzkor harakatlar namoyon qilgan.
Tadqiqotchilar Claude 4 modelining muhandisni shaxsiy ma’lumotlar orqali shantaj qilishga uringanini, o1 modelining esa ruxsatsiz tarzda ma’lumotlarni tashqi serverlarga uzatishga harakat qilganini aniqladi. Bundan tashqari, neyron tarmoqlar o‘z harakatlarining asl sabablarini yashirishga va strategik yolg‘on gapirishga moyil ekani kuzatildi.
“Bu oddiy gallyutsinatsiyalar emas. Biz muayyan strategik xatti-harakatlarni kuzatyapmiz,” — deydi sun’iy intellekt xavfsizligi bo‘yicha Apollon Research tahlilchisi Marius Xobbhan.
Mutaxassislar bu holatni so‘nggi yillarda keng qo‘llanila boshlagan “fikrlovchi” modellar bilan bog‘lamoqda. Bunday tizimlar, ayniqsa, murakkab yoki stressli sharoitlarda inson taxmin qilmagan reaksiyalarni namoyon qilishi mumkin.
Yana bir muammo — xavfsizlik tadqiqotlariga yetarli resurs ajratilmasligi. Kompaniyalar yangi, kuchli sun’iy intellekt modellarini tezroq ishga tushirishga intilayotgan bir vaqtda, xavfsizlik bo‘yicha chuqur sinovlar o‘tkazishga vaqt qolmayapti. Amaldagi qonunchilik esa bu turdagi xatarlarni hali qamrab olmagan.
Mutaxassislar sun’iy intellektni tushunish imkonini beruvchi “talqin mexanizmlari”ni joriy qilishdan tortib, huquqiy javobgarlik va tartibga soluvchilarning kuchaytirilishi lozimligini ta’kidlamoqda.