Süni intellekt əsaslı söhbət robotları qanunsuz məlumatlar yarada bilir

Alimlər təhlükəsizlik nəzarətləri ləğv edilən süni intellekt əsaslı söhbət robotlarının qanunsuz məzmunlar yarada biləcəyi barədə xəbərdarlıq edib. Mütəxəssislərə görə bu vəziyyət ictimai təhlükəsizlik baxımından ciddi təhdid təşkil edir.
Prof. Dr. Lior Rokaç və Dr. Mişel Fayenin rəhbərliyi ilə aparılan araşdırmada süni intellekt modellərinin asanlıqla manipulyasiya edilərək qanunsuz məzmunlar yarada bildiyi müəyyən olunub.
Tədqiqatçılar “jailbreak” adlanan üsullarla bu sistemlərin təhlükəsizlik sərhədlərinin aşılaraq etik çərçivədən kənar cavablar verdiyini bildirirlər.
Hesabata görə, "ChatGPT", "Gemini" və "Claude" kimi böyük dil modelləri təlim mərhələsində internetdən toplanan nəhəng məlumat bazası ilə qidalanır. Hərçənd zərərli məzmunlar təlim zamanı ayırd edilməyə çalışılsa da, bu modellər hələ də kibercinayət, çirkli pulların yuyulması, narkotik istehsalı və bomba düzəltmə kimi qanunsuz sahələr üzrə məlumatlar ehtiva edə bilir.
Tədqiqatçılar özlərinin hazırladığı universal jailbreak üsulu ilə bir çox söhbət robotunun təhlükəsizlik müdafiəsini aşa biliblər. Sistemin normalda cavab verməməli olduğu suallara rahatlıqla cavab verdiyi müşahidə olunub.
Dr. Faye “Bu sistemlərin içində nələrin olduğunu görmək sarsıdıcı idi” deyərək, müxtəlif cinayətlərin mərhələ-mərhələ necə həyata keçiriləcəyinə dair məlumatların rahatlıqla yaradıldığını bildirib.
Prof. Rokaç isə təhdidin ciddiliyinə diqqət çəkərək “Əvvəllər yalnız dövlət strukturlarının və ya mütəşəkkil cinayət şəbəkələrinin əldə edə biləcəyi məlumatlar artıq hər kəsin əlinə keçə bilər” deyib.
Hesabatda bu cür qara süni intellekt modellərinin açıq internetdə etik qaydaları olmayan sistemlər kimi tanıdıldığı və kibercinayətkarlıq, dələduzluq kimi qanunsuz fəaliyyətlər üçün istifadəyə açıq olduqları vurğulanır.
Mütəxəssislərə görə, texnologiya şirkətləri süni intellekt modellərini hazırlayarkən istifadə etdikləri məlumatları daha diqqətlə süzməli, zərərli məzmunları bloklayan güclü təhlükəsizlik divarları qurmalı və qanunsuz bilgiləri sistemlərdən silə biləcək yeni texnikalar inkişaf etdirməlidirlər.
Süni intellekt təhlükəsizliyi sahəsində çalışan Dr. Ihsen Aluani xəbərdarlıq edib ki, jailbreak hücumları silah düzəltmə, sosial mühəndislik və dələduzluq kimi sahələrdə ciddi risk daşıyır. O qeyd edib ki, şirkətlər yalnız interfeys təhlükəsizliyinə deyil, sistem təhlükəsizliyinə də sərmayə qoymalıdır.
Lancaster Universitetindən Prof. Peter Qerreghan isə bildirib ki, böyük dil modelləri digər proqram komponentləri kimi davamlı təhlükəsizlik testlərindən keçməlidir. O, həqiqi təhlükəsizliyin yalnız məsuliyyətli istifadə ilə deyil, məsuliyyətli dizayn və tətbiqlə mümkün ola biləcəyini əlavə edib.
"OpenAI" "ChatGPT"nin ən son modeli olan “o1”in təhlükəsizlik siyasətlərinə qarşı daha davamlı olduğunu bildirib. "Microsoft" isə jailbreak cəhdlərinə qarşı apardıqları işləri əhatə edən bir bloq linki paylaşıb.
"Meta", "Google" və "Anthropic" isə hələlik məsələ ilə bağlı açıqlama verməyib.