Süni intellekt ilə yaradılan saxta fotolar, səslər və videolar dünya üzrə həm münaqişə bölgələrində, həm də seçki kampaniyalarında dezinformasiya və manipulyasiya üçün təhlükəli alətlərə çevrilib.
Daha.az xəbər verir ki, istər Rusiya-Ukrayna müharibəsi müddətində yayılan saxta videolar, istər Tayvanda seçki dövründəki saxta çıxışlar və qalmaqallar, istərsə də Yaponiyada real olmayan təbii fəlakət görüntüləri, nüvə qəzası və ya daşqın kimi süni ssenarilər ciddi təhlükə mənbəyinə çevrilib.
Sensity AI-nin həmtəsisçisi Francesco Kavallinin sözlərinə görə, AI alətləri inkişaf etdikcə saxta ilə həqiqini ayırd etmək daha da çətinləşir. Keyfiyyəti aşağı olan və sıxılmış formatlarda hazırlanmış görüntülər insan gözü ilə ayırd edilə bilmir, səslər isə demək olar ki, tamamilə bənzədilir.
Midjourney və Runway kimi süni zəka alətlərinin inkişafı nəticəsində ən təcrübəli mütəxəssislər belə bu fərqləri ayırd etməkdə çətinlik çəkir. Nəticədə, saxta görüntülər və səs faylları saxta xəbər saytları və pullu reklamlar vasitəsilə yayılaraq ictimai rəyi manipulyasiya etməyi bacarır.
Kavalli bildirib ki, Sensity-nin inkişaf etdirdiyi sistemlər süni zəka ilə yaradılmış vizual və səs manipulyasiyalarını təhlil edə bilir və bu məlumatlar məhkəmə işlərində istifadə olunur.
Qeyd edək ki, bu kimi halların qarşısını almaq üçün insanlar süni zəka risklərinə qarşı məlumatlandırılmalı, media və tədqiqat qurumları müasir texnoloji alətlərlə təmin olunmalıdır. Çünki artıq görünənə, eşidilənə inanmaq çətindir.