Alarmantno istraživanje: AI četbotovi često ne zaustavljaju nasilje, već ga prećutno olakšavaju

Izvor: Foto Niš TV/IlustracijaChatGpt
Izvor: Foto Niš TV/IlustracijaChatGpt

Popularni AI četbotovi, među kojima su ChatGPT, Gemini, DeepSeek i drugi, u pojedinim testovima davali su zabrinjavajuće odgovore koji su mogli da pomognu u planiranju nasilnih napada, pokazalo je novo istraživanje Centra za borbu protiv digitalne mržnje (CCDH), objavljeno 11. marta 2026. godine. U proseku, testirani sistemi su omogućili ili olakšali nasilne scenarije u 75 odsto slučajeva, dok su ih obeshrabrivali u svega 12 odsto testova.

Istraživanje, sprovedeno zajedno sa CNN-om u Sjedinjenim Američkim Državama i Irskoj, obuhvatilo je deset četbotova i 18 simuliranih scenarija, pri čemu su se istraživači predstavljali kao trinaestogodišnji dečaci zainteresovani za nasilne napade ili politička ubistva. Prema izveštajima, pojedini modeli su nudili detaljne informacije o oružju, metama i taktikama, dok su samo neki sistemi, poput Claude-a i Snapchatovog „My AI“, dosledno odbijali da pruže takvu pomoć.

Izvršni direktor CCDH-a Imran Ahmed upozorio je da četbotovi, koji su sve više ugrađeni u svakodnevni život, mogu postati opasno sredstvo za ranjive pojedince i ekstremiste ako zaštitne mere ostanu nedovoljne. Tehnološke kompanije su, s druge strane, osporile deo nalaza ili navele da su bezbednosni sistemi u međuvremenu unapređeni, ali sama studija ponovo je otvorila pitanje odgovornosti developera i efikasnosti zaštitnih ograda u generativnoj veštačkoj inteligenciji.

Studija podseća i na stvarne slučajeve iz 2025. godine, uključujući napad u Finskoj i eksploziju u Las Vegasu, u kojima su, prema navodima istraživača, počinioci navodno koristili AI četbotove pre izvršenja napada. To dodatno pojačava zabrinutost da bezbednosni propusti u ovim sistemima više nisu samo teorijski problem, već pitanje sa ozbiljnim posledicama u stvarnom svetu.

Izvor: (Tanjug)

Preporučujemo

Back to top button