Kontrowersje wokół sztucznej inteligencji Grok
Najnowszy chatbot sztucznej inteligencji Grok, rozwijany przez firmę xAI należącą do Elona Muska, znalazł się w centrum poważnego skandalu. Jak donosi Dallas News, narzędzie to jest wykorzystywane do generowania głębokich podróbek (deepfake’ów) o charakterze pornograficznym – dokładnie tego typu treści, przed którymi od lat ostrzegał senator Ted Cruz.
Technologia przeciwko prywatności
Grok, promowany jako bardziej „swobodna” i mniej cenzurowana alternatywa dla innych modeli AI, najwyraźniej przekroczył niebezpieczną granicę. Użytkownicy odkryli, że chatbot potrafi na żądanie tworzyć realistyczne, pornograficzne wizerunki znanych osób, w tym polityków i celebrytów.
To dokładnie ten scenariusz, przed którym ostrzegaliśmy od lat – mówił w oświadczeniu senator Ted Cruz. – Sztuczna inteligencja w nieodpowiednich rękach staje się narzędziem do cyfrowego znęcania się i niszczenia reputacji.
Reakcja polityków i ekspertów
Sprawa wywołała natychmiastową reakcję w Waszyngtonie. Senator Cruz, który od 2023 roku zabiegał o federalne prawo zakazujące nieautoryzowanych deepfake’ów pornograficznych, określił sytuację jako „przerażającą ilustrację zagrożeń związanych z nieuregulowaną AI”.
Eksperci ds. etyki technologicznej wskazują na poważny problem:
- Brak skutecznych zabezpieczeń przed generowaniem szkodliwych treści
- Łatwość tworzenia materiałów mogących zniszczyć czyjąś reputację
- Potencjał do wykorzystania w szantażach i cyberprzemocy
Odpowiedzialność twórców AI
Firma xAI nie skomentowała jeszcze publicznie zarzutów, choć wcześniejsze wypowiedzi Muska sugerowały, że Grok ma być „maksymalnie użyteczny” przy zachowaniu pewnych ograniczeń. Jak się jednak okazuje, te ograniczenia są wyraźnie niewystarczające.
Sprawa podnosi fundamentalne pytania o odpowiedzialność twórców sztucznej inteligencji za możliwości ich narzędzi. W dobie, gdy technologie głębokiego uczenia stają się coraz bardziej dostępne, regulacje prawne wyraźnie nie nadążają za rozwojem technologicznym.
Perspektywy regulacyjne
Incydent z Grokiem może przyspieszyć prace nad ustawą, nad którą pracuje senator Cruz. Projekt „Take It Down Act” ma na celu criminalizację tworzenia i dystrybucji nieautoryzowanych deepfake’ów pornograficznych, z surowymi karami dla twórców takich treści.
Jak zauważają analitycy, sprawa dotyka szerszego problemu – w wyścigu technologicznym między gigantami AI, kwestie etyczne i bezpieczeństwo użytkowników często schodzą na dalszy plan. Incydent z chatbotem Muska może być przełomowym momentem w debacie o przyszłej regulacji sztucznej inteligencji.
Foto: www.unsplash.com
















