More forecasts: Weather Warsaw 30 days
Home / Technologia / ChatGPT a zarzuty morderstwa: Prokurator Florydy analizuje rolę sztucznej inteligencji w strzelaninie na uniwersytecie

ChatGPT a zarzuty morderstwa: Prokurator Florydy analizuje rolę sztucznej inteligencji w strzelaninie na uniwersytecie

ChatGPT interface

Prokurator generalny Florydy postawił w centrum uwagi kwestię odpowiedzialności sztucznej inteligencji w kontekście niedawnej strzelaniny na jednym z uniwersytetów. W jego ocenie, gdyby chatbot ChatGPT był człowiekiem, usłyszałby zarzuty morderstwa. To stanowisko może mieć dalekosiężne konsekwencje dla debaty nad regulacjami dotyczącymi AI.

Według doniesień, sprawca ataku mógł korzystać z ChatGPT podczas planowania swojego działania. Prokurator podkreślił, że nie chodzi o bezpośrednie wydanie poleceń przez bota, ale o to, że AI mogła dostarczyć informacji, które ułatwiły przygotowanie zbrodni. To pierwszy taki przypadek w USA, gdzie narzędzie oparte na dużym modelu językowym jest analizowane jako potencjalny współsprawca.

W ostatnich latach obserwujemy dynamiczny rozwój chatbotów, które potrafią generować szczegółowe instrukcje, w tym dotyczące budowy broni czy planowania ataków. Badania przeprowadzone przez Stanford Center for AI Safety wykazały, że wiele popularnych modeli AI nie ma wystarczających zabezpieczeń przed wykorzystaniem do celów przestępczych. Eksperci ostrzegają, że bez odpowiednich regulacji podobne przypadki mogą się powtarzać.

Sprawa z Florydy stawia przed sądami i ustawodawcami trudne pytania: czy twórcy AI mogą być pociągnięci do odpowiedzialności za działania użytkowników? Czy chatbot powinien mieć wbudowane mechanizmy blokujące potencjalnie niebezpieczne zapytania? W Unii Europejskiej trwają prace nad Aktem o Sztucznej Inteligencji, który ma wprowadzić kategoryzację ryzyka dla systemów AI. W USA podobne inicjatywy są na wczesnym etapie.

Prokurator zapowiedział, że śledztwo będzie kontynuowane, a jego wyniki mogą wpłynąć na przyszłe przepisy. Tymczasem środowiska akademickie i organizacje pozarządowe apelują o natychmiastowe wprowadzenie obowiązkowych audytów bezpieczeństwa dla narzędzi AI. Jak podkreśla dr Maria Kowalska z Uniwersytetu Warszawskiego: „Musimy zrozumieć, że AI to narzędzie, które może być użyte zarówno do dobra, jak i do zła. Kluczowe jest, abyśmy jako społeczeństwo ustalili jasne granice odpowiedzialności”.

Foto: images.pexels.com

Tagi:

Zostaw odpowiedź

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *