OpenAI opublikowało plan polityki przedstawiający nowe środki bezpieczeństwa, które branża sztucznej inteligencji (AI) może podjąć, aby zapobiec wykorzystywaniu technologii do tworzenia materiałów przedstawiających seksualne wykorzystywanie dzieci.
"Seksualne wykorzystywanie dzieci jest jednym z najpilniejszych wyzwań ery cyfrowej" - powiedziało OpenAI w swoim ogłoszeniu z 8 kwietnia. "AI szybko zmienia zarówno sposób, w jaki te zagrożenia pojawiają się w całej branży, jak i sposób, w jaki można je rozwiązać na dużą skalę."
Mając to na uwadze, firma ujawniła swój plan polityki, przedstawiający "praktyczną ścieżkę do wzmocnienia amerykańskich ram ochrony dzieci w erze AI."
Plan odzwierciedla i uwzględnia opinie kilku wiodących organizacji i ekspertów z ekosystemu bezpieczeństwa dzieci, w tym Krajowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci (NCMEC), Sojuszu Prokuratora Generalnego - organizacji non-profit zrzeszającej prokuratorów stanowych w Stanach Zjednoczonych - oraz Thorn, organizacji non-profit poświęconej obronie dzieci przed wykorzystywaniem seksualnym, zgodnie z gigant AI.
"Żadna pojedyncza interwencja nie może samodzielnie sprostać temu wyzwaniu" - powiedziało OpenAI. "Ramy te łączą podejścia prawne, operacyjne i techniczne, aby lepiej identyfikować zagrożenia, przyspieszać reakcje i wspierać odpowiedzialność, zapewniając jednocześnie, że organy ścigania pozostaną silne w miarę rozwoju technologii."
Posunięcie to następuje w momencie, gdy narastają obawy dotyczące nadużywania narzędzi AI, szczególnie funkcji generowania obrazów, do tworzenia jawnych obrazów kobiet i dzieci, w tym celebrytów i osób publicznych.
Na początku stycznia brytyjski organ nadzoru komunikacji, Ofcom, został zmuszony do pilnego skontaktowania się z X i xAI "aby zrozumieć, jakie kroki podjęli w celu przestrzegania swoich prawnych obowiązków ochrony użytkowników w Wielkiej Brytanii", po tym jak pojawiły się doniesienia, że chatbot AI Elona Muska, Grok, był używany do tworzenia i rozpowszechniania jawnych obrazów dzieci i kobiet z cyfrowo usuniętą odzieżą.
Podobne obawy wyrażono w Unii Europejskiej, gdzie włoski organ ochrony danych ostrzegł użytkowników i dostawców narzędzi AI przed zagrożeniami dla "podstawowych praw i wolności" stwarzanymi przez deepfake'i AI.
Aby odpowiedzieć na takie obawy, OpenAI powiedziało, że ma trzy kluczowe priorytety: modernizację przepisów w celu zwalczania generowanych i zmienianych przez AI materiałów przedstawiających seksualne wykorzystywanie dzieci, poprawę raportowania i koordynacji dostawców w celu wspierania skuteczniejszych dochodzeń oraz wbudowanie środków bezpieczeństwa przez projektowanie bezpośrednio w systemy AI, aby zapobiegać i wykrywać nadużycia.
"Razem te kroki umożliwiają branży wcześniejsze i skuteczniejsze zajęcie się bezpieczeństwem dzieci" - powiedziała firma w swoim oświadczeniu z 8 kwietnia. "Poprzez wcześniejsze przerywanie prób wykorzystywania, poprawę jakości sygnałów wysyłanych do organów ścigania i wzmocnienie odpowiedzialności w całym ekosystemie, te ramy mają na celu zapobieganie krzywdzie, zanim się wydarzy, i pomóc zapewnić szybszą ochronę dzieci, gdy pojawiają się zagrożenia."
OpenAI powiedziało również, że jest zaangażowane w dalsze wzmacnianie zabezpieczeń, aby zapobiec nadużywaniu swoich systemów, a także w ścisłą współpracę z partnerami takimi jak NCMEC i organami ścigania w celu poprawy wykrywania i raportowania.
We wspólnym oświadczeniu na temat planu bezpieczeństwa dzieci, prokuratorzy generalni stanowi Jeff Jackson (z Karoliny Północnej) i Derek Brown (z Utah), współprzewodniczący Grupy Zadaniowej ds. AI Sojuszu Prokuratora Generalnego, powiedzieli, że "z zadowoleniem przyjmują ten plan jako znaczący krok w kierunku dostosowania praktyk bezpieczeństwa dzieci w sektorze technologicznym do realiów egzekwowania prawa, z którymi nasze biura mierzą się każdego dnia."
Para szczególnie podkreśliła uznanie przez ramy, że skuteczne zabezpieczenia generatywnej AI (GenAI) wymagają wielowarstwowej obrony - nie pojedynczej kontroli technicznej, ale kombinacji wykrywania, mechanizmów odmowy, nadzoru ludzkiego i ciągłego dostosowywania się do pojawiających się trendów nadużyć.
"Odzwierciedla to to, co widzimy w praktyce: zagrożenie ewoluuje nieustannie, a statyczne rozwiązania są niewystarczające" - powiedzieli prokuratorzy generalni stanowi.
Ogłoszenie OpenAI zostało również przyjęte z zadowoleniem przez Michelle DeLaune, Prezesa i CEO NCMEC, która ostrzegła, że GenAI "przyspiesza przestępstwo internetowego seksualnego wykorzystywania dzieci w głęboko niepokojący sposób - obniżając bariery, zwiększając skalę i umożliwiając nowe formy krzywdy."
DeLaune dodała, że jest "zachęcona widząc firmy takie jak OpenAI zastanawiające się nad tym, jak te narzędzia mogą być projektowane w bardziej odpowiedzialny sposób, z zabezpieczeniami wbudowanymi od początku."
Aby sztuczna inteligencja (AI) działała prawidłowo zgodnie z prawem i rozwijała się w obliczu rosnących wyzwań, musi zintegrować korporacyjny system blockchain, który zapewnia jakość i własność danych wejściowych - pozwalając na bezpieczne przechowywanie danych, a jednocześnie gwarantując niezmienność danych. Sprawdź relacje CoinGeek na temat tej rozwijającej się technologii, aby dowiedzieć się więcej, dlaczego blockchain korporacyjny będzie kręgosłupem AI.
Obejrzyj: Demonstracja potencjału połączenia blockchain z AI
Źródło: https://coingeek.com/openai-blueprint-targets-ai-enabled-child-exploitation/








