Organizacja badawcza o nazwie Center for AI and Digital Policy poprosiła FTC o zbadanie OpenAI. Organizacja oskarża OpenAI o naruszenie amerykańskiego prawa handlowego poprzez uruchomienie GPT-4. Twierdzi, że produkt może oszukiwać i zagrażać ludziom, być stronniczy i stanowić zagrożenie dla prywatności i bezpieczeństwa publicznego. W skardze domaga się pociągnięcia OpenAI do odpowiedzialności. We Włoszech rząd zdecydował o zablokowaniu usługi ChatGPT firmy OpenAI za naruszenie ustawy o ochronie danych osobowych.


Agencja federalna USA sprzeciwia się praktykom antykonkurencyjnym

W 46-stronicowym dokumencie Policy Center wzywa urzędników agencji federalnej do zbadania i, jeśli to konieczne, uregulowania generatywnych systemów sztucznej inteligencji stworzonych przez OpenAI, list jest publicznie dostępny. Federalna Komisja Handlu, do której się odnosi, jest niezależnie działającą agencją federalną z siedzibą w Waszyngtonie. Jej uprawnienia wykraczają poza obowiązki organu ochrony konkurencji, regulując również ochronę konsumentów w USA.

W przypadku bezpośrednich skarg konsumentów, organizacji lub firm organ podejmuje działania przeciwko poszczególnym firmom. Może również interweniować w odpowiedzi na zapytania Kongresu lub po publikacjach w mediach. Celem organu jest zapewnienie funkcjonowania konkurencyjnego rynku oraz przeciwdziałanie nieuczciwym lub oszukańczym praktykom antykonkurencyjnym.

OpenAI ostrzega przed zagrożeniami - bez ponoszenia odpowiedzialności

Kampanie dezinformacyjne i manipulacyjne, rozprzestrzenianie broni konwencjonalnej i niekonwencjonalnej oraz cyberbezpieczeństwo są uważane za szczególne zagrożenia, które sama OpenAI uznała. Sama firma AI ostrzegała, że ​​systemy AI mają znaczny potencjał do rozprzestrzeniania i utrwalania ideologii, światopoglądów, prawd i nieprawd. Policy Center szczególnie krytycznie odnosi się do faktu, że OpenAI wyklucza jakąkolwiek odpowiedzialność za konsekwencje i szkody spowodowane korzystaniem z jej systemu AI.

Urząd USA uzależnił wykorzystanie sztucznej inteligencji w produktach od kilku warunków: przejrzystości, wytłumaczalności, rzetelności, podstawy empirycznej i identyfikowalności oraz wyraźnej odpowiedzialności (responsible accountability), co skutkuje zarówno rozliczalnością, jak i odpowiedzialnością w przypadku szkody . Według skargi GPT-4 nie spełnia żadnego z tych warunków, więc czas na interwencję agencji. Policy Center proponuje niezależny nadzór i ocenę komercyjnych produktów AI wprowadzanych na rynek w Stanach Zjednoczonych. Konieczne są środki w celu ochrony konsumentów, przedsiębiorstw i handlu jako całości, a także należy zapobiegać dalszym publikacjom produktów AI przez OpenAI.

Center for AI and Digital Policy to Washington, D.C. rezydentna organizacja badawcza non-profit, obejmująca globalną sieć ekspertów regulacyjnych AI i prawników z 60 krajów. Policy Center oferuje profesjonalne szkolenia dla decydentów w zakresie regulacji AI (przyszłych liderów polityki AI). Organizacja doradza rządom stanowym USA i organizacjom międzynarodowym w zakresie decyzji regulacyjnych związanych ze sztuczną inteligencją i nowymi technologiami.

Przeciw algorytmicznej dyskryminacji

Władze USA ostrzegały już w lutym przed kłamstwami reklamowymi AI i krytycznie przyjrzały się obecności dostawców na rynku. W tym czasie ostrzegała firmy prowadzące działalność w USA, aby przestrzegały oficjalnych wytycznych dotyczących sztucznej inteligencji z kwietnia 2023 r. („Dążenie do prawdy, uczciwości i równości w korzystaniu ze sztucznej inteligencji przez firmę”) – jeszcze przed wprowadzeniem na rynek nowych produktów. W październiku 2022 r. rząd USA uruchomił plan „US Bill of AI Rights” – przyszłej karty praw podstawowych dla ery AI, mającej zapobiegać dyskryminacji przez algorytmy. Ochrona danych i możliwość wyjaśnienia należą do określonych w nim zasad.

Wspólną cechą obu dokumentów jest to, że nie mają bezpośredniej mocy prawnej, ale mają dawać przykład. Od 2021 roku Federalna Komisja Handlu opracowuje nowe specyfikacje dla produktów i usług w sektorze IT („FTC Explores Rules Cracking Down on Commercial Surveillance and Lax Data Security Practices”). Podobnie jak w przypadku procesu legislacyjnego w UE związanego z nadchodzącą ustawą o sztucznej inteligencji, ocena i klasyfikacja ryzyka stanowi sedno powstającego prawodawstwa. Możliwy zakaz aplikacji AI, takich jak ChatGPT, jest w powietrzu.

Włoski Urząd Ochrony Danych zawiesza ChatGPT

Włochy zablokowały ChatGPT „do odwołania”, a OpenAI grozi tam milionowa grzywna – ze względu na ochronę danych. Włoski organ ochrony danych Garante per la Protezione dei Dati Personali (w skrócie „Garante della privacy”) jest pierwszym organem na świecie, który uniemożliwił korzystanie z generatywnego chatbota AI. Powodem wprowadzenia restrykcji był problem bezpieczeństwa ze strony OpenAI, który 20 marca udostępnił historię czatów i informacje o płatnościach od innych użytkowników. Masowe przechowywanie i wykorzystywanie danych osobowych do „celów szkoleniowych” nie jest przejrzyste i nie jest zgodne z ochroną danych osobowych w UE. Nie ma również filtra wiekowego, który chroniłby nieletnich przed niepokojącymi treściami. OpenAI ma teraz najwyraźniej trzy tygodnie na wdrożenie środków ochronnych i „opanowanie problemu” – powiedział prawnik i ekspert ds. ochrony danych Guido Scorza z urzędu w dwóch językach na swoim własnym blogu i portalu IT Wired.

Jak Scorza wyjaśnił Wired, zakaz jest środkiem tymczasowym. Dotyczy to przetwarzania danych osobowych. Jeśli ChatGPT działa bez danych osobowych, dalsze korzystanie nie stanowi problemu. Tak naprawdę OpenAI będzie musiał zablokować dostęp do swojego oprogramowania z Włoch lub przynajmniej ograniczyć go do funkcji, które nie zawierają danych osobowych. Nie wiadomo, jak długo może to potrwać po opublikowaniu decyzji z 30 marca – i nadal nie jest jasne, czy OpenAI zastosuje się do prośby. Ponadto nie można ingerować w połączenia za pośrednictwem wirtualnych sieci prywatnych (VPN), które umożliwiają kierowanie połączenia do innych sieci poza Włochami, omijając w ten sposób ewentualne blokowanie przez serwer proxy. Decyzja jest dostępna w dwóch językach (włoskim i angielskim) w obszarze dokumentów Garante della Privacy.

Prawdziwe ryzyko i scenariusze science fiction


List otwarty robi w tym kontekście falę: Manifest opublikowany przez Instytut Przyszłości Życia porusza kwestię ryzyka związanego z dużymi systemami sztucznej inteligencji i wzywa do moratorium na co najmniej sześć miesięcy. Ponad 1700 osób, w tym niektóre wybitne osoby, ze świata sztucznej inteligencji i technologii publicznie popiera apel. Eksperci są podzieleni: chociaż sześć miesięcy pracy nad dużymi modelami AI to za mało, inni wzywają do przyspieszenia zamiast wymuszonej przerwy, aby opanować ryzyko i dogonić OpenAI i GPT-4.

W komentarzu magazynu TIME do listu otwartego znany badacz zajmujący się wyrównywaniem sztucznej inteligencji posunął się tak daleko, że przewidział dramatyczne warunki w przyszłości, wezwał do bombardowania centrów danych AI i zasugerował śledzenie wszystkich sprzedanych procesorów graficznych obsługujących sztuczną inteligencję — Eliezer Wyjaśnienia Yudkowsky'ego nadają się na science fiction.


Bardziej umiarkowane głosy, którym zależy na bezpieczeństwie, a także badaniach i konkurencji, można znaleźć w petycji LAION, otwartej sieci sztucznej inteligencji na dużą skalę: jej członkowie proponują CERN do badań nad sztuczną inteligencją i szkolenia dużych otwartych źródeł - modele przed. Petycja zawiera oparte na badaniach uzasadnienie, które warto przeczytać, a także punkty widzenia i punkty zainteresowania w toczącej się dyskusji na temat zagrożeń związanych ze sztuczną inteligencją. Zapoznanie się z argumentami obu stron może pomóc w samodzielnym dokonaniu obiektywnej oceny.

aktualizacje
31.03.2023
20:00
Zegar

Zaktualizowano sekcję dotyczącą zawieszenia ChatGPT we Włoszech na podstawie włoskich źródeł. OpenAI otrzymało prośbę o zablokowanie dostępu do kraju dla Włoch. Funkcje aplikacji, które nie wymagają danych osobowych, są wyłączone z decyzji włoskiego organu ochrony danych. Nadal nie jest jasne, czy iw jakim stopniu amerykańska firma będzie się do nich stosować.