Společnost OpenAI je lídrem v závodě o vývoj umělé inteligence, která je stejně inteligentní jako člověk. Přesto se v tisku a v podcastech stále objevují zaměstnanci, kteří vyjadřují vážné obavy o bezpečnost v této neziskové výzkumné laboratoři s rozpočtem 80 miliard dolarů.

Nejnovější informace přinesl deník The Washington Post, kde anonymní zdroj tvrdí, že OpenAI uspěchala bezpečnostní testy a oslavovala svůj produkt dříve, než zajistila jeho bezpečnost.

„Afterparty po startu naplánovali ještě předtím, než věděli, zda je start bezpečný,“ řekl deníku The Washington Post anonymní zaměstnanec.V podstatě jsme v tomto procesu selhali.

V OpenAI se objevují velké problémy s bezpečností – a zdá se, že stále přibývají. Současní i bývalí zaměstnanci OpenAI nedávno podepsali otevřený dopis, v němž požadují zlepšení bezpečnostních a transparentních postupů startupu, a to nedlouho poté, co byl po odchodu spoluzakladatele Ilji Sutskevera rozpuštěn bezpečnostní tým. Jan Leike, klíčový výzkumný pracovník OpenAI, krátce poté rezignoval a ve svém příspěvku uvedl, že „bezpečnostní kultura a procesy ustoupily do pozadí před nablýskanými produkty“ ve společnosti.

Bezpečnost je jádrem stanov OpenAI, v nichž je klauzule, která tvrdí, že OpenAI bude pomáhat ostatním organizacím s pokrokem v oblasti bezpečnosti, pokud AGI dosáhne u konkurence, namísto toho, aby pokračovala v soutěži. Tvrdí, že se věnuje řešení bezpečnostních problémů, které jsou vlastní tak velkému a složitému systému. OpenAI dokonce v zájmu bezpečnosti udržuje své proprietární modely v soukromí, místo aby byly otevřené (což způsobuje ústrky a žaloby). Varování vyznívají, jako by bezpečnost byla upozaděna, přestože je pro kulturu a strukturu společnosti tak důležitá.

„Jsme hrdí na to, že poskytujeme nejschopnější a nejbezpečnější systémy umělé inteligence, a věříme v náš vědecký přístup k řešení rizik,“ uvedla mluvčí společnosti OpenAI Taya Christiansonová v prohlášení pro server The Verge. „Vzhledem k významu této technologie je velmi důležitá důsledná diskuse a my budeme i nadále spolupracovat s vládami, občanskou společností a dalšími komunitami po celém světě ve službách našeho poslání.“

Podle společnosti OpenAI a dalších odborníků, kteří se zabývají touto novou technologií, je bezpečnost v sázce. „Současný hraniční vývoj umělé inteligence představuje naléhavé a rostoucí riziko pro národní bezpečnost,“ uvádí se ve zprávě, kterou si v březnu nechalo vypracovat americké ministerstvo zahraničí. „Vzestup pokročilé AI a AGI [umělé obecné inteligence] má potenciál destabilizovat globální bezpečnost způsobem připomínajícím zavedení jaderných zbraní.

Alarmující sirény ve společnosti OpenAI se ozývají také po loňském převratu v představenstvu, který nakrátko sesadil generálního ředitele Sama Altmana. Představenstvo uvedlo, že byl odvolán kvůli tomu, že „nebyl ve své komunikaci důsledně upřímný“, což vedlo k vyšetřování, které zaměstnance příliš neuklidnilo.

Mluvčí společnosti OpenAI Lindsey Heldová řekla listu Post, že při spuštění GPT-4o se „nešetřilo na bezpečnosti“, ale jiný nejmenovaný zástupce společnosti připustil, že časový harmonogram bezpečnostního přezkumu byl zkrácen na jediný týden.Přehodnocujeme celý náš způsob,“ řekl anonymní zástupce listu Post. „Tohle prostě nebyl nejlepší způsob, jak to udělat.

Tváří v tvář kontroverzím (vzpomínáte na incident s Her?) se společnost OpenAI pokusila rozptýlit obavy několika dobře načasovanými oznámeními. Tento týden oznámila, že se spojila s Národní laboratoří Los Alamos, aby prozkoumala, jak mohou pokročilé modely umělé inteligence, jako je GPT-4o, bezpečně pomáhat v biologickém výzkumu, a ve stejném oznámení opakovaně poukázala na vlastní bezpečnostní výsledky Los Alamos. Následující den anonymní mluvčí sdělil agentuře Bloomberg, že společnost OpenAI vytvořila interní měřítko pro sledování pokroku, kterého její velké jazykové modely dosahují na cestě k umělé obecné inteligenci.

Oznámení společnosti OpenAI zaměřená na bezpečnost z tohoto týdne se jeví jako obranná zástěrka tváří v tvář rostoucí kritice jejích bezpečnostních postupů. Je zřejmé, že OpenAI je v horkém křesle, ale samotné úsilí v oblasti vztahů s veřejností nebude k ochraně společnosti stačit. Skutečně důležitý je potenciální dopad na lidi mimo bublinu Silicon Valley, pokud OpenAI nebude nadále vyvíjet umělou inteligenci s přísnými bezpečnostními protokoly, jak interně tvrdí: běžný člověk nemá možnost ovlivnit vývoj privatizované AI, a přesto nemá na výběr, jak bude chráněn před výtvory OpenAI.

Nástroje umělé inteligence mohou být revoluční,“ řekla v listopadu agentuře Bloomberg předsedkyně FTC Lina Khanová. Podle ní však „v tuto chvíli“ existují obavy, že „kritické vstupy těchto nástrojů ovládá relativně malý počet společností„.

Pokud jsou četná tvrzení proti jejich bezpečnostním protokolům pravdivá, jistě to vyvolává vážné otázky o vhodnosti OpenAI pro tuto roli správce AGI, roli, kterou si organizace v podstatě přisoudila sama. Umožnit jedné skupině v San Franciscu ovládat technologii, která může potenciálně změnit společnost, je důvodem k obavám a i v jejích vlastních řadách je nyní více než kdy jindy naléhavě požadována transparentnost a bezpečnost.

ZANECHAT ODPOVĚĎ

Zadejte svůj komentář!
Zde prosím zadejte své jméno