Home Technologia Nowa płyta bezpieczeństwa OpenAI ma większą moc i nie ma Sama Altmana

Nowa płyta bezpieczeństwa OpenAI ma większą moc i nie ma Sama Altmana

8
0


OpenAI ma ogłoszony Firma wprowadziła znaczące zmiany w swoich praktykach bezpieczeństwa, w tym utworzenie nowego niezależnego komitetu nadzorującego zarząd. Zmiana ta wiąże się z jedną znaczącą zmianą: CEO Sam Altman nie jest już członkiem komitetu bezpieczeństwa, co oznacza odejście od poprzedniej struktury.

Nowo utworzonemu Komitetowi Bezpieczeństwa i Ochrony (SSC) będzie przewodniczył Zico Kolter, dyrektor Wydziału Uczenia Maszynowego na Carnegie Mellon University. Inni kluczowi członkowie to dyrektor generalny Quora Adam D’Angelo, emerytowany generał armii USA Paul Nakasone i Nicole Seligman, była wiceprezes wykonawczy i główny radca prawny Sony Corporation.

Ten nowy komitet zastępuje poprzedni Komitet Bezpieczeństwa i Ochrony utworzony w czerwcu 2024 r., którego członkiem był Altman. Pierwotny komitet miał za zadanie wydawanie rekomendacji dotyczących kluczowych decyzji dotyczących bezpieczeństwa i ochrony dla projektów i operacji OpenAI.

Obowiązki CDC wykraczają teraz poza wydawanie rekomendacji. Będzie mieć uprawnienia do nadzorowania ocen bezpieczeństwa dla głównych wydań modeli i sprawowania nadzoru nad wydaniami modeli. Co najważniejsze, komitet będzie miał prawo do opóźnienia wydania do czasu odpowiedniego zajęcia się kwestiami bezpieczeństwa.

Restrukturyzacja następuje po okresie kontroli zaangażowania OpenAI w bezpieczeństwo AI. Firma w przeszłości spotykała się z krytyką za rozwiązanie zespołu Superalignment i pozostawienie kluczowego personelu skoncentrowanego na bezpieczeństwie. Usunięcie Altmana z komitetu ds. bezpieczeństwa wydaje się być próbą rozwiązania obaw dotyczących potencjalnych konfliktów interesów w nadzorowaniu bezpieczeństwa firmy.

Najnowsza inicjatywa bezpieczeństwa OpenAI obejmuje również plany poprawy środków bezpieczeństwa, zwiększenia przejrzystości swojej pracy i współpracy z organizacjami zewnętrznymi. Firma zawarła już porozumienia z AI Security Institutes w USA i Wielkiej Brytanii w celu współpracy przy badaniach nad pojawiającymi się zagrożeniami bezpieczeństwa AI i standardami godnej zaufania AI.

Link źródłowy