Home Technologia Nowa tablica bezpieczeństwa OpenAI ma większą moc i nie ma Sama Altmana

Nowa tablica bezpieczeństwa OpenAI ma większą moc i nie ma Sama Altmana

14
0


OpenAI ma ogłoszony znaczące zmiany w praktykach bezpieczeństwa, w tym utworzenie nowego niezależnego komitetu nadzorującego zarząd. Ten ruch wiąże się ze znaczącą zmianą: CEO Sam Altman nie jest już częścią komitetu bezpieczeństwa, co oznacza odejście od poprzedniej struktury.

Nowo utworzonemu Komitetowi Bezpieczeństwa i Ochrony (SSC) będzie przewodniczył Zico Kolter, dyrektor Wydziału Uczenia Maszynowego na Carnegie Mellon University. Inni kluczowi członkowie to dyrektor generalny Quora Adam D’Angelo, emerytowany generał armii USA Paul Nakasone i Nicole Seligman, była wiceprezes wykonawczy i główny radca prawny Sony Corporation.

Ten nowy komitet zastępuje poprzedni Komitet ds. Bezpieczeństwa i Ochrony, który został utworzony w czerwcu 2024 r. i do którego należał Altman. Pierwotny komitet miał za zadanie formułowanie rekomendacji dotyczących kluczowych decyzji dotyczących bezpieczeństwa i ochrony dla projektów i operacji OpenAI.

Obowiązki SSC wykraczają teraz poza zalecenia. Będzie mieć uprawnienia do nadzorowania ocen bezpieczeństwa dla głównych wydań modeli i sprawowania nadzoru nad wprowadzaniem modeli na rynek. Co najważniejsze, komitet będzie miał prawo do opóźnienia wydania do czasu odpowiedniego zajęcia się kwestiami bezpieczeństwa.

Ta restrukturyzacja następuje po okresie kontroli dotyczącej zaangażowania OpenAI w bezpieczeństwo AI. Firma w przeszłości spotykała się z krytyką za rozwiązanie zespołu Superalignment i odejścia kluczowego personelu skoncentrowanego na bezpieczeństwie. Usunięcie Altmana z komitetu ds. bezpieczeństwa wydaje się być próbą rozwiązania obaw dotyczących potencjalnych konfliktów interesów w nadzorze nad bezpieczeństwem firmy.

Najnowsza inicjatywa bezpieczeństwa OpenAI obejmuje również plany wzmocnienia środków bezpieczeństwa, zwiększenia przejrzystości ich pracy i współpracy z organizacjami zewnętrznymi. Firma zawarła już porozumienia z amerykańskimi i brytyjskimi instytutami bezpieczeństwa AI w celu współpracy przy badaniu pojawiających się zagrożeń bezpieczeństwa AI i standardów dla godnej zaufania AI.



Source link