Home Technologia W tym tygodniu OpenAI napotkało dwa poważne problemy z bezpieczeństwem

W tym tygodniu OpenAI napotkało dwa poważne problemy z bezpieczeństwem

8
0


OpenAI wydaje się być na pierwszych stronach gazet każdego dnia, a tym razem chodzi o podwójną dawkę obaw o bezpieczeństwo. Pierwszy problem dotyczy aplikacji Mac dla ChatGPT, podczas gdy drugi sugeruje szersze obawy dotyczące sposobu, w jaki firma radzi sobie z cyberbezpieczeństwem.

Na początku tego tygodnia inżynier i programista języka Swift Pedro José Pereira Vieito aplikację Mac ChatGPT i odkrył, że przechowuje ona rozmowy użytkowników lokalnie w postaci zwykłego tekstu, zamiast je szyfrować. Aplikacja jest dostępna tylko na stronie internetowej OpenAI, a ponieważ nie jest dostępna w App Store, nie musi spełniać wymagań piaskownicy Apple. Praca Vieito została następnie objęta Po tym, jak luka w zabezpieczeniach przyciągnęła uwagę, firma OpenAI wydała aktualizację, która dodała szyfrowanie do lokalnie przechowywanych czatów.

Dla osób niebędących programistami, sandboxing to praktyka bezpieczeństwa, która zapobiega rozprzestrzenianiu się potencjalnych luk i awarii z jednej aplikacji na inne na komputerze. A dla osób niebędących ekspertami ds. bezpieczeństwa, przechowywanie plików lokalnych w postaci zwykłego tekstu oznacza, że ​​potencjalnie poufne dane mogą być łatwo przeglądane przez inne aplikacje lub złośliwe oprogramowanie.

Drugi problem miał miejsce w 2023 r., a jego skutki, które wywołały efekt domina, trwają do dziś. Wiosną ubiegłego roku haker był w stanie uzyskać informacje o OpenAI po nielegalnym uzyskaniu dostępu do wewnętrznych systemów wiadomości firmy. poinformował, że kierownik programu technicznego OpenAI, Leopold Aschenbrenner, zwrócił się do zarządu firmy z prośbą o wyjaśnienie kwestii bezpieczeństwa. Stwierdził, że włamanie mogło skutkować ujawnieniem wewnętrznych luk w zabezpieczeniach, które mogliby wykorzystać zagraniczni przeciwnicy.

Aschenbrenner mówi teraz, że został zwolniony za ujawnienie informacji o OpenAI i za podsycanie obaw o bezpieczeństwo firmy. Przedstawiciel OpenAI powiedział Czasy że „chociaż podzielamy jego zaangażowanie w tworzenie bezpiecznego AGI, nie zgadzamy się z wieloma twierdzeniami, które od tego czasu wysunął na temat naszej pracy” i dodał, że jego odejście nie było wynikiem ujawniania nieprawidłowości.

Luki w zabezpieczeniach aplikacji to coś, czego doświadczyła każda firma technologiczna. Naruszenia dokonywane przez hakerów są również przygnębiająco powszechne, podobnie jak sporne relacje między sygnalistami a ich byłymi pracodawcami. Jednak między tym, jak szeroko ChatGPT został przyjęty do usług i jak chaotyczna jest firma , I Ostatnie problemy zaczynają rzucać coraz bardziej niepokojący obraz na kwestię tego, czy OpenAI będzie w stanie zarządzać swoimi danymi.



Source link