Home Technologia W tym tygodniu OpenAI napotkało dwa poważne problemy z bezpieczeństwem

W tym tygodniu OpenAI napotkało dwa poważne problemy z bezpieczeństwem

22
0


OpenAI wydaje się być na pierwszych stronach gazet każdego dnia, a tym razem chodzi o podwójną dawkę obaw o bezpieczeństwo. Pierwszy problem dotyczy aplikacji Mac dla ChatGPT, podczas gdy drugi sugeruje szersze obawy dotyczące sposobu, w jaki firma radzi sobie z cyberbezpieczeństwem.

Na początku tego tygodnia inżynier i programista języka Swift Pedro José Pereira Vieito aplikację Mac ChatGPT i odkryłem, że przechowuje ona rozmowy użytkowników lokalnie w postaci zwykłego tekstu, zamiast je szyfrować. Aplikacja jest dostępna tylko na stronie internetowej OpenAI, a ponieważ nie jest dostępna w App Store, nie musi spełniać wymagań piaskownicy Apple. Praca Vieito została następnie objęta Po tym, jak luka w zabezpieczeniach przyciągnęła uwagę, firma OpenAI wydała aktualizację, która dodała szyfrowanie do lokalnie przechowywanych czatów.

Dla osób niebędących programistami sandboxing to praktyka bezpieczeństwa, która zapobiega rozprzestrzenianiu się potencjalnych luk i wad z jednej aplikacji na inne na komputerze. A dla osób niebędących ekspertami ds. bezpieczeństwa przechowywanie plików lokalnych w postaci zwykłego tekstu oznacza, że ​​potencjalnie wrażliwe dane mogą być łatwo przeglądane przez inne aplikacje lub złośliwe oprogramowanie.

Drugi problem pojawił się w 2023 r., a jego skutki wywołały efekt domina, który trwa do dziś. Wiosną ubiegłego roku hakerowi udało się uzyskać informacje o OpenAI po nielegalnym uzyskaniu dostępu do wewnętrznych systemów wiadomości firmy. poinformował, że kierownik programu technicznego OpenAI, Leopold Aschenbrenner, zwrócił uwagę zarządu firmy na kwestie bezpieczeństwa, argumentując, że włamanie ujawniło wewnętrzne luki w zabezpieczeniach, które mogliby wykorzystać zagraniczni przeciwnicy.

Aschenbrenner mówi teraz, że został zwolniony za ujawnienie informacji o OpenAI i podniesienie kwestii bezpieczeństwa firmy. Przedstawiciel OpenAI powiedział Czasy że „chociaż podzielamy jego zaangażowanie w budowę bezpiecznego AGI, nie zgadzamy się z wieloma oświadczeniami, które od tego czasu wygłosił na temat naszej pracy” i dodał, że jego odejście nie było wynikiem sygnalizowania nieprawidłowości.

Luki w zabezpieczeniach aplikacji to coś, czego doświadczyła każda firma technologiczna. Naruszenia bezpieczeństwa przez hakerów są również przygnębiająco powszechne, podobnie jak sporne relacje między sygnalistami a ich byłymi pracodawcami. Jednak biorąc pod uwagę, jak szeroko ChatGPT został przyjęty w różnych usługach i jak chaotyczny był biznes firmy, te ostatnie problemy zaczynają malować bardziej niepokojący obraz tego, czy OpenAI może zarządzać swoimi danymi.

Źródło linku