Home Technologia Jeśli sztuczna inteligencja ma przejąć władzę nad światem, dlaczego nie może rozwiązać...

Jeśli sztuczna inteligencja ma przejąć władzę nad światem, dlaczego nie może rozwiązać problemu ortografii?

15
0


Moje zadanie dla naszych władców AI było proste: pomóżcie mi rozszyfrować New York Times Śpiąca Pszczoła.

Większość sobotniego wieczoru spędziłem, próbując zamienić litery G, Y, A, L, P, O i N na jak najwięcej słów. Ale trzy godziny, 141 punktów i 37 słów – w tym „brak przeprosin”, „staw” i „analogia” – później uderzyłem w ścianę. Jeszcze kilka słów wystarczyło, aby dostać się do „genialnych” szeregów Spelling Bee, tytułu zarezerwowanego dla tych, którzy rozszyfrowują 70 procent wszystkich możliwych słów przy użyciu dostarczonych liter, i punktu, w którym brana jest pod uwagę głowa układanki skutecznie rozwiązany. (Rozwiązujący w 100% przypadków otrzymują tytuł „królowej pszczół”, ale nawet ja mam pewne ograniczenia.)

Mój ludzki umysł najwyraźniej miał trudności, ale dla sztucznej inteligencji to zadanie wydawało się dziecinną zabawą, więc włączyłem ChatGPT, powiedziałem, że próbuję wygrać konkurs ortograficzny, przesłałem listy i przedstawiłem zasady. „Daj mi listę wszystkich słów, które można z nich utworzyć” – napisałam. „Możesz powtarzać litery, ale każde słowo musi zawierać „N”.”

Kiedy nacisnąłem Enter, oto co odpowiedział ChatGPT:

Oto lista słów utworzonych z liter „GYALPON”, które muszą zawierać literę „N”:
GNLPAYO
YPNL
PGNOIL
ONAPYLG
LGNAPYO
TYLKO
NAYGOPL
JIPON
AOGPLNY
PNAOGLI
To tylko przykładowa lista ze względu na dużą liczbę możliwych permutacji.

Niezbyt dobry początek.

„Te słowa muszą znajdować się w słowniku” – odpisałam. „Oczywiście” – brzmiała odpowiedź. „Dostarczę listę prawidłowych angielskich słów na podstawie podanych liter.”ANGLY, GALON, LANG.

Najwyraźniej to nie zadziałało, więc zwróciłem się do Copilot firmy Microsoft (YANG, ZABAWA, PLANOWANIE, Irytujące), Bliźniaki Google (POWÓD, LUB, GIAN) i Claude da Antrópico (MANGA, W TOKU, GRAMADO17.LAY). Meta AI powiedziała mi, że na liście zawierała tylko słowa rozpoznane przez słownik NALYP mi WIELKA, natomiast Perplexity – chatbot z ambicje zabić wyszukiwarkę Google – po prostu napisałem DZIEWCZYNA setki razy, zanim nagle zamarznie.

Perplexity, chatbot, który ma ambicje zlikwidować wyszukiwarkę Google, rozpadł się, gdy poproszono go o ułożenie słów ze zbioru liter. (Zrzut ekranu: Pranav Dixit/Engadget)

Sztuczna inteligencja może teraz tworzyć obrazy, wideo i audio tak szybko, jak wpiszesz opis tego, co chcesz. Możesz pisać wiersze, eseje i prace semestralne. Może to być również blada imitacja twojej dziewczyny, terapeuty i osobistego asystenta. Wiele osób uważa, że ​​jest w stanie zautomatyzować pracę ludzi i przekształcić świat w sposób, który ledwo możemy sobie wyobrazić. Dlaczego więc tak trudno jest rozwiązać prostą łamigłówkę słowną?

Odpowiedź leży w tym, jak działają wspaniałe modele językowe, czyli w technologii leżącej u podstaw naszego szaleństwa współczesnej sztucznej inteligencji. Programowanie komputerowe jest tradycyjnie logiczne i oparte na regułach; wprowadzasz polecenia, które komputer wykonuje zgodnie z zestawem instrukcji i dostarczają prawidłowe dane wyjściowe. Jednak uczenie maszynowe, którego podzbiorem jest generatywna sztuczna inteligencja, jest inne.

„To kwestia czysto statystyczna” – powiedział mi Noah Giansiracusa, profesor matematyki i analityki danych na Uniwersytecie Bentley. „Tak naprawdę chodzi o wyodrębnianie wzorców z danych, a następnie dostarczanie nowych danych, które w dużym stopniu pasują do tych wzorców”.

OpenAI nie odpowiedziało oficjalnie, ale rzecznik firmy powiedział mi, że tego typu „opinie” pomogły OpenAI lepiej zrozumieć model i reagować na problemy. Microsoft i Meta odmówiły komentarza. Firmy Google, Anthropic and Perplexity nie udzieliły odpowiedzi do czasu publikacji.

Sercem dużych modeli językowych są „transformatory” – przełom techniczny dokonany przez badaczy Google w 2017 r. Gdy tylko wpiszesz zachętę, duży model językowy rozkłada słowa lub ułamki tych słów na jednostki matematyczne zwane „tokenami”. Transformatory są w stanie analizować każdy token w kontekście większego zbioru danych, na którym szkolony jest model, aby zobaczyć, w jaki sposób są one ze sobą połączone. Gdy transformator zrozumie te relacje, będzie w stanie odpowiedzieć na Twój monit, odgadując następny prawdopodobny żeton w sekwencji. O „Financial Times”. ma świetne animowany objaśnienie to wyjaśnia wszystko, jeśli jesteś zainteresowany.

UE myśl Podawałem chatbotom dokładne instrukcje dotyczące generowania słów Spelling Bee, a oni jedyne, co robili, to przekształcanie moich słów w tokeny i używanie transformatorów do generowania wiarygodnych odpowiedzi. „To nie to samo, co programowanie komputera lub wpisywanie poleceń w wierszu poleceń DOS” – powiedział Giansiracusa. „Jego słowa zostały przełożone na liczby, a następnie przetworzone statystycznie”. Wygląda na to, że czysto logiczne zapytanie było najgorszym zastosowaniem możliwości sztucznej inteligencji – przypominało próbę dokręcenia śruby młotkiem wymagającym dużych zasobów.

Sukces modelu sztucznej inteligencji zależy również od danych, na których jest on szkolony. Właśnie dlatego firmy zajmujące się sztuczną inteligencją gorączkowo zawierają obecnie umowy z wydawcami wiadomości: im bardziej aktualne dane szkoleniowe, tym lepsze odpowiedzi. Generatywna sztuczna inteligencja, np jest do bani w sugerowaniu ruchów szachowych, ale przynajmniej tak jest marginalnie lepiej radzi sobie z zadaniem niż rozwiązywanie zagadek słownych. Giansiracusa zwraca uwagę, że bogactwo partii szachowych dostępnych w Internecie prawie na pewno jest uwzględnione w danych szkoleniowych istniejących modeli sztucznej inteligencji. „Podejrzewam, że po prostu nie ma wystarczającej liczby gier online Spelling Bee, na których sztuczna inteligencja mogłaby trenować, ponieważ są gry w szachy” – powiedział.

„Jeśli Twój chatbot wydaje się bardziej zdezorientowany grą słowną niż kot z kostką Rubika, dzieje się tak dlatego, że nie został specjalnie przeszkolony do grania w złożone gry słowne” – powiedziała Sandi Besen, badaczka sztucznej inteligencji w Neudesic, firmie zajmującej się sztuczną inteligencją, której właścicielem jest IBM-a. „Gry słowne mają określone zasady i ograniczenia, których model miałby trudności z przestrzeganiem, chyba że otrzyma specjalne instrukcje podczas szkolenia, dostrajania lub podpowiedzi”.

„Jeśli Twój chatbot wydaje się bardziej zagubiony w grze słownej niż kot z kostką Rubika, dzieje się tak dlatego, że nie został specjalnie przeszkolony do grania w złożone gry słowne.”

Nic z tego nie powstrzymuje wiodących na świecie firm zajmujących się sztuczną inteligencją od częstego promowania tej technologii jako panaceum rażąco przesadzone twierdzenia o ich możliwościach. W kwietniu zarówno OpenAI, jak i Meta pochwaliły się, że ich nowe modele AI będą zdolne do „wnioskowania” i „planowania”. W wywiadzie dyrektor operacyjny OpenAI, Brad Lightcap liczone o „Financial Times”. że GPT nowej generacji, model sztucznej inteligencji napędzający ChatGPT, wykazałby postęp w rozwiązywaniu „trudnych problemów”, takich jak rozumowanie. Joelle Pineau, wiceprezes ds. badań nad sztuczną inteligencją w Meta, powiedziała w publikacji, że firma „ciężko pracowała, aby wymyślić, jak sprawić, aby te modele nie tylko mówiły, ale faktycznie rozumowały i planowały… mieć pamięć”.

Moje wielokrotne próby nakłonienia GPT-4o i Lamy 3 do złamania Spelling Bee zakończyły się spektakularnym niepowodzeniem. Kiedy powiedziałem to ChatGPT GALON, LANG i ANGLY nie było ich w słowniku, chatbot powiedział, że się ze mną zgadza i zasugerował GALWANOPIA zamiast. Kiedy w odpowiedzi na ofertę Meta AI dotyczącą sugerowania większej liczby słów błędnie napisałem słowo „sure” jako „sur”, chatbot powiedział mi, że „sur” to w rzeczywistości kolejne słowo, które można utworzyć z liter G, Y, A, L, P, O i N.

Oczywiste jest, że wciąż daleko nam do sztucznej inteligencji ogólnej, mglistej koncepcji opisującej moment, w którym maszyny będą w stanie wykonać większość zadań równie dobrze lub lepiej niż ludzie. Niektórzy eksperci, na przykład Yann LeCun, główny naukowiec zajmujący się sztuczną inteligencją w Meta, otwarcie wypowiadali się na temat ograniczeń dużych modeli językowych, twierdząc, że nigdy nie osiągną one inteligencji na poziomie ludzkim, ponieważ w rzeczywistości nie używają logiki. W zeszłym roku na imprezie w Londynie LeCun te że obecna generacja modeli sztucznej inteligencji „po prostu nie rozumie, jak działa świat. Nie potrafią planować. Nie są zdolni do prawdziwego rozumowania” – stwierdził. „Nie mamy w pełni autonomicznych, samojezdnych samochodów, które mogłyby nauczyć się prowadzić po około 20 godzinach ćwiczeń, co jest w stanie zrobić 17-latek”.

Giansiracusa przyjmuje jednak bardziej ostrożny ton. „Tak naprawdę nie wiemy, jak rozumują ludzie, prawda? Nie wiemy, czym tak naprawdę jest inteligencja. Nie wiem, czy mój mózg to tylko duży kalkulator statystyczny, coś w rodzaju wydajniejszej wersji dużego modelu językowego.

Być może kluczem do życia z generatywną sztuczną inteligencją bez ulegania szumowi i niepokojom jest po prostu zrozumienie jej nieodłącznych ograniczeń. „Te narzędzia nie zostały tak naprawdę zaprojektowane do wielu celów, do których ludzie ich używają” – powiedział Chirag Shah, profesor sztucznej inteligencji i uczenia maszynowego na Uniwersytecie Waszyngtońskim. Jest współautorem głośnego artykułu artykuł naukowy w 2022 r. krytykując stosowanie dużych modeli językowych w wyszukiwarkach. Shah uważa, że ​​firmy technologiczne mogłyby znacznie lepiej zachować przejrzystość w zakresie tego, co sztuczna inteligencja może, a czego nie może zrobić, zanim nam to narzucą. Jednak ten statek mógł już odpłynąć. W ostatnich miesiącach największe firmy technologiczne na świecie – Microsoft, Meta, Samsung, Apple i Google – wydały oświadczenia, w których zalecają zdecydowaną integrację sztucznej inteligencji ze swoimi produktami, usługami i systemami operacyjnymi.

„Boty są do niczego, bo nie zostały do ​​tego zaprojektowane” – Shah powiedział o mojej zagadce polegającej na grze słownej. Czas pokaże, czy radzą sobie źle ze wszystkimi innymi problemami, przed którymi stoją firmy technologiczne.

W jakim innym przypadku chatboty AI Cię zawiodły? Wyślij mi e-mail na adres pranav.dixit@engadget.com i daj mi znać!