poniedziałek, 26 października 2020

Czy to już? (nasz ostatni wynalazek)

W ostatnich dniach Tesla uruchomiła betę trybu “Full Self-Driving”. YouTube zaroiło się od nagrań autonomicznej jazdy słynnego elektryka. Jazda z punktu A do punktu B. Skręty, włączanie się do ruchu, nawigowanie w korku i na rondzie, omijanie koszy na śmieci, zwracanie uwagi na przechodniów… W sam raz na “rok cyberpunka”. Imponujące, ale wiem, że to możliwe od dość dawna, teraz jednak firma ma dość pewności siebie, by ruszyć z betą.

Tymczasem mojej uwadze niemal zupełnie uszedł GPT-3. Stworzona przez OpenAI (współfundowany przez Elona Muska projekt non-profit) sztuczna inteligencja (pardon - autoregresywny model językowy wykorzystujący deep learning), która najwyraźniej zwaliła z nóg całe środowisko. I po tym co zobaczyłem i przeczytałem, zupełnie mnie to nie dziwi.

GPT-3, czyli Generative Pre-trained Transformer 3, to generator tekstu. Tylko tyle i aż tyle. To trzecia wersja. Jego druga wersja, która już była imponująca, mogła się poszczycić złożonością na poziomie ponad półtora miliarda parametrów. GPT-3 liczy sobie 175 miliardów parametrów. Tylko co z tego? Dużo. Może on rozumieć naturalny język i przekładać go na szereg zastosowań, od copywritingu, designu po kwestie prawnicze i medyczne.

Nakarmiony połową terabajta danych tekstowych GPT-3 cechuje się kompletnie przełomowym rozumieniem naturalnego języka ludzi. Można powiedzieć, że posiada wręcz intuicję. Następnie to rozumienie poleceń i wyczytywanie z nich intencji użytkownika można przełożyć na wykonywanie poleceń z potocznym słownictwem by stworzyć witryny internetowe. Mówimy “zrób mi stronę z wyszukiwarką na środku, dodaj guzik w kształcie pomidora”. I otrzymujemy dokładnie to. Możemy też powiedzieć “zwiększ czcionkę, niech pomidor będzie bardziej czerwony”. Gotowe. To jednak nic.

Pierwszy raz głowa wybuchła mi kiedy zobaczyłem, że można GPT-3 powiedzieć, że chcemy “guzik o nazwie rzut kostką, który po naciśnięciu wyświetla wynik”. To wystarcza, by sztuczna inteligencja wypluła kod, który wyświetla guzik a po jego naciśnięciu pojawiała się wartość od 1-6. Zwróćcie uwagę, że w żadnym miejscu komenda nie mówi o zakresie wyniku, nie mówi nawet nic o generowaniu losowych liczb. Mimo to AI odgadła intencje i konotacje zawarte w prostej komendzie (RPGowców proszę o nie komentowanie na temat kości innych niż K6 :P ). Takich przykładów jest więcej, zapraszam na do źródeł na dole.

GPT-3 jest w stanie zrozumieć i wykonać polecenie takie jak “stwórz stronę podobną do stripe.com [strona z appką do płatności online] ale poświęconą komunikatorowi”. Jedno z licznych demek zastosowań tego cudeńka pokazało też jak w ramach rozmowy z AI użytkownik może dokładnie opisać co ma robić kod programowy i jak ma działać. Kolejny wybuch głowy zafundowało mi jednak tłumaczenie języka prawniczego na język ludzi i vice versa. Pomijając złośliwości, które cisną mi się na usta, polecam spojrzeć ile miejsca zajmuje ta sama treść napisana po ludzku a ile na prawniczemu :P


Inne przykłady z medycyny sugerują, że GPT-3 potrafi dokonywać logicznego ciągu rozumowania i dochodzić do sensownych konkluzji, jaki lek i dlaczego powinien działać. Znów zachęcam do zerknięcia na przykłady. W tym obszarze to szczególnie istotne, że do głosu nie dochodzi tylko jakieś “płytkie” wyławianie rozwiązań z Big Data, tylko, że maszyna jest w stanie uzasadnić swoją rekomendację, poprzeć ją argumentami.

SI potrafi też naśladować styl znanych ludzi, co najmniej jeden (Joscha Bach) potwierdził, że rozwinięcie jego tweeta spisane przez GPT-3 było “zwalające z nóg”, “w 95% sensowne i w 90% poprawne”. Demonstracji jest więcej... ale przejdźmy do zagrożeń.

Jak każde inne narzędzie, sztuczna inteligencja może stać się bronią. Już dziś widzimy jak potężną siłą do czynienia zła są fake newsy i manipulacje. GPT-3 lub jemu podobne algorytmy mogą pomóc dobrym ludziom czynić dobro i złym zło. Proste i oczywiste. Co ciekawe nawet sam GPT-3 wygenerował taką mądrość: “Sztuczna Inteligencja, jeśli odniesie sukces stworzy miejsca pracy i zniszczy je jeśli zawiedzie”.

Zagrożeniem jednak jest też to, że ta sztuczna inteligencja uczy się na ogromnych ilościach danych z internetu - książkach, publikacjach, artykułach naukowych i prasowych. Co za tym idzie, przejmuje również nasze uprzedzenia i tendencje. Trzeba pamiętać, że w pewnych sytuacjach podawanie na nowo “przemieszanych” danych z miliardów przykładów może idealnie spełniać swoje zadanie, kiedy indziej może powielać nasze błędy. A przecież chcemy, żeby nasze dzieci były lepsze niż my, prawda?


Źródła:
GPT-3 Demo: New AI Algorithm Changes How We Interact With Technology
10 cool GPT-3 demos
What Is GPT-3 And Why Is It Revolutionizing Artificial Intelligence?

Grafika: Goro Fujita


2 komentarze:

  1. Rzeczywiście robi wrażenie nawet na mnie, osobie dość sceptycznie podchodzącej do wszelkich genialnych wielozadaniowych sztucznych inteligencji. Niemniej świat się rozwija, a to, co przedstawiłeś naprawdę pozytywnie zdumiewa. Może w końcu dożyjemy czasów, w których spełnią się groźby wyplenienia tłumaczy przez oprogramowanie ;). Do tej pory słyszałam o tym od lat i jakoś tego nie było widać, więc i w to nie dowierzałam, ale widać przychodzi kryska na Matyska ;)

    OdpowiedzUsuń
  2. Czekam, aż prezes firmy wystąpi i powie: "Moi kochani! wprowadzamy automatyzację, dzięki której wasza codzienna praca będzie mogła być wykonana dwa razy szybciej. Dlatego możecie pracować 4h zamiast 8 za tę samą pensję, lub, jeśli wolicie, nadal 8h za 2x wyższą pensję!" I ja wtedy będę się klaskał i cieszył się z postępu. No cóż, wiem, mało śmieszny żarcik...

    OdpowiedzUsuń