Strony1

sobota, 19 grudnia 2015

OpenAI: komentarz prof. Tadeusiewicza

Elon Musk traktuje sztuczną inteligencję jako jedno z potencjalnych zagrożeń dla ludzkości. Rozmawiając z Wait But Why, stwierdził, że to jedna z trzech rzeczy, o których myśli najczęściej, zaraz po bezpieczeństwie energetycznym świata i sprawieniem by ludzkość zamieszkała więcej niż jedną planetę.

Teraz, między innymi dzięki finansowaniu Elona Muska, powstała organizacja non-profit OpenAI. Jej celem jest rozwijanie AI w taki sposób, by jak najbardziej przysłużyła się całej ludzkości. Tęgie umysły mają prowadzić badania w kierunku “bezpiecznej AI” i udostępniać swoje wyniki, oraz osiągnięcia i ewentualne patenty całemu światu za darmo.

Z tej okazji zwróciłem się do biocybernetyka, profesora Ryszarda Tadeusiewicza o kilka słów komentarza. To już drugi raz, kiedy Profesor gości na łamach Węglowego:


Panie Profesorze, kiedy rozmawialiśmy rok temu, wspomniał Pan krótko, że sztuczna świadomość może być źródłem kłopotów. Czy mógłby Pan rozwinąć tę myśl? Czy po tych wszystkich filmach i książkach nie powinniśmy być wystarczająco wyczuleni na ewentualne zagrożenia? Jaki czarny scenariusz Pana niepokoi?

Wydaje mi się, że te „czarne scenariusze” rodem z filmów i powieści SF są absolutną fikcją opartą na błędnych założeniach. Mówiłem o tym wielokrotnie i powtórzę jeszcze raz: wszystkie urządzenia techniczne jakie ludzie budowali od początku cywilizacji, były zawsze budowane tak, żeby realizowały określone działania na polecenie człowieka i w jego interesie. Zarówno kamienny topór jak i wyposażony w sztuczną inteligencję robot miały i mają jeden cel: zaspokajanie jakichś potrzeb człowieka. Nie własnych potrzeb, ale potrzeb ludzi.

Nikt nie próbował budować maszyn, które by działały we własnym interesie, nikt nie próbował tworzyć mechanizmów pozwalających na ustalanie, co by tym „własnym interesem” maszyny mogło być, nikt nie wie, jakie biologiczne mechanizmy leżą u podstaw formowania się poczucia własnej tożsamości człowieka (i zwierząt), więc nikt też tych mechanizmów nie wbuduje w strukturę robota czy komputera.

Nie wierzę też, żeby takie poczucie własnej tożsamości (a potem koncepcja działania zmierzającego do osiągniecie własnego celu) mogło powstać w systemie technicznym spontanicznie, samo z siebie.

Podsumowując – moim zdaniem to są zagrożenia wydumane. Natomiast martwi mnie to, że buduje się roboty do zabijania ludzi. Oczywiście nie dla przyjemności, tylko w interesie innych ludzi. I takie roboty mogą być niebezpieczne, zwłaszcza gdy się zepsują. Ale to jest temat na zupełnie inną rozmowę …


Elon Musk od jakiegoś czasu głośno mówił, że widzi w SI jedno z większych zagrożeń dla ludzkości. Czy OpenAI istotnie może jakoś pomóc w kontekście jego obaw?

Działania Elona Muska oceniam jako pozytywne. Co prawda nie wierzę w te zagrożenia, które mają być motywacją do tych dodatkowych badań, ale jestem przekonany, że dodatkowe środki zwiększające zakres i głębokość badań nad sztuczna inteligencją, doprowadzą do odkryć, których skutek będzie korzystny dla ilości i jakości usług, jakie sztuczna inteligencja będzie mogła oddawać ludziom. W końcu bezsensowne (jak teraz wiemy) usiłowania alchemików zmierzające do transmutacji metali czy do znalezienia kamienia filozoficznego doprowadziły do wielu pożytecznych odkryć – na przykład technologii wyrobu porcelany.


Dziękuję za komentarz.

Zachęcam do śledzenia bloga Profesora tutaj: ryszardtadeusiewicz.natemat.pl, oraz cyklu opowieści ze świata nauki “Technika dla laika” w Śniadaniu Mistrzów w RMF Classic.


2 komentarze:

  1. Dlaczego ten wpis to tylko 1/10 całości? Proszę o udostępnienie reszty wywiadu!
    ;)

    OdpowiedzUsuń
  2. Co myśli kognitywista o pytaniu fizyków o sztuczną inteligencję:
    https://wduch.wordpress.com/2015/12/26/sztuczna-inteligencja-i-fizycy/

    OdpowiedzUsuń