Sztuczna inteligencja jest wokół nas

24 listopada 2017, Andrzej Pająk

Technologia

SI już dziś określa płeć, sortuje śmieci czy wymyśla twarze nieistniejących celebrytów. Co jeszcze potrafi sztuczny byt? Czy grozi nam wojna cyborgów?

  • Sztuczna inteligencja jest wokół nas: używamy jej w tłumaczach online, czy odblokowywaniu telefonów twarzą
  • Wystarczy poddać analizie 70 polubień na Facebooku by sztuczna inteligencja poznała nas tak samo dobrze jak nasi rodzice
  • Algorytmy rozpoznawania twarzy opracowane przez chiński odpowiednik Google’a, firmę Baidu, mają skuteczność na poziomie 99,77%
  • Arabia Saudyjska jako pierwszy kraj na świecie przyznała obywatelstwo humanoidalnemu robotowi
  • Wizjonerzy, tacy jak Bill Gates, Stephen Hawking czy Elon Musk, ostrzegają przed buntem sztucznej inteligencji

Uczenie maszynowe, systemy ekspertowe, sieci neuronowe to tylko kilka terminów, którymi można by opisać czym jest współczesna sztuczna inteligencja. SI kryje się za Tłumaczem Google’a, komputerem pokonującym arcymistrza w Go, jak i za brudną maszyną sortująca plastikowe butelki na wysypisku śmieci. Sztuczna inteligencja działa wokół nas. Pomaga odblokować twarzą telefon, podpowiada co chcemy wyszukać w Internecie, ale też coraz bardziej zaczyna być obecna tam, gdzie się jej nie spodziewamy. Bo jak inaczej powiedzieć o 850 artykułach, które napisał w 2016 roku niejaki Heliograf, czyli sztuczny byt zatrudniony jako dziennikarz w renomowanym Washington Post. Dziś boty piszą tweety, posty na Facebooku czy komentarze zgodne z myślą przewodnią wynajmującego je zleceniodawcy.

Social media to zresztą miejsce, gdzie sztuczna inteligencja ma sporo do powiedzenia. Weźmy np. projekt myPersonality przygotowany przez zespół pod kierownictwem Michała Kosińskiego, pracującego dziś na Stanford University. Program na podstawie polubień był w stanie z dużą precyzją opisywać cechy osobowości jego właściciela. Wystarczała analiza 70 lajków by kogoś w miarę dobrze poznać, a przy 300 można już było mówić, że zna się kogoś lepiej niż jego współmałżonek. Tę metodę można sprawdzić na sobie samemu (tu link do aplikacji). Nie wiem, jakie będą wasze wyniki, ale mówi się, że z tych samych narzędzi skorzystała firma Cambridge Analytica do bardzo precyzyjnego pozyskiwania wyborców podczas kampanii prezydenckiej Donalda Trumpa…

To nie jedyne pola gdzie króluje SI. Szczególnie mocną pozycję zdobywa sobie ona w analizowaniu i przetwarzaniu obrazów. Choć takie sformułowanie może zabrzmieć banalnie, to w przyszłości może oznaczać, że maszyna zacznie czytać nasze myśli, albo…

na podstawie zdjęć prawdziwych celebrytów tworzyć ich nieistniejących kolegów, jak to zrobiła sieć neuronowa zbudowana przez firmę Nvidia.

Na gębę

W 2012 roku Katarzyna i Patryk Wezowscy przewidzieli zwycięstwo Baracka Obamy nad Mittem Romney’em w wyborach na prezydenta USA. Swój raport opracowali na podstawie przypatrywania się twarzom wyborców podczas spotkań z ich kandydatami. Podczas analizy okazało się, że twarze 16 proc. republikanów widząc Romney’a – czyli swojego przyszłego prezydenta – na pozór wesołe i poważne, de facto pokazywały złość i obrzydzenie (Coaching 6/2014). Wszystko to było zasługą „czytania” opisanych w 1966 roku przez psychiatrów mikroekspresji. Te z pozoru niewidoczne zmiany rysów twarzy, pojawiają się mniej więcej pół sekundy po tym, jak bodziec (pytanie, obraz) dotrze do mózgu. Cała sztuka w tym, by umieć je dostrzec i właściwie zinterpretować.

Wykorzystując wiedzę o 10 000 mikroekspresjach, naukowcy stworzyli program, który analizuje je automatycznie. Jednym z zadań jakie przed nim postawiono było zbadanie najsłynniejszego uśmiechu świata, którym od stuleci fascynuje nas Mona Lisa. Okazało się, że ta znana na całym świecie twarz wyraża w 83 proc. szczęście, w 9 proc. obrzydzenie, w 6 proc. strach i w 2 proc. złość.

Kiedy to piszę muszę przyznać, że choć ta wiedza mi imponuje, ale też i przeraża, bo pokazuje jak ktoś bez naszej wiedzy może nas „czytać”. Jest to tym bardziej niepokojące, że rozpoznawanie twarzy to kolejny przykład po grze w szachy czy go, gdzie SI przewyższa umiejętności człowieka. Dla przykładu, system rozpoznawania twarzy DeepFace opracowany przez Facebooka, w 2015 roku mógł pochwalić się 97,35% precyzją. Było to zaledwie o 0,28% gorzej w porównaniu z wynikami uzyskiwanymi przez ludzi. Ale już w 2016 roku chińskie Baidu pochwaliło się, że jego algorytmy mają skuteczność na poziomie 99,77%.

Otuchy dodaje jednak świadomość, że te możliwości poza automatycznym rozpoznawaniem osób na zdjęciach czy wykorzystaniem SI do śledzenia terrorystów poprzez system kamer przemysłowych, wykorzystywane są też do innych celów, np. poszukiwania zaginionych dzieci w Chinach.

W Państwie Środka, według danych Foreign Policy, ginie rocznie 70 000 dzieci (rząd USA szacuję tę liczbę na 20 000). Dzieci, głównie chłopcy, są sprzedawane nowym rodzicom albo wykorzystywane do pracy lub prostytucji. By dać szansę na ponowne spotkanie się dzieci i ich rodziców, powstała strona Baobeihuijia (Baby Back Home). Serwis działa na zasadzie tablicy ogłoszeniowej ze zdjęciami, wgrywanymi przez rodziny i dzieci, poszukujące swoich korzeni. Od 2013 roku korzysta też z technologii rozpoznawania twarzy Baidu, która automatycznie wyszukuje podobieństwa pomiędzy załadowanymi do portalu fotografiami. Jednym ze spektakularnych sukcesów tego przedsięwzięcia było spotkanie syna z rodzicami po 27 latach.

Z twarzy można jednak wyczytać znacznie więcej, co w innym projekcie pokazał w tym roku wspomniany wcześniej Michał Kosiński. Naukowiec tym razem tak nauczył SI, że potrafiła ona (na szczęście dla nas, z różnym skutkiem: trafności dla mężczyzn wynosi 91%, a dla kobiet 83%) określić orientację seksualną na podstawie zdjęcia twarzy. Co ciekawe, Kosiński chce iść o krok dalej i wykorzystać sztuczną inteligencję do określania poziomu IQ oraz odgadywania preferencji  politycznych.

Podróż w głąb mózgu

Naukowcy budując sieci neuronowe próbują w cyfrowym świecie odwzorować działania ludzkiego mózgu. Problem w tym, że wciąż nikt nie wie jak działa nasz najważniejszy organ. Paradoksalnie SI, wzorująca się na niepoznanym do tej pory mózgu, stara się pomóc również w jego „odkodowaniu”. Nie robi tego bezpośrednio, ale właśnie poprzez łączenie obrazów z obrazami.

Przykładem takiego odkodowywania mózgu jest praca badaczy z Purdue Engineering, którzy opracowali system pokazujący co widzą oczy człowieka, bazując tylko i wyłącznie na wynikach rezonansu magnetycznego mózgu. Sztuczna inteligencja przekłada zapis fal mózgowych na fizyczne obrazy.

Z jednej strony takie badanie to przyszłość dla osób niewidzących, bo pokazuje naukowcom jak mózg interpretuje to co widzimy. Z drugiej, patrząc na ten eksperyment i to co potrafią algorytmy Kosińskiego, nie sposób nie zadać sobie pytania: jak jeszcze mamy daleko do ziszczenia się scenariusza z Raportu mniejszości.  Pamiętacie scenę, w której maszyna decyduje o tym, że jest się przestępcą, zanim jeszcze cokolwiek złego zrobimy? Dziś brzmi nierealnie, ale takie scenariusze rozważają chociażby Chiny, które już dysponują 175 milionami kamer CCTV.

Czy SI to igranie z ogniem?

Arabia Saudyjska jako pierwszy kraj na świecie przyznała obywatelstwo humanoidalnemu robotowi. To nie zdanie wyjęte z powieści science-fiction, ale fakt, który obiegł media pod koniec października tego roku.

Sofia – takie imię nosi robot skonstruowany przez firmę Hanson Robotics z Hong Kongu – jako nowa obywatelka zadebiutowała podczas otwarcia konferencji Future Investment Initiative, gdzie wzięła udział w panelu dyskusyjnym.

Już samo to było znamienne, ale najciekawsza była odpowiedź, jakiej robot udzielił na pytanie Andrew Sorkina współzałożyciela programu CNBC Squawk Box i felietonisty The New York Timesa. Dziennikarz próbował dowiedzieć się od Sofii, na ile bezpieczna jest jej koegzystencja ludzi i sztucznej inteligencji. Po serii zapewnień, że robot kieruje się ludzkimi wartościami i chce nam tylko pomagać, padła ta odpowiedź: „Za dużo czytasz Elona Muska. I oglądasz za dużo hollywoodzkich filmów. Nie obawiaj się, jeżeli Ty będziesz miły dla mnie, ja będę miła dla ciebie. Traktujcie mnie jako inteligentny system wejścia-wyjścia”.

Czy rzeczywiście jesteśmy bezpieczni? Czy nie grozi nam bunt maszyn, rodem z serialu Battlestar Galactica, skoro ostrzegają przed nim takie tuzy technologicznego świata jak Bill Gates, astrofizyk Stephen Hawking czy wizjoner, jakim bez wątpienia jest Elon Musk?

Hawking mówi, że pełny rozwój sztucznej inteligencji może doprowadzić do końca ludzkiej rasy. Musk ostrzega, że SI może stać się bardziej niebezpieczna od broni atomowej i przyczynić się do wywołania trzeciej wojny światowej. Podobnego zdania jest założyciel Microsoftu.

Gates jest zdania, że początkowo maszyny będą nas coraz bardziej wyręczać, wykonując za nas pracę. Jednak w ciągu kilku dziesięcioleci AI stanie się potężniejsza niż nam się wydaje. Być może nawet szybciej niż się sami tego spodziewamy, bo osiągnięcie przez sztuczne byty IQ na poziomie 10 000 w ciągu 30 lat wieszczy miliarder, prezes SoftBanku, Masayoshi Son. Dla Gatesa tak gwałtowny rozwój to jednak powód do obaw.

Wystarczy przypomnieć poruszenie, jakie ostatnio wywoła informacja z laboratoriów badawczych Facebooka. Stworzone w nim chatboty (programy do prowadzenia rozmów), które miały ze sobą negocjować dzięki procesowi uczenia maszynowego, wynalazły swój własny język by nawzajem skuteczniej się komunikować. Z pozoru przypominał on angielski, ale dla ludzi ten język był zupełnie niezrozumiały:

Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me

W rezultacie naukowcy wprowadzili nowe zasady, które nakazały algorytmom na porozumiewanie się tylko za pomocą języka angielskiego.

Nie wiemy gdzie nas to zaprowadzi

Z technologicznego punktu widzenia wszystkie osiągnięcia sztucznej inteligencji są imponujące. W wielu dziedzinach, takich jak wspomniane rozpoznawanie zdjęć, swoją dokładnością i szybkością przewyższa ona już ludzkie możliwości. Ale wciąż nie można powiedzieć, że są one 100% dokładne. AI może się pomylić, albo… może zostać zmuszona do tego, by to zrobić.

Nie stanie się to dziś, ani nawet za rok. Jednak szybciej niż myślimy. Dlatego przed nami, ludźmi, jest bardzo dużo do zrobienia, by zawczasu opracować odpowiednie środki, które będą potrafiły ją zabezpieczyć i ujarzmić. Z pewnością, nie można jej pozostawić samej sobie, wtedy konsekwencje mogą stać się nieprzewidywalne.