Michał Staśkiewicz – Od kogo uczy się sztuczna inteligencja?

Czy AI potrafi kochać? Czy AI ma uczucia? Czy miliardy ludzi stracą pracę? A może tak jak w Star Treku nie powinniśmy w ogóle pracować? Roboty będą za nas robić różne rzeczy, a my poświęcimy się eksploracji kosmosu. A może AI będzie rekrutowała, żeby były równe szanse? Rozwiązania oparte o AI zagościły już w kluczowych dla człowieka obszarach aktywności – w medycynie, sądownictwie, oświacie czy rolnictwie. Czy jednak rzeczywiście są receptą na nasze problemy? Czy może kreują zupełnie nowe? Przykłady użycia AI mające realny wpływ na życie każdego z nas.

Odpowiedzi na te wszystkie pytania, i nie tyko, znajdziecie w naszym wywiadzie z Michałem Staśkiewiczem – współtwórcą i prezesem zarządu firmy Alphamoon, oferującej rozwiązania oparte o sztuczną inteligencję oraz członkiem Dolnośląskiego Hubu Sztucznej Inteligencji.
Do sukcesów zalicza możliwość kierowania zespołami świetnie wykształconych specjalistów i pomocy im w skutecznej realizacji projektów dla klientów takich jak Santander, Linde i Explain Everything. Swoje doświadczenie rozwijał najpierw jako programista, a potem jako architekt i założyciel dochodowych startupów (np. Cerber).


SŁUCHAJ

więcej podcastów


OGLĄDAJ


CZYTAJ

Cześć, moim gościem jest Michał Staśkiewicz, współtwórca i prezes zarządu firmy Alphamoon, oferującej rozwiązania oparte o sztuczną inteligencję. Michał jest też członkiem Dolnośląskiego Hubu Sztucznej Inteligencji. Michale, jakbyś wyjaśnił, czym jest sztuczna inteligencja osobie, która nie interesuje się tym tematem, nie zna się na nim, ale której sztuczna inteligencja kojarzy się z czymś takim...

nagranie własne z infoShare 2019 dzięki uprzejmości Lufthansa Systems

Michał Staśkiewicz: No właśnie, panuje takie przekonanie, że sztuczna inteligencja kojarzy się nam się stricte z filmami jak terminator, z robotami, które mają nas zaraz wyeliminować. A sztuczna inteligencja już jest. To nie jest taka sztuczna inteligencja, która nas zabija, ale spotykamy ją w życiu codziennym, nawet nie zdajemy sobie sprawy w jak wielu elementach. W telefonach, w telewizji, w reklamach już wiele rzeczy jest wykonywane za pomocą sztucznej inteligencji.  

Ale co to jest jeszcze sztuczna inteligencja? Niektórzy się kłócą z tym pojęciem i mówią, że prawdziwej sztucznej inteligencji nie ma. Takiej sztucznej inteligencji, która przypomina nas, ludzi, wykonującej jakieś konkretne czynności, radzi sobie z problemami, których wcześniej nie widziała. Nie, to takiej sztucznej inteligencji nie ma i obawiam się, że jeszcze długo nie będzie. Ale teraz przyjmuje się takie dwa pojęcia – sztuczna inteligencja mocna i słaba.  

Mocna to jest ta, do której dążymy. Chcemy, aby ona mogła sobie radzić z problemami, jak prawdziwi ludzie. Nawet taka prosta rzecz jak ścinanie włosów, to jest dosyć skomplikowana sprawa.  

Myślę, że jeszcze długo, długo tego nie opanujemy. Ale z kolei ta słaba sztuczna inteligencja konkretyzuje się na konkretnych zadaniach, które nie są trywialne, ale przyczynowo – skutkowe. Potrafi badać jakiś temat i na podstawie pomiarów wykonywać czynność. Na przykład sztuczna inteligencja już sobie lepiej radzi niż dermatolodzy w wykrywaniu czerniaka. Albo w diagnozowaniu guza mózgu. Jest już sporo takich przypadków, że sztuczna inteligencja przekracza nasze możliwości.  

Wyjaśnię krótko, dlaczego w kontekście Fundacji Dobra Porażka mówimy o sztucznej inteligencji. Raczej nie o samej sztucznej inteligencji, tylko o takim powszechnym podejściu, które gdzieś tam panuje w społeczeństwie, gdzie zwłaszcza media bardzo często podają, że sztuczna inteligencja może zagrozić ludzkości. Że miliardy ludzi stracą pracę, że zastąpi nas po prostu w pewnym momencie na Ziemi. Czy to faktycznie jest tak, że możemy się spodziewać, że sztuczna inteligencja w pewnym momencie wykluczy inteligencję białkową? 

To już bardziej filozoficzne pytanie dla futurystów. Jeśli nas wykluczy, zastąpi we wszystkim, to jaki faktycznie będzie sens naszego istnienia? Czy będzie potrafiła kochać? Czy będzie miała uczucia? Wkraczamy na ciężkie tematy. W wielu miejscach już nas zastąpiła, ale w takich trywialnych wydawałoby się jak strzyżenie włosów czy prowadzenie operacji, to jeszcze długo, długo nie. Myślę, że nie ma się czego obawiać, że wykluczy jakieś miejsca pracy, że ludzie będą bezrobotni czy coś. Może się tak stanie, ale dlaczego nie? Kiedyś ludzie pracowali od poniedziałku do soboty po 12 godzin dziennie, a teraz pracują od poniedziałku do piątku po 8 godzin. Ten czas pracy się redukuje. Może tak jak w Star Treku, nie powinniśmy w ogóle pracować? Roboty będą za nas robić różne rzeczy, a my poświęcimy się eksploracji kosmosu.  

Ok, tylko to trochę kłóci się z dzisiejszą podstawą gospodarki, jaką są pieniądze.  Wiem, że to jest temat rzeka swoją drogą, ale wróćmy do tematu. 

No tak, bo to jest ryzyko, czy potrafimy sobie funkcjonować i mieć aspiracje, jeśli nie ma tego, że czegoś nie dostaniemy, że możemy mieć lepszy samochód. Może jednak potrzebujmy pewnych bodźców, by coś robić. Nie wiem czy taka utopijna wizja jak w Star Treku jest możliwa, ale… 

Patrząc na to, co się dzieje zwłaszcza w takiej prasie niespecjalistycznej, jakie widzisz błędy popełniane w komunikacji czy artykułach dotyczących sztucznej inteligencji.  

Ja wiem, że wiele osób kłóci się z tym pojęciem, że sztuczna inteligencja to jest nadużywane słowo. My też jako firma nie chcieliśmy na początku tym epatować, że jesteśmy AI, firmą, która oferuje rozwiązania AI. Ale dla ludzi nie było to do końca zrozumiałe. Dlatego ja bym się tak nie kłócił z określeniem sztucznej inteligencji, bo jest właśnie ten wydźwięk, że możemy podzielić na słabszą i mocną. I to słowo rzeczywiście istnieje, w takiej nomenklaturze, myślę, że możemy spokojnie tego używać.  

Gdzieś tam jednak ta obawa związana z tym, że może nas za bardzo zastąpić, funkcjonuje. Biorąc pod uwagę też pewne inne wynalazki, które się pojawiły w historii, które przyniosły ze sobą pewne zagrożenia. Co możemy w tym obszarze zrobić jako społeczeństwo czy osoby, które zajmują się tym, żeby wyeliminować pewne zagrożenia, żeby one po prostu nie wystąpiły? Żeby nie doprowadzić do pewnej porażki. 

To znaczy, jeśli chodzi o pewne zagrożenia, że zabierze nam miejsca pracy – tego bym się nie obawiał. Zagrożenie jest takie, przede wszystkim militarne, że ta sztuczna inteligencja będzie wykorzystana w śmiercionośnych dronach, w samojezdnych czołgach. Jak temu zapobiec? Jest taka niepisana zasada między firmami zajmującymi się sztuczną inteligencją, że nie oferują rozwiązań dla wojska. Ale też mamy świadomość, że wojsko nie ujawnia swoich postępów w AI. I niektórzy mówią, że oni są nawet 5 lat do przodu w porównaniu z tym, co pokazują na światło dzienne.  

Chiny, oni strasznie dużo inwestują pieniędzy i to jest zagrożenie. Teraz będą tak robili, że swoich ludzi, naukowców, będą wysyłali na wszystkie konferencje, ale nie będą im pozwalali publikować na zewnątrz. Będą zamykali rynek, będą traktowali jako dobro narodowe wiedzę o AI. 

A jeszcze jakie zagrożenia? Jest taka ciekawa rzecz, że w USA jest już wykorzystywany system, który określa wysokość wyroku dla zasądzonego. Sędzia dalej mówi czy jest winny czy niewinny, ale jeśli chodzi o wyznaczanie jak tam długo ma siedzieć w więzieniu, to już AI jest sobie w stanie z tym radzić i już proponuje wyrok. Oczywiście robi to na podstawie danych historycznych, ale pojawia się ryzyko, czy jak często się o tym teraz mówi, bias-u, czyli jak te dane zostały wcześniej wyuczone? Czy wszystko zostało uwzględnione, bo może się okazać, że jak ktoś na przykład będzie ciemnoskóry, to może dostawać 2 lata więcej, bo statystycznie jest duża recydywa czy coś. Ale nie zdąży uwzględnić, że mieszka w normalnej białej dzielnicy, ma dwójkę dzieci, żonę, zdarzyło mu się i nie ma ryzyka recydywy. To jest ten balast.  

Jedna firma, chyba Google, chciała, żeby AI wybierała kandydatów do rady nadzorczej, żeby równe szanse były. I co się okazało? Że algorytm nigdy kobiet nie wybierał, bo patrzył na dane historyczne, że w radach nadzorczych było zawsze mało kobiet. Na tej podstawie się wyuczył, że kobiety są słabym kandydatem i wiedzę przekazywał dalej. 


Warto przeczytać:

1. Badania dotyczące recydywy wśród Afroamerykanów: https://phys.org/news/2018-10-black-men-higher-recidivism-factors.html

2. O stereotypach dotyczących Afroamerykanów i przestępczości: https://en.wikipedia.org/wiki/Criminal_stereotype_of_African_Americans

3. Jak działą algorytm COMPAS COMPAS profilujący przestępców: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

Co można zrobić, żeby sztuczna inteligencja nie popełniała takich błędów? To znaczy z jej punktu widzenia to nie są błędy, tak? Ale to są błędy z naszego punktu widzenia. 

No po prostu trzeba to mieć na uwadze i przy uczeniu algorytmu brać odpowiedni rozkład próbki danych. Bo jak w ogóle działają te wszystkie algorytmy sztucznej inteligencji?  One są po prostu karmione strasznie dużą ilością danych. To jest clue tego. Bez danych ciężko mówić o sztucznej inteligencji. Jest mało takich algorytmów działających bez takich danych. I chodzi o to, by te dane historyczne odpowiednie przygotować. Bo jeśli popełnimy błędy, że czegoś nie uwzględnimy, jak było rozpoznawanie osób na zdjęciach, co był duży problem, że właśnie czarnoskórych osób nie rozpoznawał. Bo właśnie w próbce danych było bardzo mało czarnych i algorytm nie był w stanie się nauczyć. Dlatego trzeba brać to pod uwagę. 

Ok. Pamiętam, że też była taka historia, że uruchomiono jakiegoś robota, umiał swobodnie rozmawiać z ludźmi i ten robot nagle stał się rasistą.  

Może wuczył się na czatach internetowych, gdzie dużo jest trollingu, bad language, no i mamy tego efekty. 

Czyli tak naprawdę sztuczna inteligencja powinna mieć jakiś support ludzki.  

Z drugiej strony to, co ona robi, to jednak odtwarza tak, jacy jesteśmy, chcemy, aby była piękna, cudowna i z zasadami, ale my też nie jesteśmy tacy zawsze. 

Ciekawa obserwacja, bo my tak naprawdę uczymy ją tym, w jaki sposób sami postępujemy.  

No tak jak z tymi Czarnoskórymi. W USA 14% populacji to Czarnoskórzy, dlatego też taka próbka mogła być. Nie pojawiają się na zdjęciach, na LinkedIn, jest ich mniej statystycznie, no i niestety tak to wychodzi. 

Ich jest mniej statystycznie w obszarze zamieszkania, a w obszarach jakiś specyficznych tam zachowań te proporcje mogą być nierówne, tak? To trochę nawiązuje do tego, co z Janiną Bąk przed chwilą rozmawialiśmy, o statystyce i błędach w statystyce, żeby jednak zwracać uwagę na to, co i do jakiego celu będziemy używali.  

W AI to też jest bardzo ważne.  

Ok, jak twoim zdaniem wygląda wizja tego, że sztuczna inteligencja faktycznie zacznie funkcjonować w każdym obszarze naszego życia? Kiedy to nastąpi? Ja wiem, że to standardowe pytanie. 

Nie wiem. Już sztuczna inteligencja jest w stanie wyroki sądowe oferować. Potrafi czytać umowy prawnicze. Lepiej diagnozuje czerniaka od dermatologów. A fryzjer? Ja nie widzę, żeby w ciągu 50 lat. Największy projekt AI, który w tej chwili jest, to są bardzo duże pieniądze, to autonomiczne samochody. To to będzie duży przełom. 

Pojechał Polak do Ameryki, wrócił i opowiada znajomemu:
– Słuchaj, tam są nawet takie roboty do golenia.
– Do golenia??!? Przecież każdy człowiek ma inną twarz.
– Ale tylko przed pierwszym goleniem…

dowcip z czasów PRL

Dziękuję za rozmowę. Myślę, że można ją krótko podsumować w ten sposób, że sztuczna inteligencja może stwarzać zagrożenie, ale tak naprawdę, czy będzie stwarzała czy nie, to będzie zależało tylko od nas. Zależy to przede wszystkim od tego, kto i w jaki sposób będzie jej uczył. A to już jest zadanie po stronie ludzi. Dziękuję Ci bardzo za rozmowę.  

Dziękuję bardzo.