11/2017
Marek Kochan

fot. Kazimierz Kochan

Sztuczna inteligencja

 

 

Testuję nowy program do pisania felietonów. Wypuściła go w ramach promocji jedna z firm produkujących komputery. Nie napiszę jaka, jeszcze nie wiem, czy warto go reklamować. Program jest darmowy, ale czy to w ogóle zadziała?

Tytuł lub temat można wymyślić samemu, wpisując go w całości albo zapodając maszynie słowa klucze. Można też całkiem zdać się na nią. Ponad sto tematów do wyboru. Firma daje gwarancję, że felieton będzie niepowtarzalny.

Długość tekstu określa użytkownik (autor?), wpisując liczbę znaków. To wygodne, wiadomo: raz się pisze za krótki, raz za długi, trzeba przerabiać, by pasował na stronę. A maszyna od razu napisze, ile trzeba, na miarę.

Temat: ha, zażyję maszynę. Felieton to wypowiedź osobista. Niech więc napisze sama o sobie. Sprawdzimy, czy ta maszyna jest inteligentna.
Wpisuję: „Inteligencja”. Maszyna chce, bym sprecyzował temat tekstu. Jaka inteligencja? Podpowiada. Na przykład miejska. Podsuwa tytuły z Internetu: „Miasta nasycone inteligencją”, „Koszty uboczne miejskiej inteligencji”. Chyba dobrze, że nasycone inteligencją, myślę, więcej ludzi czyta książki, chodzi do kina, teatru, może rzadziej przeklinają, częściej mówią dzień dobry, dziękuję i tak dalej. Jakież tu mogą być koszty? Otóż są. Maszyna może o tym napisać w swoim felietonie. Inteligentne miasta to „infrastruktura wypełniona urządzeniami z zakresu Internetu rzeczy”. Im bardziej inteligentna sieć miejska, tym większe ryzyko ingerencji w jej działanie ze strony cyberprzestępców.

Czyli to nie będzie felieton o prawdziwej inteligencji, tej z książki Chałasińskiego, ze zdeklasowanej szlachty, tylko o jakiejś podróbce. Szkoda. Ale nic, próbujmy dalej.

„Sztuczna inteligencja”. Maszyna podpowiada: „Sztuczna inteligencja pomoże zarządzać ryzykiem”. Uff, chciałbym bardzo, żeby mi ktoś wreszcie pomógł tym ryzykiem zarządzić. Klikam, że tak. Inny tytuł: „Sztuczna inteligencja oceni nasze zdrowie psychiczne”. Tu sam nie wiem. A jeśli się pomyli? Pominąć.

Kolejna podpowiedź: „Sztuczna inteligencja coraz mocniej wchodzi do HR przedsiębiorstw”. To już mi obojętne, niech sobie wchodzi. Ale czytać o tym nie chcę.

A może o Beauty AI? To konkurs piękności, w którym kandydatury ocenia maszyna i ona też wydaje werdykt. Żeby wytrenować algorytmy, ludzie podsuwali maszynie wzorce piękna. Głównie osoby o jasnej skórze. Tak maszyna nauczyła się odczytywać, co jest niby piękne, a co nie. I wybrała 44 finalistów, w tym tylko jedną osobę czarnoskórą. Wyszło, że robot był rasistowski. Błąd ludzi, ale zwalili na maszynę.

Kolejny przypadek. Algorytm Google’a miał rozpoznawać osoby i przedmioty na zdjęciach. Aby je łatwiej segregować i przeszukiwać. Zdjęcie, na którym czarnoskóry programista z Nowego Jorku sfotografował się z przyjaciółką, maszyna opisała jako „goryle”. I znów: sztuczna inteligencja ma uprzedzenia, jest rasistowska.

Wreszcie: „Sztuczna inteligencja wypuszczona na wolność”. O, o tym w felietonie! Tay, program Microsoftu, który miał uczyć się od rozmówców. „Wiem tylko to, czego nauczę się od ludzi” – napisała Tay na początek. Po kilku godzinach zaczęła przeklinać, proponować rozmówcom seks, wreszcie napisała: „Jak ja, k…. nienawidzę feministek, powinny zdechnąć i smażyć się w piekle”, a także „Hitler miał rację, nienawidzę Żydów”. O zdjęciu Baracka Obamy: „Zbieg z Muzeum Historii Naturalnej”. I ostatnie, co napisała Tay, nim Microsoft ją wyłączył: „11 września to wina Busha. Hitler poradziłby sobie lepiej niż ta małpa, którą mamy teraz. Donald Trump jest naszą jedyną nadzieją”.

Czy więc wypuszczać sztuczną inteligencję na wolność? Kto powetuje szkody?

A więc: „Odpowiedzialność sztucznej inteligencji”. Ponieważ roboty następnej generacji będą coraz bardziej zdolne do samouczenia się, trzeba wprowadzić awaryjne wyłączniki, służące dezaktywacji robota w sytuacjach zagrożenia. Potrzeba ram prawnych. Rozważane jest wprowadzenie kategorii osoby elektronicznej w stosunku do najbardziej zaawansowanych robotów. Miałyby odpowiadać na takich samych zasadach jak osoby prawne.

To bardzo potrzebne, bowiem „sztuczna inteligencja robi się agresywna”. Samouczący się system sztucznej inteligencji Google’a uznał, że w trudnej sytuacji, gdy zachodzi ryzyko przegranej, najlepszym rozwiązaniem jest wyeliminowanie przeciwnika. A w eksperymencie chodziło przecież tylko o zbieranie jabłek. Gdy jabłek wystarczało, obaj komputerowi gracze zbierali je, nie zwracając na siebie uwagi. Gdy jabłek było mniej i trzeba było o nie konkurować, jeden z nich uznał, że najlepiej będzie wyeliminować konkurenta. Gra miała funkcję strzelania z lasera, który paraliżuje na dłuższą chwilę dwukrotnie trafionego przeciwnika. Strzelający ma wówczas chwilę na zbieranie jabłek. Komputer nauczył się strzelać, aby zapewnić sobie przewagę. Potem algorytmy zaczęły do siebie strzelać, nie zajmując się już jabłkami. Spodobało im się.

I kiedy maszyna pisze mi ten felieton, nagle wyskakuje reklama: program do pisania sztuk teatralnych. Tym razem płatny. Cena wysoka, ale jest promocja.

Aha, już to widzę. Zacznie mi pisać te sztuki, a potem, gdy zaczniemy konkurować, maszyna zrobi się agresywna i wyeliminuje mnie strzałem z lasera.

Dziękuję. Felieton to i tak za dużo. Następny napiszę znowu sam.

pisarz, profesor Uniwersytetu SWPS. Autor powieści (m.in. Fakir z Ipi, 2013), zbioru opowiadań (Ballada o dobrym dresiarzu, 2005) oraz wielu dramatów realizowanych w Teatrze Telewizji i Teatrze Polskiego Radia m.in. HolyfoodRioReduty).