ŁADOWANIE

Wpisz by wyszukać

Udostępnij

Jak mocno sztuczna inteligencja weszła do biznesu, dlaczego tak ciężko się bez niej obejść i czy ona obejdzie się kiedyś bez nas – o tym debatowaliśmy w gronie przedstawicieli czterech firm: Banku ING, IBM, PZU Lab i Microsoft.

Wojciech Urbanek: W ostatnim czasie sztuczna inteligencja jest bardzo popularnym tematem, nie tylko w świecie nowych technologii, ale również w biznesie. W przestrzeni publicznej pojawiło się wiele nowych pojęć związanych z tym zjawiskiem, takich jak chociażby uczenie maszynowe (machine learning) czy głębokie uczenie (deep learning). Na czym polegają podstawowe różnice pomiędzy terminami opisującymi sztuczną inteligencję? Dlaczego właśnie teraz tak dużo dyskutuje się o technologii Artificial Intelligence (AI)?

Piotr Beńke, CTO IBM: Uczenie maszynowe stanowi jeden ze składników sztucznej inteligencji. Maszyny przyswajają wiedzę, żeby móc wchodzić w interakcję z użytkownikiem. Są różne metody uczenia. Do najbardziej popularnych należy metoda połączeń – maszyna potrafi wyciągać wnioski po wcześniejszym wprowadzeniu odpowiednio przygotowanych danych.

Gwałtowny rozwój sztucznej inteligencji w ostatnich latach stał się możliwy dzięki trzem czynnikom. Po pierwsze dysponujemy wystarczającą mocą obliczeniową. Po drugie posiadamy odpowiednią ilość danych. Poza tym od jakiegoś czasu mamy wiedzę na temat modelowania obliczeń. Wiemy, jak budować sieci neuronowe i uczyć maszyny.

Piotr Marczuk, Dyrektor ds. Polityki Korporacyjnej, Microsoft: Uczenie maszynowe jest technologią znaną od wielu lat. Niemniej dopiero w ostatniej dekadzie dynamicznie rozwijane są takie gałęzie sztucznej inteligencji jak deep learning oraz deep neural learning. Ten skok zawdzięczamy chmurze, która zapewnia dostęp do niemalże nieograniczonych zasobów mocy obliczeniowej, a także gromadzenia, przechowywania i przetwarzania olbrzymich zbiorów danych. Są one poddawane procesom analitycznym o zupełnie nowej jakości, a zastosowanie algorytmów głębokiego uczenia sprawia, że rozwiązania bazujące na AI stają się coraz lepsze. Charakteryzują się one tym, że w pewnych wąsko wyspecjalizowanych obszarach mogą dawać wyniki równoważne bądź lepsze niż te, które osiąga mózg ludzki. Mam tutaj na myśli dokładność przetwarzania czy wyprowadzanie konkluzji z analizy, nad którą człowiek musiałby spędzić znacznie więcej czasu lub w ogóle nie byłby w stanie zauważyć pewnych prawidłowości w tak olbrzymiej ilości danych.

Tomasz Huś, CEO PZU Lab: Mówiąc o sztucznej inteligencji, powinniśmy wspomnieć o Big Data. Pod tym hasłem kryją się tak naprawdę matematyczne algorytmy, z których wiele pochodzi jeszcze z lat 50. i 60. zeszłego wieku. Przez wiele lat nie mogliśmy wykorzystać ich potencjału, ponieważ brakowało wystarczającej ilości danych i mocy obliczeniowych. Sztuczna inteligencja to po prostu kolejny krok. Główna różnica w stosunku do big data polega na tym, że nie mamy do czynienia ze znanymi algorytmami, lecz ze strukturami, które same szukają rozwiązań. Same budują algorytmy, które my niekoniecznie rozumiemy. Takie podejście wymaga jeszcze większych mocy obliczeniowych niż big data, dlatego przez wiele lat było efektywnie poza zasięgiem biznesu. Obecnie moc procesorów stała się bardzo tania. Dzisiaj każdy może za około 10 tysięcy złotych złożyć u siebie w mieszkaniu maszynę na tyle mocną, że 15-20 lat temu byłaby uznana za superkomputer pracujący w NASA.

Michał Bolesławski, Wiceprezes ING Banku Śląskiego: Bardzo ważnym czynnikiem w procesach uczenia maszynowego czy deep learningu jest jakość danych. Jeśli będą one niewłaściwe lub znajdą się w nich przekłamania, to doprowadzą do fałszywych wniosków, a tym samym projekt stanie się bezużyteczny. Sztuczna inteligencja jest bardzo modnym pojęciem. Niestety, bardzo często jest ono celowo nadużywane. Owszem możemy opowiadać, że posiadamy sztuczną inteligencję do oceny zdolności kredytowej lub przewidywania zachowań naszych klientów. Ale tak naprawdę to analiza behawioralna, którą znamy od dwudziestu lat, w niektórych przypadkach wzbogacona o samouczące się algorytmy. Problem polega na tym, że w debacie publicznej sprzedaje się rzeczywistość, która nie jest prawdziwa.

Sztuczna inteligencja jest bardzo modna, ale przy okazji stała się przedmiotem kpin. Dziennikarze, blogerzy bardzo często piszą błędach popełnianych przez inteligentne maszyny. Czy wynika to z tego, że technologia jest w powijakach? Czy twórcy rozwiązań używają niewłaściwych danych? A może AI jest niemal doskonała, a media po prostu wyolbrzymiają problem?

Piotr Marczuk: Wokół AI wytworzyła się pozytywna i negatywna otoczka marketingowa. Ta negatywna często związana jest z patrzeniem na potencjalne negatywne skutki AI dla społeczeństwa i gospodarki, które mogą zrealizować się w bliżej nieokreślonej przyszłości. Prawda jest taka, że w tej chwili posiadamy rozwiązania bazujące na tej technologii w wąskich wycinkach życia społecznego i gospodarczego. Z kolei filozofowie zastanawiają się, kiedy nadejdzie era sztucznej generalnej inteligencji, która niesie za sobą zarówno duże wyzwania dla ludzkości, jak i ryzyka. Jednak nikt nie potrafi powiedzieć, czy będzie to za dwadzieścia czy sto lat.  Nie chciałbym wchodzić w tego typu rozważania, to zadanie dla futurystów. Natomiast ważne jest to, o czym wspominali moi przedmówcy. Musimy wiedzieć, co się dzieje w algorytmach i jak one działają, a nie ograniczać się wyłącznie do kontroli danych wsadowych. Niemniej, aby sprawdzić, czy zasoby cyfrowe, którymi dysponujemy, nie są przekłamane, powinniśmy kierować się zasadami transparentności, odpowiedzialności oraz braku zafałszowań. Zostały one zdefiniowane m.in. przez Microsoft czy Google, ale również regulatorów w Unii Europejskiej. Niewykluczone, że kolejnym krokiem będzie zastosowanie twardych regulacji tam, gdzie te podstawowe zasady nie będą wystarczające do rozwiązania problemów wokół zastosowania konkretnych rozwiązań AI.

Piotr Beńke: Rozwiązania AI podlegają procesowi uczenia na podstawie dostarczanej im wiedzy oraz informacji. Tak jak w przypadku ludzi, podobnie wśród systemów występuje pewna tendencyjność. Już od pewnego czasu mówi się o problemie Bias AI – maszyny nie działają tak, jak wyobrażali to sobie futurolodzy. To nie jest antidotum na wszelkie bolączki tego świata. Bardzo istotny w całym procesie jest sposób dostarczania danych. Ale wciąż do końca nie wiemy, jak algorytmy budują swoją wiedzę na bazie otrzymywanych informacji. Natomiast potrafimy na podstawie danych wyjściowych modyfikować i zasilać system w taki sposób, żeby był on jak najbardziej neutralny. Choć sama definicja neutralności budzi wiele wątpliwości i jest bardzo różnie postrzegana przez ludzi.

Michał Bolesławski: Żyjemy w homogenicznych społeczeństwach i trudno powiedzieć, że dane wsadowe są tendencyjne, jeżeli odzwierciedlają rzeczywistość. Na przykład systemy AI potrafią prawidłowo ocenić wiek białych mężczyzn w 80 proc. przypadków, ale u kobiet wynik jest już gorszy. Jeszcze bardziej sprawy się komplikują w grupie osób o ciemnej karnacji. Nie wynika to ze świadomego zafałszowania danych wsadowych, lecz przekroju społecznego grupy, od której zbierano informacje. Korporacje, w tym również ING, pracują ze środowiskami akademickimi, żeby znaleźć metodologię i sposoby na eliminowanie tego typu błędów.

Uważam, że wciąż jesteśmy przed erą AI. To nadal nie jest samoświadoma inteligencja – dzielą nas od tego lata świetlne. Jak na razie działa głównie statystyka, czego najlepszym przykładem jest Dr Watson.  Otóż stawia on lepsze diagnozy niż lekarz,  co wynika z dyscypliny statystycznej. Jeśli odsuniemy człowieka, wówczas działają  żelazne reguły, nie ma miejsca na subiektywizm przy podejmowaniu decyzji. Ale czy chcielibyśmy, żeby w taki sposób funkcjonowała AI? Chyba nie do końca.

Tomasz Huś: Mamy do czynienia ze swojego rodzaju dysonansem poznawczym – z jednej strony wszyscy mówią o tym, że AI zbawi świat, zaś z drugiej pojawiają się przypadki, gdy nie radzi sobie z całkiem prostymi zadaniami. To kontrastowe zestawienie jest medialnie bardzo nośne, dlatego wpadki AI są wyolbrzymiane. Nie zmienia to faktu, że AI idzie do przodu w zawrotnym tempie. Tak naprawdę mamy do czynienia z sytuacją, w której część firm próbuje na siłę pokazać, że ich produkty bazują na sztucznej inteligencji natomiast inni – ci najbardziej zaawansowani – wręcz przeciwnie – nie chwalą się swoimi osiągnięciami, a nawet je ukrywają. Nie chcą pokazywać, jak dużą mają przewagę nad konkurencją.

Na ile procesy regulacyjne, takie jak np. RODO, ograniczają dostęp do danych, a tym samym hamują postępy w pracach nad rozwojem sztucznej inteligencji?

Michał Bolesławski: Kiedy regulatorzy czy rządy uświadomią sobie, jakie zagrożenia wiążą się z rozwojem AI, będą się pojawiały kolejne regulacje. Niestety, zazwyczaj regulacje są nadmiarowe, bowiem próbują pokryć swoim zasięgiem zbyt wiele procesów, zamiast zarządzać nimi w wysublimowany sposób. Nie inaczej jest z RODO, stąd mamy do czynienia z przejściowymi problemami przy wyczytywaniu nazwisk w placówkach medycznych czy szkołach. Ale to minie, regulacje dostosują się do realiów. RODO jest dobrą ideą i choć w tej chwili nie działa najlepiej, wiele wskazuje na to, że stanie się światowym standardem. Należy też mieć na uwadze, że istnieją inne rozporządzenia niż RODO, na przykład liczne regulacje bankowe. Wszystkie mają one wspólną cechę – starają się zabezpieczyć interesy poszczególnych grup w taki sposób, żeby jedna strona nie korzystała z nich bardziej aniżeli reszta społeczeństwa.

Piotr Marczuk: W ciągu ostatnich kilku lat świadomość naszego społeczeństwa na temat ochrony prywatnych danych wyraźnie wzrosła, ruszyły też prace regulacyjne mające na celu odpowiednie zabezpieczenie wrażliwych informacji. Jednym z owoców tych prac jest uchwalone w ubiegłym roku RODO. Wcześniej niewiele się w tym zakresie działo, choć w Polsce obowiązywała ustawa o ochronie danych osobowych. Nieco na fali dyskusji o naszej prywatności wypłynął temat sztucznej inteligencji. Jak wiadomo, wszelkie niepowodzenia czy wpadki związane z projektami dotyczącymi AI są mocno nagłaśniane. Do tego dochodzą nasilone cyberataki, które nie są już wyłącznie domeną hobbystów, ale realizują je również rządy niektórych państw. Wiadomo, że mechanizmy sztucznej inteligencji znajdują zastosowanie nie tylko w badaniach naukowych czy przemyśle. Niestety, wykorzystuje się je również podczas cyberataków naruszających bezpieczeństwo sieci. Dlatego bardzo ważne jest funkcjonowanie narzędzi, reguł i regulacji, które pozwalają rozpoznawać korzyści i ryzyka związane z AI.

Piotr Beńke: Jednym z największych problemów występujących we współczesnych przedsiębiorstwach jest rozproszenie danych. Nie są one odpowiednio podzielone, co hamuje rozwój AI. Technologia jest gotowa, aczkolwiek potrzebujemy regulacji pozwalających odpowiednio sklasyfikować dane. Ważne, żeby organizacje posiadające kluczowe informacje mogły ze sobą współpracować. W sektorze medycznym współdziałanie wielu klinik, wymieniających pomiędzy sobą np. dane na temat różnych genotypów, poszerzy wiedzę i pozwoli lepiej diagnozować schorzenia. Innym ciekawym zagadnieniem jest tzw. tryb open data – otwierający duże możliwości przed mniejszymi podmiotami tworzącymi rozwiązania oparte na sztucznej inteligencji.

Tomasz Huś: Wbrew obiegowym opiniom nie istnieje problem braku danych. Wyzwanie polega na ich integracji. Wiele firm patrzy na dane jak na problem, bo trzeba inwestować w serwery do ich przechowywania. Tymczasem najlepsi wiedzą, że integracja danych zmienia je z kosztu w aktywa, które mogą wygenerować zyski. Jest to też wyzwanie – firma musi zatrudniać analityków rozumiejących posiadane dane, informatyków oraz fachowców od sztucznej inteligencji. W przypadku tych ostatnich istnieje największy deficyt specjalistów na rynku pracy.

Dostawcy rozwiązań bazujących na sztucznej inteligencji oferują różnego rodzaju roboty, które np. mogą zastąpić recepcjonistów bądź pracowników call center. Czy firmy oraz ich klienci są gotowi na to, aby część prac biurowych bądź związanych z obsługą klienta przejęły maszyny? Czy warto już teraz z nich korzystać ?

Tomasz Huś: Chatboty i systemy automatyzujące procesy będą coraz sprawniejsze w przejmowaniu monotonnych i powtarzalnych zadań. Oczywiście można ten fakt zignorować, podobnie jak 20 lat temu niektórzy próbowali ignorować rolę Internetu. Przecież to też miała być tylko technologia do komunikacji. Obecnie nawet tak tradycyjne branże jak hotelarska czy taksówkarska są transformowane  dzięki Internetowi. 10 lat temu nikt nie postawiłby na to nawet dolara. Z AI będzie podobnie. To po prostu kolejna duża innowacja. Historycznie wszyscy, którzy próbowali ignorować takie zmiany, przegrywali walkę na rynku. I odwrotnie, firmy aktywnie uczestniczące w procesach przemian, były ich beneficjentami.

Piotr Marczuk: Rozwiązania bazujące na sztucznej inteligencji warto wprowadzać przynajmniej z kilku powodów. Maszyny potrafią z masy dostępnych danych wyciągnąć kluczowe informacje, co znakomicie  sprawdza się w przypadku rozwiązań typu call center czy obsługa pytań klienta. Można w ten sposób nie tylko zbudować bazę wiedzy zawierającą odpowiedzi na wszystkie pytania zadane przez klientów od początku działania infolinii, ale również dokonać wnikliwej analizy dotyczącej relacji pracowników call center z konsumentami. Ludzie, którzy wcześniej realizowali te zadania, będą musieli się przekwalifikować lub sprawować nadzór nad maszynami.

Co ważne, zmiany czekają nas też w zawodach wymagających wysokich kompetencji, takich jak prawnicy. Na pierwszy rzut oka wydają się oni niezastąpieni. Przykładowo, w Microsoft przetwarzamy setki tysięcy umów o zachowaniu poufności. W większości przypadków są to standardowe pisma, choć różnią się detalami w zależności od działalności klienta. Rozbieżności są niewielkie i wymagają zmiany około 20 proc. dokumentu. Proces obsługują maszyny, algorytmy sprawdzają rodzaj kontrahenta, jego wymagania, a także dokonują podziału na ustalenia standardowe i wymagające ingerencji człowieka. W rezultacie praca prawnika ogranicza się do wykonania niezbędnego minimum czynności. Niemniej są to rozwiązania, które wspierają, a nie eliminują człowieka. W naszej wizji rozwoju AI mamy zapisane, że kluczową jej rolą powinno być wspieranie, a nie zastępowanie człowieka.

Piotr Beńke: Inteligentne rozwiązania wdrażane są też w bankach. W niektórych placówkach systemy oparte na AI wspierają pracę konsultantów. W trakcie rozmowy chatbot podpowiada m.in. jakie produkty zaoferować klientowi. Innym przykładem są bazy wiedzy tworzone przez korporacje, które bazują na wydarzeniach, doświadczeniach z przeszłości. Zrealizowaliśmy kilkanaście tego typu projektów na świecie. Z jednej strony umożliwiają one szybkie i płynne wprowadzenie nowego pracownika do organizacji, zaś z drugiej pozwalają skrócić czas rozwiązywania pojawiających się problemów.

Michał Bolesławski: Sceptycznie patrzę na robota zastępującego człowieka na recepcji. Klienci irytują się, kiedy muszą rozmawiać z maszyną mówiącą beznamiętnym głosem. Nie za bardzo wierzę, że zaakceptują „kukiełkę” kierującą interesanta do pokoju numer siedem. Dopiero kiedy maszyna zacznie myśleć i próbować zrozumieć nasze uczucia, wówczas będziemy mogli mówić o przełomie.

Piotr Beńke: Ale to już zaczyna się dziać. Opracowaliśmy debatora, czyli maszynę, która potrafi debatować, a swoje wypowiedzi uzasadnia argumentami i faktami. System miał swój debiut w lutym. To kolejny krok w kierunku AI, gdzie nie opieramy się wyłącznie na prostej interakcji, ograniczającej się do pytania i odpowiedzi.

Co Panowie sądzą o personifikacji sztucznej inteligencji? Na ile może ona ułatwić komunikację pomiędzy maszyną a klientem?

Piotr Marczuk: Uczłowieczenie maszyn może doprowadzić do tego, że człowiek zachowa wobec nich większą rezerwę. Cortana czy Siri nie mają emanacji fizycznej i posługują się jedynie głosem. Ludzie bardzo szybko się do nich przyzwyczajają i chętnie korzystają z ich usług. Dlatego nie powinniśmy przesadzać z personifikacją systemów bazujących na AI, lecz stawiać na przyjazną obsługę.

Tomasz Huś: Nie powinniśmy wpadać w pułapkę personifikacji i traktowania AI jak robota z twarzą. W ten sposób ograniczamy się jedynie do niewielkiego ułamka tego, czym może być AI. Osobiście znam wiele innych nieoczywistych przykładów zastosowania tej technologii. Przykładowo jedna z firm zajmujących się rybołówstwem kupowała zdjęcia satelitarne oceanów, potem za pomocą AI wykrywała statki zajmujące się połowami, a następnie analizowała ich ruch na poszczególnych akwenach. Zebrane informacje pozwoliły kierować statki tam, gdzie konkurencja nie odławiała ryb. W tym przypadku AI nie zastąpiło ludzi, nie mamy  do czynienia z robotem ciągnącym sieć, lecz mechanizmem, który pozwolił ograniczyć liczbę kutrów bez ograniczenia wielkości połowów.

Amazon korzysta z algorytmów, które nie tylko śledzą pracowników, ale decydowały nawet o ich zwolnieniu. Czy nie grozi nam zatem dehumanizacja miejsc pracy?

Tomasz Huś: To nie sztuczna inteligencja odhumanizowała pracowników. Nieludzka była osoba, która wpadła na pomysł, aby zlecić ten proces maszynom.

Piotr Marczuk: Nie znam tego konkretnego przypadku i trudno mi się do niego odnieść. Jak już powiedziałem, Microsoft ma jasne polityki, które mówią, że AI ma wspierać pracę ludzi, również w działach HR. Na wstępnym etapie rekrutacji można wykorzystać maszyny do sczytywania CV  i na podstawie uzyskanych informacji dokonać wstępnej selekcji. Jednakże na końcu całego procesu musi stać człowiek, który wybierze pracownika po przeprowadzeniu bezpośredniej rozmowy z kandydatem.

Piotr Beńke: To kwestia zastosowania technologii. Uważam, że AI może się przyczynić do popularyzacji innowacyjnych rozwiązań. Dzięki możliwościom komunikowania obsługa urządzeń stanie się prostsza. Nowe technologie zbliżą się do człowieka, który będzie je szybciej adaptował ze względu na przyjazne interfejsy i łatwiejszą interakcję.

Tagi:
Poprzedni artykuł
Następny artykuł

Zostaw komentarz

Your email address will not be published. Required fields are marked *