Zaloguj

Szybkie linki:

Zaloguj
Niewidzialna rewolucja

Niewidzialna rewolucja

Według Europejskiego Komitetu Ekonomiczno-Społecznego, jednego z głównych organów doradczych Unii Europejskiej, reprezentującego interesy pracowników i pracodawców, liczba zastosowań i inwestycji w dziedzinie sztucznej inteligencji w ostatnich latach rośnie w tempie wykładniczym. Wartość tego rynku wynosi obecnie około 664 miliony dol. Zdaniem członków komitetu do 2025 roku udział ten wzrośnie prawie stukrotnie – do blisko 40 mld dol. Ale, jak wynika z badania firmy doradczej McKinsey przytaczanego w raporcie „Iloraz Sztucznej Inteligencji” firmy Microsoft oraz Think-Tanku Polityka Insight, spośród trzech tys. świadomych zagadnienia AI decydentów korporacyjnych z dziesięciu krajów i czternastu sektorów, tylko 20 proc. z nich wdrożyło znaczące w tym zakresie rozwiązania, 40 proc. eksperymentuje, a pozostali przyglądają się, nie mając przekonania do korzyści z AI. Generalnym celem badań i rozwoju AI jest automatyzacja inteligentnych zachowań, takich jak rozumowanie, gromadzenie informacji, planowanie, uczenie się, manipulacja, komunikacja, sygnalizacja, a nawet marzenie, twórczość i postrzeganie. Ale pojęcie to obejmuje także wiele bardziej szczegółowych funkcji i procesów, takich jak samodzielnie poszerzająca swoją wiedzę i zdolności na bieżąco architektura systemów obliczeniowych (Cognitive Computing – algorytmy poznawcze), uczenie maszynowe (algorytmy przyswajające sobie wiedzę dotyczącą możliwości i sposobów wykonania poszczególnych zadań i poleceń), odpowiadająca za wygodną, szybką i maksymalnie bezbłędną współpracę człowieka z maszyną rozszerzona inteligencja (Augmented Intelligence), czy robotyka łącząca AI z takimi naukami jak mechanika, automatyka, elektronika, sensoryka, cybernetyka i informatyka. – Tymczasem na razie nie istnieje nawet precyzyjna i powszechnie przyjęta przez uczestników rynku definicja zjawiska sztucznej inteligencji – zauważa Artur Gajda, informatyk pracujący na rzecz małych i średnich przedsiębiorstw. – Ale z całą pewnością wiadomo, że w ostatnim czasie poczyniono znaczne postępy na tym polu, za co odpowiadają przede wszystkim bardzo szybki wzrost mocy obliczeniowej komputerów, coraz większa dostępność zbiorów informacji i dynamiczny rozwój uczenia maszynowego.


Spodziewane zyski

Uczenie maszynowe (z ang. Machine Learning, w skrócie ML) to specjalne algorytmy, które same uczą się wykonywania poszczególnych, konkretnych zadań i nie muszą być do nich programowane. Metoda, generalnie, polega na przetwarzaniu dużych ilości danych treningowych, na których podstawie uczą się rozpoznawać wzorce zachowań, obiektów, ścieżki myślenia i opisywać dotyczące ich zasady. Najbardziej istotnym elementem ML jest tzw. poznanie głębokie, które wykorzystuje wzorowane na działaniu ludzkiego mózgu sieci neuronowe (Neural Networks). Tego rodzaju struktury przyswajają wiedzę dzięki systematycznie powtarzanym ćwiczeniom, więc duże znaczenie w ich rozwoju odgrywają informacje zwrotne, na przykład oceniające. Dzięki opartej na takim procesie ewolucji system (za pośrednictwem algorytmu) może stosunkowo szybko stać się autonomiczny, w pewien sposób się usamodzielnić, i pozyskać zdolność samodzielnego poszerzania wiedzy, umiejętności i dostosowywania się do otaczającego go środowiska. Badania naukowe i rozwój w dziedzinie sztucznej inteligencji od pewnego czasu koncentrują się jednak, prócz samego gromadzenia wiedzy, na rozwoju takich procesów jak rozumowanie, planowanie, komunikacja i percepcja sensoryczna (przede wszystkim wzrokowa i słuchowa), co doprowadziło do opracowania bardzo wielu praktycznych zastosowań sztucznej inteligencji, takich jak na przykład wirtualny asystent czy autonomiczny samochód. Wielkie korporacje wciąż jednak zwlekają z powszechnym wprowadzeniem i stosowaniem AI. Według analityków Harvard Business Review (HBR) w 2016 roku łączna wartość nakładów na tego rodzaju rozwiązania wyniosła około 26-36 mld dol. i nie zmieniła się w zasadzie od 2013 roku. W tym czasie wysokość wszystkich wydatków inwestycyjnych przedsiębiorstw potroiła się. Eksperci są jednak przekonani, że takie technologie jak uczenie maszynowe oraz przetwarzanie języka naturalnego zaczynają udowadniać swoją wartość, szybko stając się centralnym elementem technologicznym w przedsiębiorstwach. Przynajmniej część rozwijanych obecnie, konkretnych projektów, w najbliższej przyszłości doczeka się pełnej integracji z dotychczasowymi strukturami w firmach, ale dynamika rozwoju będzie różna. Stawce ma przewodzić branża usług telekomunikacyjnych i finansowych. Wydatki na AI w tych sektorach w ciągu najbliższych lat mają rosnąć o ponad 15 proc. rocznie, czyli przekraczać międzybranżową średnią aż o siedem punktów procentowych. Nic dziwnego. Około jedna trzecia przedsiębiorstw stosujących na dużą skalę poszczególne rozwiązania z zakresu AI (lub opierających na niej swoje procesy) w ubiegłym roku osiągnęła wzrost przychodów (technologie wykorzystywane są głównie do zdobycia większego udziału w rynku lub poszerzenia zakresu działania). Pionierzy AI o 3,5 razy częściej niż inni deklarują oczekiwany wzrost zysku (marży) nawet o około pięć proc. rocznie. – Analizy udowodniły, że AI już obecnie bezpośrednio wpływa na poprawę zysku, oferując zwrot z inwestycji podobny do powiązanych z nią rozwiązań cyfrowych, takich jak Big Data czy zaawansowane technologie analityczne – twierdzi Brian McCarthy, analityk HBR.


TurboInternet

Aby zastosowania sztucznej inteligencji były możliwe, konieczne jest jednak wdrożenie innych, blisko spokrewnionych z nią technologii. Trudno wyobrazić sobie firmę przyszłości bez szerokiego wykorzystania nowego standardu połączeń internetowych, sieci 5G. Ostateczne standardy sieci i urządzeń są jeszcze opracowywane, ale w Polsce już trwają przygotowania do ich wdrożenia. Kluczową kwestią są odpowiednie zasoby częstotliwości. Według założeń Ministerstwa Cyfryzacji w pierwszej fazie rozwojowej 5G ma opierać się na trzech głównych pasmach: 700 MHz, 3,4-3,8 GHz i 26 GHz. Minister Anna Streżyńska, poprzednia szefowa tego resortu, zainicjowała Porozumienie na rzecz Strategii 5G dla Polski, którego celem jest stworzenie podstaw współpracy pomiędzy państwem, nauką i biznesem na rzecz wdrożenia tej technologii. Według analizy „Przemysł+” przygotowanej przez naukowców Szkoły Głównej Handlowej na zlecenie Ministerstwa Cyfryzacji nowy standard połączeń zapewni: szybkość (umożliwi dostęp do mobilnego Internetu, który może osiągać prędkość nawet do 100 Gbps), niezawodność (łączność nowej generacji będzie odporna na zakłócenia i dużą liczbę jednoczesnych połączeń) oraz praktycznie brak opóźnień (w przypadku połączeń mobilnych to zaledwie kilka milisekund). Sukces rozwoju sieci 5G będzie jednak zależał również od spójności polityki na poziomie całej Unii Europejskiej. Według jej założeń w 2025 roku wszystkie obszary miejskie i główne szlaki transportowe mają już być pokryte zasięgiem nowej technologii. Ale to nie wszystko. Transformacja cyfrowa gospodarki uzależniona jest również od odpowiednio rozwiniętej infrastruktury światłowodowej. Odpowiedzią na to jest Narodowy Plan Szerokopasmowy (NPS) określający działania oraz środki konieczne do zapewnienia powszechnego dostępu do Internetu w Polsce. Zgodnie z jego założeniami do 2020 roku 16,5 mln Polaków ma uzyskać dostęp do szybkich usług szerokopasmowych (50 proc. ma mieć dostęp do prędkości rzędu 100 Mb/s). Koszt realizacji planu ma wynieść ok. 17,3 mld złotych, z czego dużą część stanowić będą inwestycje operatorów prywatnych. Komisja Europejska zaproponowała nowy Kodeks Łączności Elektronicznej, obejmujący wybiegające w dalszą przyszłość i uproszczone przepisy zwiększające atrakcyjność inwestycji w nową infrastrukturę dla przedsiębiorstw. Do 2025 roku mogłyby one zwiększyć unijne PKB o 910 mld euro i umożliwić stworzenie 1,3 mln nowych miejsc pracy. Gra jest więc warta świeczki. Według opracowania wykonanego na zlecenie resortu przez naukowców SGH nowe standardy zapewnią szybki dostęp do globalnej sieci www, elektronicznych usług publicznych, znacząco poprawią jakość komunikacji, pobudzą rozwój nowoczesnej edukacji, badań i innowacji, jak również tworzenie jednolitego rynku cyfrowego. Szybkie łącza cyfrowe są podstawą ekspansji takich dziedzin, jak telemedycyna, przetwarzanie wielkich zbiorów danych, edukacja cyfrowa, przemysł lotniczy, autonomiczne systemy transportowe i wiele innych.


Technologiczne wsparcie

Ale w tej nowej rewolucji technologicznej dużą rolę odgrywać będą także inne narzędzia, ściśle związane ze sztuczną inteligencją i siecią 5G. Kluczowy będzie także rozwój i upowszechnienie chmury obliczeniowej (Cloud Computing), modelu przetwarzania danych opartego na użytkowaniu usług dostarczonych przez usługodawcę (wewnętrzny dział lub zewnętrzna organizacja). Termin „chmura obliczeniowa” związany jest z pojęciem wirtualizacji fizycznej infrastruktury przetwarzania i przechowywania danych. To skalowalna, wirtualna usługa, dająca wartość dodaną w postaci obniżenia progu cenowego złożonych, bardziej skomplikowanych rozwiązań IT, dużej elastyczności oraz łatwości implementacji, oferowana przez dostawców w oparciu o oprogramowanie oraz konieczną infrastrukturę fizyczną (nie są potrzebne licencje ani instalowanie i administrowanie oprogramowaniem, konsument płaci za użytkowanie usługi, na przykład korzystanie z arkusza kalkulacyjnego, nie musi nabywać na własność sprzętu ani software’u). Firmy i instytucje w Polsce wciąż nie wykorzystują w pełni potencjału „chmury obliczeniowej”. Na razie służy ona przede wszystkim do obsługi poczty elektronicznej, przechowywania plików, hostowania baz danych, aplikacji – biurowych lub wspierających zarządzanie finansami. W rozwoju sztucznej inteligencji w gospodarce dużą rolę odegrają także technologie Internetu Rzeczy (z ang. Internet of Things, w skrócie IoT). Technologie radiowych identyfikatorów (RFID) już obecnie używane są w wielu przedsiębiorstwach, gdzie sterowanie łańcuchem dostaw jest podstawą funkcjonowania. Analitycy są zdania, że już niebawem powszechne stanie się stosowanie przez firmy różnego rodzaju biosensorów i bioidentyfikatorów, monitorujących na przykład jakość produktów spożywczych (zmiany temperatury czy przebiegu procesów gnilnych, aby w odpowiednim momencie wycofać wyrób ze sprzedaży). Ale potencjalne zastosowania IoT w połączeniu z AI są znacznie szersze. Obejmują na przykład inteligentne, wyposażone w zestaw czujników maszyny, które same będą wiedziały, w jakim znajdują się aktualnie stanie i kiedy poszczególne podzespoły wymagać będą konserwacji czy wymiany.


Big Data

Kluczowe dla rozwoju sztucznej inteligencji są również wielkie zbiory informacji (BigData) oraz ich analiza. Przypuszczalnie największym agregatem tego rodzaju danych na świecie (oficjalnych informacji na ten temat brakuje) jest Google, a właściwie koncern Alphabet (takie serwisy jak Cloud Data Flow, BigQuery czy Cloud Pub/Sub). To właściciel i jednocześnie podmiot operujący w chmurze obliczeniowej gigantycznym zasobem informacji o użytkownikach Internetu: na stronie najpopularniejszej wyszukiwarki zamieszczanych jest ponad 100 mld pytań miesięcznie, z czego aż 1,17 mld to zadania tzw. unikatowe. Dają one dostęp do informacji o przeszło 187 mln użytkowników miesięcznie (Google odpowiada za ponad 75 proc. ruchu tylko z terenu Stanów Zjednoczonych). Z hurtowni informacji największej wyszukiwarki korzystają zarówno młode firmy w fazie wczesnego rozwoju (tzw. start-upy), jak i wielkie, ponadnarodowe koncerny. Klientów biznesowych korporacja kusi ofertą przetworzenia każdego miesiąca danych o sporej objętości 1 TB. Standardowe ceny uzależnione są od wielkości pobieranych informacji, ale z reguły wynoszą kilka, kilkanaście dol. miesięcznie. Prócz renomy i wielkości zbiorów podczas wyboru hurtowni danych znaczenie mają także takie wartości, jak bezpieczeństwo informatyczne. Jednym z najskuteczniejszych pod tym względem rozwiązań, zdaniem analityków firmy doradczej Gartner, jest firmowane przez firmę Microsoft, pozwalające przetwarzać dane i zarządzać nimi w chmurze obliczeniowej Azure. System koncernu z Redmond zaliczany jest do najskuteczniejszych dostępnych na rynku sposobów szyfrowania informacji cyfrowych. Firma jako pierwsza na świecie wdrożyła międzynarodową normę przetwarzania danych w publicznej chmurze i obecnie jest jedyną, który posiada certyfikat ISO 27018, gwarantujący bezpieczne i przejrzyste zasady ochrony poufności danych. – Chmura staje się podstawą pozwalającą komunikować się innym filarom tzw. trzeciej platformy, która umożliwia analitykę zbiorów danych, czyli BigData – precyzuje Tomasz Słoniewski, analityk rynku w firmie IDC. – Umożliwia ona także lepsze działanie urządzeń mobilnych oraz sieci społecznościowych.

Analogowe cele wirtualnej rzeczywistości

Komisja Europejska chce aby w 2025 roku:

  • Główne ośrodki pobudzające rozwój społeczno-gospodarczy, takie jak szkoły, uniwersytety, ośrodki badawcze, węzły transportowe, podmioty świadczące usługi publiczne (szpitale i organy administracji) oraz przedsiębiorstwa oparte na technologiach cyfrowych miały dostęp do łączności o szczególnie dużej przepustowości (wysyłanie i pobieranie na poziomie 1 Gb/s).
  • Wszystkie gospodarstwa domowe miały dostęp do połączeń o prędkości pobierania danych wynoszącej co najmniej 100 Mb/s, które można następnie zwiększyć do 1 Gb/s.
  • Wszystkie obszary miejskie, a także główne drogi i koleje miały niezakłócony zasięg sieci komórkowej piątej generacji (5G). Jako cel pośredni do realizacji w terminie do 2020 r. – zasięg 5G powinien być dostępny komercyjnie przynajmniej w jednym z głównych miast europejskich w każdym państwie członkowskim.

Polska czołówka AI

  • Samouczący się algorytm Big Data spółki Sertum analizuje nazwy leków i identyfikatory w  różnych aptekach, sieciach i hurtow­niach, a  także poprawki nanoszone przez farmaceutów oraz dane z centralnego słownika leków i bazy zapisów standardowych. Dzięki temu jest w stanie z prawdopodo­bieństwem bliskim pewności powiązać różne nazwy tych samych specyfików w różnych aptekach i hurtowniach. W systemach Sertum działa 17 mln takich powiązań.
  • Systemy REDNT zbierają dane z miliona czujni­ków (z ang. Data Points) w siedmiu kopalniach Jastrzębskiej Spółki Węglowej (w największej z nich dane są pobierane z 300 tys. źródeł). Monitorowane są m.in. napę­dy taśmociągów węglowych z wykorzystaniem wibrodiagnostyki. Do wykrycia, analizy i  interpretacji różnic w drganiach zaprzęgnięte zostały samouczące się algorytmy, które na zapisach tysięcy godzin pracy silnika uczą AI, jak brzmi uszkodzony, a jak sprawny mechanizm.
  • Edward, inteligentny asystent handlowca, monitoruje i stara się rozumieć między innymi telefony i kalen­darze, może mieć również dostęp do koresponden­cji e-mail czy SMS-ów. Dzięki temu w jeden kontekst łączy wszystkie informacje dotyczące jednego klienta, co pozwala łatwo prześledzić całą historię kontaktów (nawet jeśli dany pra­cownik go przejął od kolegi). Edward może ponadto uzupełniać automatycznie dowolny system CRM, co ma niebagatelny wpływ na wydajność tego systemu.
  • Rozwiązanie spółki Cognitum pozwala na wykrywanie oszustw związanych z podatkiem VAT. Algorytmy przedsiębiorstwa mogą przebadać 2 mln faktur dziennie od 60 tys. sprzedawców pod kątem 200 reguł podatkowych. Analizie w czasie rzeczywistym może podlegać wielu uczestników transakcji, łań­cuchy czy status poszczególnych podmiotów, począwszy od poziomu pojedynczej faktury, aż po całe serie dokumentów w tygodnio­wych i wielomiesięcznych interwałach czasowych.
  • Oferowane przez firmę frameLOGIC systemy zarządzania transportem (Trans­port Management System), wykorzystujące algorytmy sztucznej inteligencji, odpowiadają nie tylko na pytanie, czy przyjąć dane zlecenie, ale są też w stanie wyli­czyć, jak bardzo będzie ono opłacalne.
0 Komentarze
Dodaj komentarz
Pokaż szczegóły
- +
Wyprzedane