Ponad 30 lat polskie firmy rozwijały się dzięki niskim kosztom, spragnionym sukcesom przedsiębiorcom i szybkiej adaptacji do zmian na rynku. Z cyfryzacją bywało różnie: z jednej strony prężnie działające startupy i ecommerce, z drugiej bardziej tradycyjne branże mniej chętnie sięgają po takie rozwiązania. Czy w 2024 roku polskie firmy są gotowe na rewolucję sztucznej inteligencji? Czy firmy, które wolniej adaptują technologie.

Kto bardziej poszukuje rozwiązań sztucznej inteligencji: spragnieni nowości konsumenci, czy firmy, które poszukują możliwości optymalizacji procesów i rozwoju. Wnioski na podstawie wyników dwóch badań przeprowadzonych przez PwC, sprawdzających stopień gotowości tych dwóch grup. W jakich obszarach mają podobne oczekiwania, w jakich przeciwstawne i co to w praktyce oznacza dla organizacji, które szykują się do wejścia w AI.

“-(…) ja nie mam nic, ty nie masz nic, on nie ma nic(…)
– To razem właśnie mamy tyle, w sam raz tyle, żeby założyć wielką fabrykę.”

Cytat z „Ziemi obiecanej” Władysława Reymonta dobrze ilustruje tempo rozwoju przemysłu włókienniczego w Łodzi pod koniec XIX wieku. Przemysłowe technologie w zestawieniu z tradycyjną gospodarką rolną były szokująco nowoczesne dla ówczesnego społeczeństwa. Po stukilkudziesięciu latach możemy powiedzieć, że tempo rozwoju cywilizacji przyspieszyło wykładniczo. Najlepsi eksperci w dziedzinie sztucznej inteligencji nie mają odwagi stawiać jakichkolwiek prognoz na dalej niż 3-4 kwartały. Czy sztuczna inteligencja może być dla polskiej gospodarki nową ziemią obiecaną? Co musimy zrobić jako przedsiębiorcy, jako państwo ale i jako obywatele, żeby nad Wisłą wyrosła „Dolina AI”, która zapewni nam kilkadziesiąt lat wzrostu gospodarczego?

Wiele narzędzi AI ma za zadanie pilnować ciemnej strony ludzkiej natury, czyli uniemożliwiać dokonywanie oszustw. Ale ludzka natura nie zmieniła się od setek tysięcy lat: im groźniejszy przeciwnik, tym większa motywacja, żeby z nim walczyć. Prezentacja na temat wyścigu jaki rozgrywa się pomiędzy oszustami a narzędziami AI. Poruszy też wiele nowych pytań: czy oszukiwanie narzędzi sztucznej inteligencji jest nieetyczne? Czy deepfake przygotowany za zgodą jego bohatera jest etycznie dobry? Czy pogłębione dzięki algorytmom dostosowanie treści do jego odbiorców pogłębi podziały społeczne?

Jak przygotować i zaangażować pracowników w proces wdrożenia asystenta AI w narzędziach do pracy? Jakie wyzwania dotyczące UX designu pojawiają się w kontekście budowania relacji pomiędzy człowiekiem a robotem? Kluczowe wnioski na przykładzie systemu redakcyjnego dla ponad 1000-osobowego newsroomu.

Bolt dostarcza 5 różnych produktów/usług ponad 200 milionom ludzi na całym świecie. Wsparcie tak dużej liczby klientów na wielu zróżnicowanych rynkach jest wymagające zarówno ze względu na skalę jak i na liczbę lokalnych polityk i procesów, które agenci wsparcia muszą stosować. Prezentacja na temat drogi związanej z automatyzacją wsparcia klienta – od zapisywania częstych polityk w kodzie przez budowanie silnika do automatyzacji procesów do użycia uczenia maszynowego i GenAI.

Większość czat botów do wsparcia klienta ogranicza się do zaprezentowania informacji użytkownikowi lub zasugerowania agentowi wsparcia następnego kroku. Bot Alfred czuje się komfortowo z oferowaniem klientom zwrotu pieniędzy i innych akcji mających potencjalnie duże implikacje biznesowe.

Wdrożenie rozwiązań AI wymaga uwzględnienia odpowiednich ram prawnych. Prezentacja na temat aktualnych wymogów prawnych dotyczących AI, w tym wymogów dotyczących ochrony danych osobowych (RODO) oraz prawa autorskiego, a także przyszłych wyzwań regulacyjnych związanych z AI Act. Zaprezentowane będzie również studium przypadku: jakie wyzwania prawne wiążą się z wdrożeniem narzędzia AI wysokiego ryzyka, np. narzędzia wspierającego rekrutację pracowników.

Wdrożenie rozwiązań AI wymaga uwzględnienia odpowiednich ram prawnych. Prezentacja na temat aktualnych wymogów prawnych dotyczących AI, w tym wymogów dotyczących ochrony danych osobowych (RODO) oraz prawa autorskiego, a także przyszłych wyzwań regulacyjnych związanych z AI Act. Zaprezentowane będzie również studium przypadku: jakie wyzwania prawne wiążą się z wdrożeniem narzędzia AI wysokiego ryzyka, np. narzędzia wspierającego rekrutację pracowników.

Federated Learning (FL) to nowa metoda trenowania modeli uczenia maszynowego, zapoczątkowana przez Google, przeznaczona do użytku na smartfonach. W przeciwieństwie do tradycyjnego uczenia maszynowego, gdzie dane są centralizowane i przekazywane do modelu, FL polega na tym, że algorytm jest przenoszony do danych, a rozproszone dane nie są centralizowane, co zapewnia zachowanie prywatności. Prezenentacja o tym, jak firmy ubezpieczeniowe mogą wykorzystać tę technikę do wspólnego budowania modelu predykcji częstotliwości roszczeń za pomocą sieci neuronowej, łącząc i wykorzystując dane swoich klientów, bez faktycznego udostępniania lub naruszania jakichkolwiek wrażliwych informacji.

Koszty pracy w Polsce i Europie rosną i prowadzenie korporacyjnychcentrów operacji przestaje się tutaj opłacać. Prezentacja o tym jak wykorzystując technologię machine translation można pewnego rodzaju czynności przenieść do Azji (realny, działający case study). To również okazja do refleksji: co dalej będzie się działo z naszym rynkiem pracy w kontekście następnych dziesięcioleci.

Dzięki generatywnej sztucznej inteligencji (GenAI) zespoły mogą samodzielnie budować rozwiązania, które do tej pory wymagały zaangażowania specjalistów oraz czasochłonnego procesu zbierania danych. Na podstawie doświadczeń XTB we wdrażaniu GenAI prezentacja odpowie na następujące pytania:

Odpowiedzią na dynamiczny rozwój AI jest ISO/IEC 42001 – globalna norma określająca wymagania dotyczące ustanowienia, wdrożenia, utrzymania i ciągłego doskonalenia systemu zarządzania sztuczną inteligencją. Jej celem jest pomoc organizacjom i społeczeństwu w czerpaniu jak największych korzyści z AI, przy jednoczesnym zapewnieniu interesariuszy, że systemy są opracowywane i wykorzystywane w sposób odpowiedzialny. W prezentacji prelegenci przedstawią pierwszy na świecie projekt wdrożenia i certyfikacji ISO/IEC 42001 w firmie AI Clearing.

Wdrażając systemy sztucznej inteligencji oczekujemy, że uzyskamy obiektywne narzędzie, nieskażone ludzkimi emocjami, które pozwoli podejmować optymalne biznesowo decyzje. Praktyka pokazuje, że AI wcale nie jest taki idealne. Sztuczna inteligencja ulega m.in. stereotypom związanym z płcią czy przedstawianiem różnych profesji. Prezentacja o tym, dlaczego AI nie jest idealnie obiektywna i jaki to ma wpływ na procesy biznesowe.

Modele sztucznej inteligencji stanowią niezastąpione narzędzie do analizy danych tekstowych. Technologie grafowe pozwalają umieścić wyniki modeli w szerszym kontekście, ujawniając nowe informacje. Prezentujemy rozwiązanie łączące dedykowane modele sztucznej inteligencji i algorytmy grafowe w celu walki z dezinformacją. Działanie systemu omawiamy analizując incydent z początków wojny rosyjsko-ukraińskiej. Prezentowane technologie można zastosować również w innych dziedzinach, na przykład w marketingu, czy analizie użytkowników.

Wnioski z wdrożenia dwóch rozwiązań sztucznej inteligencji w ING Banku Śląskim: aplikacji do oceny zaawansowania prac budowlanych na podstawie zdjęć oraz wirtualny asystent korzystający z wewnętrznej bazy wiedzy. Opis wykorzystanych metod, przemyślenia na temat możliwości modeli i opłacalności wdrożenia.

Gwałtownie rosnąca liczba projektów wdrożeniowych sztucznej inteligencji stawia przed organizacjami pytania: gdzie powinna być umocowana sztuczna inteligencja w strukturze? Czy to jest zadanie działów danych i analiz? A może IT? Czy potrzebne są do tego znane z największych organizacji działy innowacji lub rozwoju? A jeżeli to ma być wspólny projekt różnych działów, kto powinien być koordynatorem? I jakich kompetencji dzisiaj brakuje w organizacjach, żeby skutecznie wdrażać AI? Jak podchodzić do wdrażania AI mają przedsiębiorstwa z tradycyjnych gałęzi gospodarki, w których IT nie jest ośrodkiem innowacji, ale raczej koncentruje się na obniżaniu kosztów i zapewnieniu ciągłości działania? Co z organizacjami, w których większość IT jest wyuotsourcowana?

Sztuczna inteligencja jest odmieniana w mediach przez wszystkie przypadki, a jak wygląda praktyka wdrożeń? Wiadomo, że najmniejsze firmy mogą skorzystać tylko z gotowych rozwiązań w modelu SaaS – bariera wejścia jest zbyt duża. Ale jak powinien wyglądać model adaptacji w średnich i dużych przedsiębiorstwach? Rozwój własnych modeli? Kupno gotowych rozwiązań? Kompleksowe systemy do zarządzania całą firmą oparte o LLM i integrujące w jednym miejscu różne podsystemy (ERP, CRM, f-k), czy raczej wyspecjalizowane modele realizujące konkretny proces biznesowy?

LLM, czyli Large Language Models zdominowały dyskusję o sztucznej inteligencji, a najwięcej mówi się oczywiście o ChatGPT – największym, globalnym projekcie. Z jednej strony – ma imponujące możliwości, ale z drugiej – jest wytrenowany przede wszystkim w języku angielskim i siłą rzeczy, w tym języku najlepiej i najszybciej się rozwija. Ale pojawiły się też konkurencyjne projekty: Claude, Gemini czy Mistral. Jak w tym wszystkim plasuje się język polski, o wiele rzadziej używany niż angielski czy francuski, ale jednak nie tak niszowy jak litewski czy estoński? Czy powinniśmy rozwijać swój własny LLM? Jakie korzyści przyniesie polskim Duży Model Językowy administracji publicznej lub polskim firmom? Panel z udziałem twórców czołowych projektów LLM w Polsce.

Jak w dłuższej perspektywie AI wpłynie na rynek pracy? Luddyści XXI wieku mówią, że pracę zabierze, optymiści twierdzą, że wygeneruje nowe stanowiska. Czy mamy w Polsce odpowiednie zasoby kompetentnych kadr, żeby rozwijać i wdrażać rozwiązania sztucznej inteligencji? Czy jesteśmy skazani na odpływ największych talentów, które zasilają czołowe globalne firmy z tego obszaru? Co z wyzwaniami, takimi jak zastępowanie junior developerów, pracowników obsługi klienta przez AI. Czy pozbawimy się trwale pewnych kompetencji, tak jak coraz ciężej jest nam czytać mapę, odkąd mamy GPS w smartfonach?

Różnice w działaniu między klasycznymi systemami IT, a tymi wykorzystującymi sztuczną inteligencję, przekładają się na inne podeście do cybersecurity. Nawet bardzo dobrze zabezpieczone tradycyjnymi metodami środowisko nie oprze się hakerom, którzy wiedzą jak skutecznie zaatakować AI. O czym należy wiedzieć z punktu widzenia bezpieczeństwa, przed podjęciem decyzji o wdrożeniu sztucznej inteligencji w organizacji.

Wnioski z przeprowadzonego w Wodociągach Miasta Krakowa S.A. wdrożenia sieci neuronowych do sterowania jedną z pompowni. Zadaniem tego rozwiązania jest optymalizacja pracy i poprawa efektywności energetycznej. Wdrożenie jest pierwszym krokiem do stworzenia pierwszej pasywnej oczyszczalni ścieków w Polsce z wykorzystaniem rozwiązań machine learning.

Lekarze dużą część swojego cennego czasu muszą poświęcać na czynności administracyjne, takie jak m.in. stworzenie opisu choroby pacjenta, czy podsumowanie zaleceń. Z pomocą mogą przyjść narzędzia LLM, ale wymagania dotyczące jakości ich pracy są o wiele wyższe niż w innych branżach, specyfinczy i bardzo precyzyjny jest też język terminologii medycznej. Przedstawiciele Docplanner omówią w jaki sposób zintegrowali narzędzia LLM, aby ułatwić obsługę pacjenta, z zachowaniem odpowiedniej jakości usług zdrowotnych. Prezentacja przybliży konkretne wyzwania i wyniki na każdym etapie procesu tworzenia podsumowań: od generowania transkrypcji z wizyty, poprzez tworzenie samego podsumowania aż po systematyczną ocenę i skuteczne wychwytywanie błędów.

Wnioski z wdrażania generatywnej sztucznej inteligencji (genAI) przez Grupę Żabka: strategia budowy i wdrożenia genAI, z naciskiem na jej kluczowe zastosowania w różnych obszarach działalności firmy, roadmapa zastosowań tej technologii w ramach organizacji, z uwzględnieniem zalet genAI (efektywność pracowników i optymalizacja procesów), kwestie prawne i etyczne związane z zastosowaniem AI – jak Grupa Żabka radzi sobie z tymi wyzwaniami.

Prezentacja skupia się na kluczowych aspektach zarządzania danymi w kontekście uczenia modeli AI, a potem wykorzystania ich w konkretnych systemach AI i konkretnych use case’ach. Jak przepisy ogólnego rozporządzenia o ochronie danych (GDPR) wpływają na procesy zbierania, przechowywania i przetwarzania danych osobowych w projektach AI. Omówienie także wpływu nowych regulacji AI Act i Data Act na obowiązki prawne dostawców i użytkowników AI w zakresie danych. Przedstawienie najlepsze praktyki w zarządzaniu ryzykiem prawnym w projektach związanych z AI.

Rozwiązania wykorzystujące AI prędzej czy później trafią do sądów i będą decydować o sposobie rozstrzygania sporów sądowych. Sztuczna inteligencja może być również niezwykle pomocnym narzędziem przy próbach polubownego rozwiązywania sporów w drodze arbitrażu lub mediacji. Prezentacja na temat tego, jak zastosowanie AI może wpłynąć na oblicze polskiego sądownictwa. Prelegentami są sędziowie i pracownicy naukowi, którzy jednocześnie są członkami m.in. Grupy Roboczej ds. Sztucznej Inteligencji przy Ministerstwie Cyfryzacji, którzy uważają, że wymiar sprawiedliwości w Polsce powinien znaleźć się w epoce, w której żyją jej obywatele. Zaprezentowane zostaną rozwiązania oparte na AI, wykorzystane w sądownictwie państw takich jak Brazylia czy Chiny oraz analiza możliwości ich adaptacji w Polsce.

Na rynku dostępne są tysiące rozwiązań technologicznych, ale czasami przedsiębiorstwa zmagają się z wyzwaniami, na które rynek komercyjny nie zna jeszcze odpowiedzi. Z pomocą przychodzi świat nauki, którego fundamentem jest rozwiązywanie problemów, których jeszcze nikt nie rozwiązał. Niestety partnerzy często rozmawiają innym językiem i nie osiągają takich korzyści ze współpracy, jakie mogłyby uzyskać. Swoim doświadczeniem podzieli się praktyk, z doświadczeniem zarówno po biznesowej jak i naukowej stronie.

Zarządzanie dokumentami i rozproszoną wiedzą jest wyzwaniem dla wielu organizacji. Umowy, regulaminy, instrukcje, kontrakty, przepisy, wewnętrzne bazy wiedzy oraz liczne wersje dokumentów mogą powodować chaos informacyjny. Samo odnalezienie potrzebnych informacji może być trudne, nie wspominając o wyodrębnieniu istotnej wiedzy. Na szczęście z pomocą przychodzi RAG (Retrieval-Augmented Generation), który skutecznie odpowiada na te potrzeby.

Jak szybko i efektywnie połączyć fragmenty informacji pochodzące z różnych dokumentów w spójną i ustrukturyzowaną wiedzę? Jak przygotować zbiory danych, aby jakość generowanych przez modele LLM odpowiedzi była jak najwyższa? Jaką architekturę aplikacji należy wykorzystać, aby efektywnie zintegrować naszą firmę z AI?

W trakcie prezentacji omówione zostaną różne podejścia do zarządzania dokumentami w bazach wektorowych. Przedstawiona zostanie szczegółowa architekturę takich systemów, z uwzględnieniem kluczowych komponentów i sposobów działania. Na koniec zostaną zaprezentowane przykłady zastosowań, które pokażą, w jakich sytuacjach dane podejście jest najbardziej efektywne.

Platformy AI do generowania tekstu, obrazów i audio są dziś wykorzystywane przez miliony użytkowników, znajdując zastosowania w rozrywce, edukacji, nauce i komunikacji. Nieograniczone możliwości wynikające z coraz bardziej zaawansowanych narzędzi AI tworzą też nowe zagrożenia, takie jak deepfake’i. ElevenLabs buduje topowe narzędzia AI do generowania audio, głosów i AI dubbingu oraz rozwija systemy zabezpieczeń do moderacji, analizy pochodzenia audio i identyfikacji szkodliwych treści.

Dziennie na świecie powstaje ok. 329 mln TB danych, z czego 13% to dane z mediów społecznościowych. W zalewie treści mamy do czynienia i z tym wartościowymi, ale też szkodliwymi, jak np. rasizm, przemoc czy pułapki pedofili lub predatorów seksualnych. Przy tak dużej skali tworzonego contentu możliwości jego weryfikacji przez ludzi są ograniczone. Prezentacja na temat wykorzystania LLM do screeningu danych, zarówno tekstowych, graficznych, a nawet wideo, pod kątem niebezpiecznych treści. Case study z praktycznego wdrożenia – od wyzwań związanych z zasobami, po sztuczki używane, żeby skłonić niesforne modele, aby generowały ustrukturyzowane dane wyjściowe.

Wdrożenie AI nie musi oznaczać budowania produktu lub usługi od zera, ale może być też optymalizacją już istniejących rozwiązań z użyciem techniki zero-shot, która pozwala skrócenie czasu implementacji. Case study trzech wdrożeń modeli generatywnych w Allegro, które pozwoliły podnieść stopień automatyzacji kontaktów, skrócić czas oczekiwania na raport poniżej i wesprzeć trening istniejących modeli ML w organizacji.

Sztuczna inteligencja jest dzisiaj innowacją, tak jak każda nowinka technologiczna w początkowej fazie adaptacji. Sensacją była kiedyś podróż koleją, elektryczność, samochód, czy internet – dzisiaj są absolutną oczywistością. Czy wraz z rosnącą popularnością AI z czasem uzależnimy się od niej tak jak od elektryczności? Czy wdrażając dzisiaj rozwiązania sztucznej inteligencji zastanawiamy się jak zapewnić ciągłość procesów, w przypadku jej braku?