Dzień pierwszy | 14 października 2025
ONSITE (Centrum Konferencyjne Legii Warszawa)
Formula 1 has always been a battle of engineering. Now it’s a battle of intelligence. As AI reshapes industries, F1 is emerging as the ultimate proving ground for real-time, high-stakes machine learning. This talk offers an inside look at how AI can be deployed to turn data into insight and insight into lap time - faster than ever before.
*Prezentacja w języku angielskim, organizatorzy nie zapewniają tłumaczenia.
Sztuczna inteligencja wchodzi na kolejne poziomy rozwoju: poprzez optymalizację lub automatyzacje coraz bardziej skomplikowanych procesów, po rozwój agentów AI. Agenci AI, czyli systemy sztucznej inteligencji łączące różne narzędzia, wchodzące w interakcję z otoczeniem i… podejmujące decyzje. To ostatni bastion ludzkiej przewagi nad maszynami: podejmowanie decyzji. Jak agenci AI, którzy mogą pełnić funkcje kontrolne i nadzorcze, a także podejmować obiektywne decyzje, zmienią strukturę i modele biznesowe organizacji? Jakie ryzyka wiążą się z agentami AI? I czy ta rewolucja naprawdę będzie miała miejsce?
Podejmując decyzję o wdrożeniu rozwiązań sztucznej inteligencji duże przedsiębiorstwa stają przed dylematem: czy warto zainwestować w start-up AI na początkowym etapie rozwoju zamiast rozwijać daną funkcjonalność/kompetencję in-house? Analiza na podstawie baz danych o inwestycjach w start-upy, materiałów prasowych i własnych obserwacji rynkowych (rozmowy z head of AI dużych korporacji). Przedstawione zostaną wnioski: w jakich branżach korporacje najczęściej inwestują w start-upy AI, jak wyglądają trendy odnośnie wielkości inwestycji, jakie kompetencje AI duże organizacje najchętniej „insourcują”. Dane zostaną przedstawione w podziale na kilka rynków geograficznych (np. Polska, DACH, Skandynawia). Zaprezentowane zostaną zarówno historie sukcesów jak i nietrafionych inwestycji.
Podejście agentowe posiada swoje ogranicznie, dlatego warto myśleć o złożonych systemach korzystających z GenAI w inny sposób. Uczestnicy dowiedzą się jak wykorzystywać abstrakcje takie jak workflow, do wstrzykiwania do systemów korzystających z AI wiedzy domenowej, jak odkrywać nowe procesy w organizacji z wykorzystaniem AI i jak pół-automatyzować je w sytuacjach, gdy nie są one w pełni statyczne. Omówione zostaną sprawdzone w XTBs sposoby angażowania ekspertów domenowych i usamodzielnania ich w pracy nad automatyzacją z wykorzystaniem znajomości LLM-ów.
Omówienie w jaki sposób Akt o Usługach Cyfrowych (DSA) i Akt o Sztucznej Inteligencji (AI Act) wspólnie tworzą kompleksowy system regulacji dla wykorzystania AI na platformach internetowych. Przedstawione zostaną komplementarne role obu unijnych aktów – DSA jako narzędzie zapewniające odpowiedzialność i przejrzystość platform, oraz AI Act jako akt regulujący konkretne ryzyka związane z systemami AI. W prezentacji poruszony zostanie temat praktycznych wymogów dla platform w zakresie należytej staranności, transparentności algorytmicznej czy klasyfikacji systemów wysokiego ryzyka oraz wpływu regulacji na innowacje i prawa użytkowników.
Kluczową umiejętnością śledczego jest analiza faktów: znajdowania powiązań, analogii i odbiegających od normy szczegółów. Na filmach często widzimy dokumenty i zdjęcia połączone przez detektywów czerwoną włóczką (tzw. murder board), co ma na celu ułatwienie wyciągnięcia wniosków. Networks Notebook to narzędzie, które powstało z inspiracji tym systemem. Wspiera analizę danych śledczych z wykorzystaniem grafów wiedzy i generatywnej AI. Łączy precyzję zapytań grafowych z interpretacyjną mocą modeli językowych, umożliwiając wykrywanie wzorców i formułowanie hipotez. System automatycznie przekształca dane tekstowe i wizualne w spójny graf, który można eksplorować w języku naturalnym. Działanie Networks Notebook zostanie przedstawione na przykładzie analizy powieści kryminalnej oraz zastosowania w pracy dziennikarskiej. System jest wykorzystywany do wsparcia pracy dziennikarzy śledczych w Ringier Axel Springer Polska.
Case study wdrożenia Asystenta AI - narzędzia AI dla wszystkich pracowników PZU. Historia od małoskalowych eksperymentów, poprzez zaawansowany pilotaż dla 1000 osób, po produkcyjne wdrożenie dla 12,5 tys. pracowników. Kluczowym aspektem prezentacji jest “ludzka strona zmiany”, tj. budowa świadomości, identyfikacja potrzeb oraz edukacja i wspieranie rozwoju kompetencji w codziennym używaniu GenAI w pracy.
Dane treningowe stanowią bardzo ważny element w kontekście trenowania modeli/systemów sztucznej inteligencji. W art. 10 (2) AI Act wskazano, że zbiory danych treningowych, walidacyjnych i testowych podlegają praktykom w zakresie zarządzania danymi stosownym do przeznaczenia danego systemu AI wysokiego ryzyka. Prezentacja będzie dotyczyła potencjalnych ryzyk prawnych związanych z danymi treningowymi, w tym w szczególności z danymi syntetycznymi.
Usprawnienie pracy analityków hurtowni danych w spółce Skarbu Państwa dzięki inicjatywie opartej na zaangażowaniu zespołu i eksploracji sztucznej inteligencji (w tym polskiego modelu językowego Bielik). Prezentacja obejmuje przede wszystkim rozwiązywanie problemów w procesie zarządzania zmianą, które były zgłaszane w rozmowach z analitykami i deweloperami ETL. Pokazany zostanie krok po kroku proces zmiany: jak wdrożone innowacje przyniosły poprawę efektywności i otworzyły nowe, nieprzewidziane możliwości wykorzystania AI w organizacji, inspirując do dalszej transformacji cyfrowej.
Podróż związana z wdrażaniem generatywnej sztucznej inteligencji, która rewolucjonizuje globalne strategie marketingowe w skali przedsiębiorstwa. Rzeczywiste przypadki użycia, takie jak: diagnostyka oparta na sztucznej inteligencji, precyzyjne planowanie mediów, zautomatyzowane generowanie wniosków i dynamiczne monitorowanie efektywności marki. Słuchacze dowiedzą się, jak poradzić sobie z zarówno z krytycznymi wyzwaniami technicznymi (m.in. przygotowanie danych, luka w umiejętnościach i dotrzymywanie kroku szybko rozwijającemu się ekosystemowi AI) oraz wyzwaniami biznesowymi (m.in. zarządzanie zmianami organizacyjnymi, zapewnienie płynnego przyjęcia AI i dostosowanie interesariuszy w zespołach globalnych).
Dziesięcioletnia historia projektu Migam AI – systemu tłumaczenia języka migowego w czasie rzeczywistym, który wykorzystuje awatara 3D i technologię AI do przełamywania barier komunikacyjnych między osobami słyszącymi a społecznością Głuchych. Od prototypów, przez porażki, aż po pierwsze skuteczne wdrożenia i awatara, który tłumaczy tekst i dźwięk na język migowy z 97% skutecznością i integruje się z platformami jak Zoom czy Microsoft Teams.
Prezentacja kluczowych zasad odpowiedzialnego wykorzystania generatywnej sztucznej inteligencji (GenAI) w administracji publicznej z naciskiem na przewodnią rolę człowieka. Przedstawienie praktycznego podejścia do wdrażania AI w urzędzie, które wspiera zarówno pracowników w ich codziennych zadaniach, jak i zachowuje dostęp mieszkańców do bezpośredniego kontaktu z urzędnikami. Uczestnicy poznają konkretne przykłady zastosowań AI, które zwiększają efektywność pracy przy jednoczesnym utrzymaniu ludzkiego wymiaru usług publicznych oraz mechanizmy zapewniające, że technologia nie zastępuje, ale wzmacnia relacje między administracją a obywatelami.
To element agendy konferencji angażujący wszystkich uczestników.
Sesja dyskusji przy okrągłych stołach ma kilka celów. Po pierwsze, pozwala na bezpośrednią wymianę opinii i doświadczeń w ramach konkretnego zagadnienia, interesującego daną grupę uczestników. Po drugie, możliwość spotkania i rozmowy z prowadzącym dane roundtable – zapraszamy bowiem do ich prowadzenia osoby o dużej wiedzy i doświadczeniu. Sesja roundtables to bardzo szerokie spektrum tematów i bogate grono wybitnych osobowości ze świata sztucznej inteligencji w roli prowadzących – tak, aby każdy uczestnik konferencji mógł znaleźć interesującą go najbardziej dyskusję i poznać w ten sposób innych uczestników zainteresowanych tą samą tematyką.
Przejście od pracy manualnej do wykorzystania maszyn wymagało od pracowników epoki przemysłowej nauki ich obsługi. A jak wygląda przyszłość pracy ze sztuczną inteligencją? Już dzisiaj coraz więcej osób komunikuje się z czatami lub asystentami, które są obsługiwane przez duże modele językowe, prowadząc „konwersacje” bez udziału drugiego człowieka. Jakie wyzwania stawia przed nami współpraca z robotami humainodalnymi, urządzeniami o coraz większym zakresie autonomiczności, a także nadzorowanie przez AI pracy ludzi? Kto będzie odpowiedzialny za błędy, czy ludzie powinni w 100% ufać systemom AI i robotom, czy rozwój technologii wymusi na nas zmianę myślenia o zarządzaniu organizacjami? Czy jesteśmy gotowi na takie zmiany?
Większość wdrożeń koncentruje się na technicznej stronie: dane, infrastruktura IT, trenowanie modelu, koszty wdrożenia i utrzymania. Tymczasem wdrożenie AI zmaga się z podobnymi problemami jak inne wdrożenia, tylko o większej intensywności: pracownicy potrzebują wiedzy, przeszkolenia, ale też rozwiania wątpliwości (np. czy AI doprowadzi do zwolnień). Niedostateczne zarządzanie zmianą prowadzi do mniej lub bardziej świadomego sabotowania projektów. Jak zmieniać kulturę organizacyjną, aby faktycznie AI przynosiło wartość organizacji?
Jakie są najlepsze praktyki wdrażania AI w usługach publicznych, np. w urzędach, służbie zdrowia czy edukacji? Gdzie sztuczna inteligencja może dać obywatelom największą wartość? A jakie wdrożenia niosą zbyt duże ryzyko w obszarze wolności?
Przygotowanie rozwiązania AI jest kosztownym i czasochłonnym procesem. Małe i średnie przedsiębiorstwa w znakomitej większości będą korzystać z gotowych rozwiązań, najczęściej w modelu SaaS. Ale co w przypadku dużych przedsiębiorstw? Czy bank albo duży operator logistyczny może uzyskać przewagę rynkową wykorzystując te same modele co konkurencja? Jak mądrze wybrać jakie rozwiązania należy wziąć „z pudełka”, a jakie „szyte na miarę”?
Sztuczna inteligencja stawia przed nami wyzwania, których nie znaliśmy w klasycznych systemach IT. Jak zapewnić przejrzystość, sprawiedliwość i odpowiedzialność algorytmów w sektorze publicznym i prywatnym? Kto powinien zajmować się etyką rozwiązań wdrażanych w organizacji?
Wygenerowana przez AI muzyka na platformach streamingowych, której „słuchają” boty (a platforma płaci wynagrodzenie za fałszywych słuchaczy), telefony od przełożonego, w których jego głosem zlecane jest zrobienie pilnego przelewu – to nie film science-fiction, to rzeczywistość, w której sztuczna inteligencja trafia w niepowołane ręce. Czy jesteśmy gotowi na zagrożenia płynące ze strony AI? Czy gotowi są prawodawcy, służby mundurowe, wywiadowcze i wojsko? Czy zaleje nas fala przestępczości z wykorzystaniem narzędzi AI, nad którą nie będziemy w stanie zapanować?
Z jednej strony: SnowFlake, OpenAI czy ElevenLabs to firmy stworzone lub współtworzone z dużym udziałem Polaków. Z drugiej: powstają jednak poza Polską, z niewielkim udziałem polskiego kapitału. Czyli mamy talenty technologiczne na światowym poziomie, ale nie tworzymy na tej podstawie biznesu. Czy Polska może stać się istotnym graczem w świecie AI? Czy AI może stać się tym, czym Skype był dla Estonii: znakiem rozpoznawczym i kołem zamachowym dla różnych projektów i gospodarki? Co zrobić, żeby to się udało w Polsce? Skąd powinien iść impuls rozwojowy: od państwa, czy z sektora prywatnego?
Dynamiczny rozwój różnego rodzaju systemów AI przekłada się na FOMO – Fear Of Missing Out, czyli poczucie, że trzeba wdrażać szybko. Kolejne wdrożenia pokazują, że rezultaty są bardzo różne: od świetnych, które pozwalają na optymalizację kosztową lub czasową procesu o kilkadziesiąt procent, po przeciętne, aż po takie, gdzie korzyści brak. Zasadne jest w takim razie pytanie: czy każda firma musi wdrażać i rozwijać narzędzi sztucznej inteligencji? Największa skala korzyści jest do uzyskania w dużych organizacjach, gdzie optymalizacja procesów nawet o kilka procent przekłada się na wielomilionowe oszczędności. A co z mniejszymi organizacjami? A może nie wszyscy potrzebują AI?
Wiele osób z branży technologicznej zarzuca unijnym regulatorom, że EU AI Act blokuje rozwój sztucznej inteligencji i powoduje, że zarówno USA, ale również Chiny rozwijają się w tym obszarze nieporównywalnie szybciej. Ale jest i głos przeciwny: tych, którzy uważają, że brak ograniczeń w rozwoju technologii to duże zagrożenie dla ludzkości i krok w stronę państwa totalitarnego. Gdzie znaleźć optymalny punkt pomiędzy zapewnieniem bezpieczeństwa i wolności obywatelskich, a potrzebą rozwoju technologii i biznesu?
W krajach niedemokratycznych systemy do zapewnienia bezpieczeństwa publicznego rozwijają się bardzo dobrze. Nikt nie przejmuje się prywatnością obywateli, państwo zbiera dane jakie chce i analizuje je w dowolny sposób. Przykładem może być chiński „social index” do profilowania obywateli. W krajach demokratycznych nakładamy na takie systemy ograniczenia – nie chcemy być inwigilowani. Ale musimy też odpowiadać na wyzwania związane z bezpieczeństwem: ataki terrorystyczne przeprowadzane przez niezrównoważone osoby, działania obcych wywiadów, napięta sytuacja geopolityczna, konflikty hybrydowe poniżej progu wojny kinetycznej – to wszystko już się dzieje. Czy da się zapewnić dzięki AI bezpieczeństwo, ale z poszanowaniem prywatności obywateli? W jaki sposób AI może zwalczać nowe zagrożenia? I czy AI może być źródłem takiej przewagi strategicznej, jaką w XX wieku była bomba atomowa?
Wraz z popularyzacją zastosowań dużych modeli językowych (LLM) ataki takie jak prompt injection pozwalają na niebezpieczne manipulowanie działaniem chatbotów, kradzież danych czy zniszczenie reputacji marki. Przykłady oraz eksperymenty pokazujące jak podatne są współczesne modele AI na takie zagrożenia oraz jakie konsekwencje mogą ponieść firmy lekceważące to ryzyko. Omówione zostaną też praktyczne metody zabezpieczeń, dzięki którym narzędzia AI mogą być skutecznie zabezpieczone przed atakami innych modeli AI. Uczestnicy dowiedzą się, jak skutecznie chronić kluczowe systemy przed manipulacją i zapewnić bezpieczeństwo w erze sztucznej inteligencji.
Kluczowym czynnikiem sukcesu w zarządzaniu danymi jest utrzymanie dobrej jakości katalogu danych. Jest to czasochłonne zadanie, które nie tylko obciąża osoby zarządzające danymi, ale też utrudnia ich zrozumienie. Prezentacja na temat skutecznego rozwiązania wykorzystującego agentów AI do automatyzacji i ulepszania dokumentacji danych dla katalogu danych, bezpośrednio odpowiadając na zapotrzebowanie na praktyczne i wpływowe aplikacje AI. Przedstawione zostanie w jaki sposób agenci inteligentnie pozyskują metadane, wzbogacają je o wykorzystujące sztuczną inteligencję spostrzeżenia dotyczące opisów i egzekwują przestrzeganie standardów dokumentacji danych. Na praktycznych przykładach, również dzięki integracji z wewnętrznymi platformami, pokazane zostanie, w jaki sposób to podejście usprawnia katalogowanie danych, poprawia ich wykrywalność i ułatwia organizacji lepiej zrozumieć dane, zapewnić zgodność, i finalnie pozwala czerpać korzyści płynące ze sztucznej inteligencji w zarządzaniu danymi.
Jeszcze dekadę temu startupy warte miliard dolarów budowały kilkusetosobowe zespoły. Dziś? Widzimy firmy, które osiągają 100 milionów dolarów przychodu rocznie... mając zaledwie 15, 30, a czasem tylko 3 osoby! Dzięki sztucznej inteligencji każdy proces – od sprzedaży, przez marketing, po obsługę klienta – może zostać zautomatyzowany. Zespoły nie muszą już rosnąć, by skalować się. Mogą być zwinne, lekkie i szybkie. Takie firmy już istnieją: ElevenLabs, Lovable, Curser, Meror... A to dopiero początek. Podczas prezentacji zostanie omówione w jaki sposób działają tego typu firmy i omówienie kolejnej fali: hiper-jednorożców, czyli startupów osiągających miliardową wycenę w zaledwie 6 miesięcy od startu.
Przykłady firm, które wprowadziły programy przekwalifikowania na stanowiska data scientists. Programy są tworzone dla osób posiadających różnorodne wykształcenie, w tym humanistyczne i średnie. Jest to potwierdzeniem tezy, że rola data scientist jest wielowymiarowa. może sprawiać, że Dzięki temu nawet osoby o nietypowym wykształceniu, ale o silnie rozwiniętych umiejętnościach analitycznych oraz umiejętności dokonywania syntezy przeanalizowanego materiału, po przeszkoleniu mogą być bardzo dobrymi kandydatami na to stanowisko. To atrakcyjna alternatywa dla firm w stosunku do droższych kandydatów z rynku. Uczestnicy dowiedzą się jakich cechy warto poszukiwać u kandydatów i w jakich grupach można je znaleźć.
According to McKinsey & Company even 4,4 trillion USD of potential global productivity can be delivered thanks to AI. Many of enterprises would like to get a bit from this huge amount. If managers would like not to be dissapointed by results of the implementation they should invest not only in technology but also in workforce skills. Nowaday there is a gap between expectations and readiness of employees. A data-driven analysis of the critical gap in AI workforce readiness and practical recommendations how build a bridge overt it.
*Prezentacja w języku angielskim, organizatorzy nie zapewniają tłumaczenia.
Pobieranie biorgamu... Proszę czekać...

Dzień drugi | 15 października 2025
ONLINE (Platforma Zoom)