Dziennie na świecie powstaje ok. 329 mln TB danych, z czego 13% to dane z mediów społecznościowych. W zalewie treści mamy do czynienia i z tym wartościowymi, ale też szkodliwymi, jak np. rasizm, przemoc czy pułapki pedofili lub predatorów seksualnych. Przy tak dużej skali tworzonego contentu możliwości jego weryfikacji przez ludzi są ograniczone. Prezentacja na temat wykorzystania LLM do screeningu danych, zarówno tekstowych, graficznych, a nawet wideo, pod kątem niebezpiecznych treści. Case study z praktycznego wdrożenia – od wyzwań związanych z zasobami, po sztuczki używane, żeby skłonić niesforne modele, aby generowały ustrukturyzowane dane wyjściowe.