AI Act to nie przyszłość, to teraźniejszość biznesu
Z Barbarą Grubba, Prezes Zarządu AYP Sp. z o.o., rozmawiała Justyna Szymańska.
Coraz częściej mówi się o AI Act jako o „nowym RODO”. Czy firmy faktycznie mają się czego obawiać?
Największy problem polega na tym, że firmy nie wiedzą, że już dziś działają w obszarze regulowanym. AI Act obowiązuje i wprowadza podejście oparte na ryzyku: im większy wpływ systemu na ludzi, tym większe obowiązki. Tymczasem organizacje wykorzystują AI w rekrutacji, analizie danych, marketingu czy finansach, nie mając żadnej kontroli nad tym, jakie decyzje są w ten sposób wspierane lub podejmowane. I to jest realne ryzyko – nie technologia, tylko brak nadzoru.
Które obszary działalności są dziś najbardziej narażone?
Wszystkie, w których AI wpływa na decyzje biznesowe lub dotyczące ludzi. W praktyce to: HR – rekrutacja, preselekcja CV, ocena pracowników; finanse – scoring, analiza ryzyka, wykrywanie nadużyć; marketing – profilowanie, rekomendacje, chatboty; IT – systemy decyzyjne i automatyzacja procesów. Firmy popełniają jeden podstawowy błąd: patrzą na narzędzie, a nie na proces. A AI Act dotyczy właśnie tego, jakie decyzje są podejmowane z wykorzystaniem AI i kto za nie odpowiada.
Czy firmy są przygotowane na te zmiany?
Nie. W większości organizacji nie istnieje nawet lista systemów AI wykorzystywanych w firmie. Nie ma: inwentaryzacji narzędzi, oceny ryzyka, zasad korzystania z AI, nadzoru nad decyzjami. Firmy często myślą, że skoro mają RODO, to temat jest zamknięty. Tymczasem AI Act to nie jest regulacja o danych, gdyż jest to regulacja o odpowiedzialności za decyzje.
Gdzie firmy popełniają największy błąd?
Myślą, że odpowiedzialność leży po stronie dostawcy narzędzia. To nieprawda. Jeżeli firma korzysta z AI, nawet w modelu SaaS, to w większości przypadków jest tzw. „deployerem” i ponosi odpowiedzialność za sposób wykorzystania systemu. Drugi błąd: brak świadomości, że nawet proste narzędzia mogą wchodzić w obszar wysokiego ryzyka, jeśli wpływają na ludzi, np. decyzje rekrutacyjne czy finansowe.
Jak odpowiadają Państwo na tę lukę kompetencyjną?
Nie uczymy AI Act jako teorii. Pracujemy na procesach firmy: identyfikujemy, gdzie wykorzystywana jest AI; klasyfikujemy poziom ryzyka; wskazujemy konkretne obowiązki; pokazujemy, gdzie organizacja ponosi odpowiedzialność. To nie jest szkolenie, a początek budowy systemu zarządzania AI w firmie.
Czym różnią się Państwa programy od standardowych szkoleń?
Są dopasowane do realnych funkcji biznesowych. Mamy osobne ścieżki dla: HR – rekrutacja, zarządzanie pracownikami, ryzyko dyskryminacji; finansów – automatyzacja księgowości, analiza danych, odpowiedzialność zawodowa; marketingu – treści generowane przez AI, transparentność, compliance komunikacji; IT – governance, cykl życia systemu AI, dokumentacja i audyty. Nie mówimy „czym jest AI Act”, a pokazujemy, co dokładnie zmienić w organizacji.
Czy jedno szkolenie wystarczy, aby firma była zgodna z AI Act?
Nie. I to trzeba powiedzieć jasno. AI Act wymaga: systemowego podejścia do zarządzania ryzykiem, dokumentacji, procedur, nadzoru nad systemami AI, często także audytu. Szkolenie jest momentem, w którym firma pierwszy raz widzi skalę problemu.
Jakie podejście powinna dziś przyjąć firma?
Przestać traktować AI jako narzędzie, a zacząć traktować je jako obszar ryzyka i odpowiedzialności. Firmy, które zrobią to teraz: zyskają kontrolę, ograniczą ryzyko prawne, uporządkują procesy. Firmy, które tego nie zrobią, będą działały reaktywnie, czyli dopiero wtedy, gdy pojawi się problem.
materiał partnera