Sztuczna inteligencja weszła do firm tylnymi drzwiami. Pracownicy korzystają z ChatGPT, Claude, Gemini — często bez wiedzy przełożonych, wklejając w promptach dane klientów, fragmenty umów czy wewnętrzne raporty finansowe. Brak polityki AI w firmie to nie kwestia innowacyjności — to realne ryzyko prawne i wizerunkowe. W tym artykule pokazujemy, jak stworzyć wewnętrzną politykę korzystania z AI, która chroni firmę, spełnia wymogi RODO i jednocześnie nie blokuje rozwoju.
Dlaczego każda firma potrzebuje polityki AI
Badania pokazują, że ponad 70% pracowników biurowych korzysta z narzędzi AI w pracy, ale tylko ułamek firm ma jakiekolwiek zasady regulujące to użycie. To tworzy sytuację, w której:
- Dane osobowe klientów trafiają do zewnętrznych modeli AI bez podstawy prawnej
- Poufne informacje biznesowe (strategie, dane finansowe, kod źródłowy) są przetwarzane przez serwery zagranicznych firm
- Nikt nie kontroluje, jakie dane wychodzą z organizacji
- W razie wycieku firma nie jest w stanie nawet zidentyfikować, co zostało ujawnione
Polityka AI to nie biurokratyczny dokument — to praktyczny zbiór zasad, który mówi pracownikom: "z tego możesz korzystać, w ten sposób, a tego nie rób".
Klasyfikacja danych — co może trafić do AI, a co nie
Pierwszym krokiem jest kategoryzacja danych firmowych pod kątem wrażliwości. Proponujemy trzy poziomy:
Poziom zielony — dane publiczne
Informacje, które i tak są dostępne publicznie lub nie mają wartości biznesowej:
- Treści ze strony internetowej firmy
- Ogólna wiedza branżowa
- Publicznie dostępne regulaminy i cenniki
- Pytania o technologie i narzędzia open source
Te dane można swobodnie wprowadzać do narzędzi AI.
Poziom żółty — dane wewnętrzne
Informacje, które nie są tajne, ale nie powinny wychodzić poza firmę bez kontroli:
- Wewnętrzne procedury i procesy
- Anonimizowane statystyki sprzedażowe
- Ogólne opisy projektów (bez danych klientów)
- Szablony dokumentów
Te dane można używać w narzędziach AI z planem Enterprise (bez trenowania na danych użytkownika), po usunięciu identyfikujących szczegółów.
Poziom czerwony — dane zastrzeżone
Informacje, których nigdy nie wolno wprowadzać do zewnętrznych narzędzi AI:
- Dane osobowe klientów i pracowników (imiona, nazwiska, PESEL, adresy)
- Dane finansowe (numery kont, wynagrodzenia, szczegóły faktur z danymi kontrahentów)
- Kod źródłowy produktów komercyjnych
- Umowy i dokumenty prawne
- Dane medyczne, kadrowe, dyscyplinarne
- Hasła, klucze API, tokeny dostępu
Ta klasyfikacja powinna być częścią szkolenia onboardingowego i dostępna jako prosty, jednostronicowy dokument.
RODO i EU AI Act a narzędzia AI
Rozporządzenie o Ochronie Danych Osobowych (RODO) ma bezpośredni wpływ na korzystanie z AI w firmie. Dodatkowo, od 2 sierpnia 2026 roku zaczynają obowiązywać kluczowe przepisy unijnego rozporządzenia o sztucznej inteligencji (EU AI Act), które nakładają nowe obowiązki na firmy korzystające z systemów AI. Kluczowe kwestie:
Podstawa prawna przetwarzania
Wklejenie danych osobowych klienta do ChatGPT to przetwarzanie danych osobowych. Wymaga podstawy prawnej — a "bo było wygodniej" nią nie jest. Jeśli firma chce używać AI do analizy danych klientów, potrzebuje:
- Zgody osoby, której dane dotyczą (trudne w praktyce)
- Uzasadnionego interesu administratora (wymaga testu równowagi)
- Umowy powierzenia przetwarzania danych z dostawcą AI
Umowa powierzenia przetwarzania (DPA)
Dostawcy enterprise'owych wersji narzędzi AI (OpenAI, Anthropic, Google) oferują umowy DPA zgodne z RODO. Darmowe wersje tych narzędzi zazwyczaj nie zapewniają takiej ochrony. To fundamentalna różnica:
- Plan darmowy/osobisty: dane mogą być wykorzystywane do trenowania modeli, brak DPA, brak gwarancji lokalizacji danych
- Plan Enterprise/Business: dane nie są używane do treningu, DPA dostępne, logi audytowe, SSO, kontrola uprawnień
Jeśli firma przetwarza dane osobowe klientów z UE, korzystanie z darmowych wersji narzędzi AI do tych danych jest praktycznie niemożliwe do pogodzenia z RODO.
Prawo do bycia zapomnianym
Jeśli dane osobowe trafią do modelu AI (szczególnie w wersji, która trenuje na danych), usunięcie ich może być technicznie niemożliwe. To poważne ryzyko w kontekście prawa do usunięcia danych z art. 17 RODO.
EU AI Act — nowe obowiązki od sierpnia 2026
Unijne rozporządzenie o sztucznej inteligencji (EU AI Act) wprowadza obowiązki zależne od poziomu ryzyka systemu AI:
- Zakazane praktyki AI (obowiązują od lutego 2025) — np. systemy punktacji społecznej, manipulacja podprogowa, wykorzystywanie słabości osób
- Systemy AI wysokiego ryzyka (od 2 sierpnia 2026) — systemy używane m.in. w rekrutacji, ocenie kredytowej, edukacji czy zarządzaniu infrastrukturą krytyczną wymagają oceny zgodności, dokumentacji technicznej i rejestracji w unijnej bazie danych
- Obowiązki przejrzystości (od 2 sierpnia 2026) — użytkownicy muszą być informowani, gdy wchodzą w interakcję z systemem AI (np. chatbotem)
- Kary — do 35 mln EUR lub 7% globalnego obrotu za naruszenie zakazanych praktyk
Każda firma powinna do sierpnia 2026 sklasyfikować swoje systemy AI pod kątem kategorii ryzyka i ocenić, czy podlegają obowiązkom EU AI Act. To powinno być częścią polityki AI w firmie.
Plany Enterprise vs darmowe — co się różni
Warto jasno zakomunikować pracownikom różnicę między darmowym a firmowym dostępem do AI:
Darmowe/osobiste konta:
- Dane domyślnie mogą być wykorzystywane do trenowania modelu (np. Anthropic od września 2025 domyślnie trenuje na danych użytkowników planów Free, Pro i Max — z możliwością rezygnacji)
- OpenAI również domyślnie wykorzystuje dane z darmowych kont do treningu
- Brak umowy powierzenia przetwarzania
- Brak logów i audytu
- Brak kontroli przez administratora IT
- Dane przetwarzane na serwerach poza UE (zazwyczaj USA)
Plany firmowe/Enterprise:
- Dane nie są używane do trenowania modeli (gwarantowane umową — dotyczy m.in. ChatGPT Enterprise, Claude for Work/Team, API obu dostawców)
- DPA zgodne z RODO
- Logi użycia i audyt
- SSO i zarządzanie dostępem
- Opcje lokalizacji danych (niektórzy dostawcy oferują serwery w UE)
- Dedykowany support i SLA
Inwestycja w plan Enterprise to nie koszt — to fundament bezpiecznego korzystania z AI w firmie.
Jak napisać wewnętrzną politykę AI
Dobra polityka AI jest krótka, konkretna i napisana językiem zrozumiałym dla każdego pracownika. Powinna zawierać:
Zakres i cel
- Kogo dotyczy (wszyscy pracownicy, współpracownicy, stażyści)
- Jakie narzędzia obejmuje (ChatGPT, Claude, Gemini, Midjourney, lokalne modele)
- Dlaczego firma wprowadza politykę
Dozwolone użycia
- Lista zatwierdzonych narzędzi AI i ich wersji (np. "Claude Enterprise przez firmowe konto")
- Scenariusze, w których AI może być używane (pisanie maili, analiza danych publicznych, generowanie kodu)
- Wymagania dotyczące weryfikacji wyników AI przez człowieka
Zabronione działania
- Wprowadzanie danych osobowych do niezatwierdzonych narzędzi
- Korzystanie z prywatnych kont AI do zadań służbowych
- Publikowanie treści wygenerowanych przez AI bez weryfikacji
- Używanie AI do podejmowania decyzji kadrowych bez nadzoru ludzkiego
Procedura zgłaszania incydentów
- Co robić, gdy ktoś przypadkiem wklei dane osobowe do AI
- Kogo powiadomić (IOD, przełożony, IT)
- Dokumentowanie incydentu
Odpowiedzialność
- Pracownik ponosi odpowiedzialność za dane, które wprowadza do AI
- Firma zapewnia szkolenia i narzędzia do bezpiecznego korzystania
Szkolenie pracowników
Polityka bez szkolenia to martwy dokument. Skuteczne szkolenie z bezpiecznego korzystania z AI powinno obejmować:
- Praktyczne warsztaty — nie prezentacje, a ćwiczenia na realnych scenariuszach
- Przykłady dobrych i złych promptów — co jest bezpieczne, a co narusza politykę
- Anonimizacja danych — jak usunąć dane osobowe przed wklejeniem do AI
- Weryfikacja wyników — AI halucynuje, podaje nieprawdziwe informacje, wymyśla źródła
- Regularne przypomnienia — nie jednorazowe szkolenie, ale cykliczne aktualizacje
Szkolenie powinno być obowiązkowe dla nowych pracowników i odświeżane co najmniej raz w roku.
Monitoring i zgodność
Wdrożenie polityki to dopiero początek. Potrzebny jest monitoring:
- Logi użycia — plany Enterprise oferują panel administracyjny z historią zapytań
- Regularne audyty — kwartalne przeglądy zgodności z polityką
- Aktualizacja polityki — technologia AI zmienia się szybko, polityka musi nadążać (szczególnie w kontekście EU AI Act, którego kolejne przepisy wchodzą w życie w 2026)
- Zbieranie feedbacku — pracownicy mogą wskazać luki w polityce lub nieżyciowe zasady
- Metryki — ile osób korzysta z AI, do jakich zadań, z jaką skutecznością
Najczęstsze błędy
Całkowity zakaz korzystania z AI
Firmowy ban na AI nie działa. Pracownicy i tak będą korzystać — tylko na prywatnych kontach, na prywatnych telefonach, bez żadnej kontroli. Zamiast zabraniać, lepiej dać bezpieczne narzędzia i jasne zasady.
Brak jakiejkolwiek polityki
Przeciwna skrajność — ignorowanie tematu. "U nas nikt nie korzysta z AI" to w 2026 roku stwierdzenie, które nie wytrzymuje konfrontacji z rzeczywistością. Brak polityki oznacza brak kontroli.
Polityka oderwana od rzeczywistości
Dokument napisany przez prawnika, który nigdy nie używał ChatGPT, będzie zbyt restrykcyjny lub zbyt ogólnikowy. Politykę AI powinien współtworzyć zespół: prawnik, IOD, IT i przedstawiciele działów, które faktycznie używają AI.
Jednorazowe wdrożenie
Polityka AI to żywy dokument. Nowe narzędzia, nowe regulacje, nowe zagrożenia — wymaga regularnych aktualizacji. Ustal harmonogram przeglądów (np. co kwartał).
Podsumowanie
Wdrożenie polityki AI w firmie to zadanie, które łączy prawo, technologię i kulturę organizacyjną. Nie musi być skomplikowane — wystarczy klasyfikacja danych, wybór zatwierdzonych narzędzi z planami Enterprise, jasne zasady dla pracowników i regularne szkolenia. Firmy, które zrobią to teraz, unikną problemów z RODO, wyciekami danych i chaosem organizacyjnym, który pojawia się, gdy AI jest używane bez kontroli.
Potrzebujesz pomocy przy wdrożeniu polityki AI i bezpiecznych narzędzi w swojej firmie? Pomagamy od audytu, przez napisanie polityki, po szkolenia pracowników.



