Provider
Tworzy lub zleca stworzenie systemu AI i wprowadza go na rynek pod własną marką.
Najszerszy zakres obowiązków i dokumentacji.
We help implement AI in line with regulations to protect the business, management board, and product growth pace.
Najpierw ustalamy, czy organizacja jest providerem, deployerem, importerem/dystrybutorem czy fine-tunerem, a dopiero potem dobieramy właściwy model wdrożenia.
AI Act działa eksterytorialnie: jeśli system AI działa na rynku UE albo jego output jest wykorzystywany w UE, regulacja może mieć zastosowanie niezależnie od kraju siedziby podmiotu.
Tworzy lub zleca stworzenie systemu AI i wprowadza go na rynek pod własną marką.
Najszerszy zakres obowiązków i dokumentacji.
Używa systemu AI w działalności zawodowej i odpowiada za sposób operacyjnego wykorzystania.
Kluczowe: nadzór ludzki, monitoring, FRIA w wymaganych przypadkach.
Wprowadza do UE systemy AI spoza Unii albo dalej je dystrybuuje.
Wymaga kontroli łańcucha dostaw i dokumentacji producenta.
Dostosowuje model foundation do konkretnego zastosowania biznesowego.
W praktyce może przejąć status providera nowego systemu.
Profilowanie w Annex III = zawsze high-risk. System AI z Annex III, który profiluje osoby fizyczne, nie korzysta z wyjątku z art. 6 ust. 3.
Praktyki niedopuszczalne (np. social scoring, manipulacja podprogowa, część zastosowań biometrii).
Konsekwencja: natychmiastowe wycofanie i najwyższa ekspozycja sankcyjna.
Systemy wpływające na prawa podstawowe, bezpieczeństwo lub istotne decyzje o osobach.
Konsekwencja: pełny pakiet wymogów z art. 8-17 i ocena zgodności.
Chatboty, deepfake, systemy generatywne i inne obszary transparentności.
Konsekwencja: obowiązki informacyjne i oznaczanie treści AI.
Brak dedykowanych obowiązków sektorowych poza AI literacy i dobrymi praktykami governance.
Konsekwencja: proporcjonalny model kontroli i szkolenia użytkowników.
Stan prawny/materiał: 19 lutego 2026 r.
Klasyfikacja decyduje o budżecie, tempie wdrożenia i poziomie odpowiedzialności organizacji. Największy koszt to błędna kwalifikacja systemu.
Wykrywamy praktyki, które trzeba wyłączyć z użycia, aby nie wejść w obszar bezpośredniego naruszenia art. 5.
Mapujemy system do wymogów art. 8-17, including conformity assessment, logowanie, nadzór ludzki i kontrolę jakości.
Projektujemy transparentność dla chatbotów, treści syntetycznych i interfejsów, które oddziałują na użytkownika.
Budujemy lekkie governance: AI register, zasady użycia i mechanizm zgłaszania incydentów/shadow AI.
Użytkownik musi wiedzieć, że komunikuje się z AI.
Treści wymagają czytelnego oznaczenia i zasad publikacji.
Dla treści generatywnych przygotowujemy techniczne i operacyjne standardy oznaczania.
Pracujemy na pełnej sekwencji etapów 0-9. Każdy etap kończy się konkretnym artefaktem, który można pokazać regulatorowi, audytorowi i zarządowi.
AI Inventory + Karta kwalifikacyjna organizacji
Legal Classification Memo + Risk Categorisation Matrix + GPAI Status Report
High-Risk Compliance Pack + EU Declaration ścieżka
GPAI Compliance Pack
Transparency Notice Pack + Watermarking Specification
AI Governance Framework + FRIA Report
Regulatory Alignment Matrix + Cross-Compliance Roadmap
AI Literacy Program + rejestr szkoleń + certyfikaty
Post-Market Monitoring Plan + Incident Reporting Procedure
Annual AI Audit Report + Compliance Evidence Pack
W planowaniu budżetu i priorytetów liczą się konkretne daty. Poniżej punkty, które najczęściej determinują kolejność projektu wdrożeniowego.
Start zakazu praktyk niedopuszczalnych (art. 5) oraz obowiązku AI literacy (art. 4).
Wejście obowiązków dla dostawców GPAI i uruchomienie mechanizmów nadzorczych.
Kluczowy deadline: szeroki zakres obowiązków dla high-risk i transparentności oraz pełniejszy enforcement.
Dalsze obowiązki dla systemów high-risk z Annex I i domknięcie przejściowych reżimów GPAI.
Granica czasowa dla wybranych wielkoskalowych systemów z Annex X.
Stan prawny/materiał: 19 lutego 2026 r.
Jedno wdrożenie cross-regulatory jest tańsze i bezpieczniejsze niż prowadzenie równoległych silosów compliance.
Łączymy AI Risk Assessment z DPIA, profilowaniem i art. 22 RODO, aby uniknąć rozjazdu między privacy a AI governance.
Wpinamy systemy AI do ICT risk management, testów odporności i planów ciągłości operacyjnej.
Synchronizujemy cyberbezpieczeństwo, zarządzanie łańcuchem dostaw oraz raportowanie incydentów.
Dla fintechów klasyfikujemy AI w procesach scoringu, AML/KYC i fraud detection jako potencjalnie high-risk.
Porządkujemy wymagania cyber produktu i transparentności algorytmów w kanałach platformowych.
Skuteczne wdrożenie AI Act wymaga stałej struktury decyzyjnej, polityk operacyjnych i matrycy kompetencji dla całej organizacji.
Jeśli masz już polityki, dopinamy je do jednego modelu operacyjnego i porządkujemy dowody zgodności pod kontrolę regulatora.
Umów kwalifikację projektuPodczas pierwszej rozmowy kwalifikujemy etap projektu: diagnoza, wdrożenie high-risk albo utrzymanie zgodności po uruchomieniu systemu.