Po co w ogóle AI w kontroli jakości i skąd się biorą „znikające odrzuty”
Typowy obraz w wielu fabrykach: część linii zautomatyzowana niemal w 100%, a kontrola jakości nadal opiera się na zmęczonym wzroku ludzi. W efekcie pojawiają się odrzuty, reklamacje od klientów, dyskusje między produkcją a jakością i poczucie, że „przecież da się to zrobić lepiej”. Systemy wizyjne z AI obiecują odrzuty, które znikają – ale żeby rzeczywiście zniknęły, najpierw trzeba dobrze zrozumieć, gdzie te straty powstają.
Główne źródła bólu: odrzuty, reklamacje, przestoje
Największe koszty w obszarze jakości rzadko wynikają z jednego wielkiego błędu. Częściej są to drobne, powtarzające się problemy:
- odrzuty wewnętrzne, które „zjadają” marżę,
- reklamacje klientów, które uderzają w reputację i powodują dodatkowe koszty logistyczne,
- przestoje linii spowodowane ręczną kontrolą i dodatkowymi przezbrojeniami,
- nierównomierna jakość kontroli między zmianami i operatorami,
- brak danych – nie wiadomo dokładnie, gdzie jakość się psuje i jak często.
Ręczna kontrola jakości ma naturalne ograniczenia: zmęczenie, rutyna, różne interpretacje norm, presja czasu przy szybkiej linii. Klasyczne systemy wizyjne bez AI pomagają, ale tylko tam, gdzie produkt jest bardzo powtarzalny, a defekt da się zdefiniować prostą regułą: długość, kolor, obecność/nieobecność elementu.
Dlaczego klasyczna wizja maszynowa często nie wystarcza
Tradycyjny system wizyjny działa według reguł stworzonych przez inżyniera: progi jasności, krawędzie, wymiary, dopasowanie do wzorca. Sprawdza się to dobrze w zadaniach typu: zmierz średnicę, policz sztuki, sprawdź obecność etykiety. Problemy zaczynają się, gdy produkt „żyje”: ma naturalne różnice, jak drewno, odlew, zgrzew, spoina czy powierzchnia lakiernicza.
Klasyczny system wizyjny ma kłopot z:
- defektami o nieregularnych kształtach (pęknięcia, odpryski, wżery),
- zmiennym oświetleniem, refleksami, różnymi odcieniami materiału,
- wieloma wariantami produktu (różne kolory, wzory, tłoczenia),
- „subtelnymi” defektami, które człowiek widzi jako nienaturalne, ale trudno je opisać w kilku regułach.
W efekcie pojawiają się dwa zjawiska: fałszywe odrzuty (system wyrzuca poprawne sztuki) albo przepuszczone defekty (system nie zauważa problemu). Przy większej zmienności produktu inżynierowie spędzają godziny na „kręceniu progami” i modyfikowaniu algorytmów, a i tak efekt jest niestabilny.
Gdzie system wizyjny z AI robi realną różnicę
Modele AI, szczególnie oparte o deep learning, nie opierają się na sztywnych regułach. Uczą się na przykładach – tak jak nowy pracownik jakości, który po obejrzeniu kilkuset dobrych i złych sztuk zaczyna „wyczuwać”, co jest akceptowalne. To powoduje, że takie systemy radzą sobie tam, gdzie klasyczna wizja się poddaje:
- Zmienne powierzchnie – odlewy, spoiny, tkaniny, drewno, powierzchnie malowane i lakiernicze.
- Defekty nieregularne – rysy, wżery, porowatość, odpryski, wtrącenia, brud o różnych kształtach.
- Wiele wariantów produktu – różne kolory, wzory, drobne różnice geometrii przy tym samym standardzie jakości.
- Nowe typy defektów – system można douczyć na nowych przykładach bez pisania nowych reguł od zera.
„Znikające odrzuty” biorą się nie z magii, ale z lepszego rozróżniania defektów krytycznych od kosmetycznych. AI potrafi bardziej konsekwentnie utrzymywać spójny poziom akceptacji, a przy dobrze dobranych progach znacząco ogranicza zarówno niepotrzebne odrzuty, jak i przepuszczane wady.
Co rzeczywiście może „zniknąć”, a co się tylko zmniejszy
Nawet najlepszy system wizyjny z AI nie wyeliminuje wszystkich problemów jakościowych. Jest kilka realistycznych efektów, których można się spodziewać:
- Wyraźny spadek odrzutów nieuzasadnionych – szczególnie tam, gdzie dziś decyduje „ostrożność” kontrolera.
- Redukcja reklamacji – zwłaszcza przy defektach wizualnych, które „prześlizgują” się w ręcznej kontroli.
- Stabilizacja jakości między zmianami – ten sam model AI na wszystkich zmianach, bez „ludzkiej zmienności”.
- Lepsza identyfikacja miejsc powstawania defektów – dane z systemu jasno pokazują, na której maszynie rośnie problem.
Nie znikną natomiast całkowicie: błędy montażowe wynikające z zupełnie innych przyczyn, problemy ze złym projektem produktu czy braki w szkoleniu operatorów. System wizyjny z AI jest mocnym elementem układanki, ale nadal tylko elementem. Największy efekt przynosi tam, gdzie jest świadomie wkomponowany w cały proces zarządzania jakością.
Klasyczne systemy wizyjne vs AI – co się faktycznie zmienia na hali
Wielu szefów produkcji ma już doświadczenia z klasycznymi systemami wizyjnymi: kamery, proste algorytmy, pomiar długości, obecność elementów. Wdrażanie AI nie oznacza wyrzucenia tego wszystkiego do kosza, tylko zmianę filozofii tam, gdzie reguły przestają wystarczać.
Reguły kontra uczenie na przykładach
Różnica między tradycyjną wizją a AI sprowadza się do tego, kto „pisze” kryteria oceny:
- W regułowym systemie wizyjnym kryteria tworzy inżynier: progi jasności, wymiary, dopasowanie kształtu.
- W systemie wizyjnym z AI kryteria są wynikiem uczenia modelu na wielu przykładach dobrych i złych sztuk.
W praktyce wygląda to tak, że zamiast godzinami wymyślać kolejne warunki „jeśli… to…”, zespół jakości przygotowuje dobre zbiory zdjęć, a data scientist lub integrator trenuje model, który sam „odkrywa” subtelne wzorce. Utrzymanie takiego systemu polega bardziej na dostarczaniu nowych przykładów niż na ciągłym programowaniu.
Typowe zastosowania: od prostych pomiarów po mikropęknięcia
Oba podejścia mają swoje miejsce. Dobrym punktem odniesienia jest podział na zadania geometryczne i zadania wizualnie złożone.
Przykłady, gdzie klasyczna wizja zazwyczaj wystarcza:
- pomiar długości, średnicy, odległości otworów,
- sprawdzanie obecności śrub, etykiet, plomb,
- odczyt kodów kreskowych, QR, dat ważności,
- kontrola położenia elementu względem referencji.
Przykłady, gdzie inspekcja wizyjna z deep learning daje przewagę:
- kontrola powierzchni lakierniczej (rysy, wtrącenia, zacieki),
- detekcja porowatości w odlewach, pęknięć i wżerów,
- analiza spoin (niedolewy, brak ciągłości, przebarwienia),
- inspekcja żywności (przypalenia, niedopełnienia, zanieczyszczenia),
- weryfikacja etykiet i nadruków, gdy ważny jest nie tylko tekst, ale ogólny wygląd.
W wielu zakładach optymalne rozwiązanie to połączenie obu światów: klasyczna wizja realizuje proste, powtarzalne pomiary, a AI bierze na siebie „trudne” wizualnie fragmenty.
Kiedy przy „zwykłej” wizji zostać, a kiedy inwestować w AI
Nie każde zadanie wymaga AI. Racjonalne podejście to prosta checklista decyzji:
- Produkt jest bardzo powtarzalny, a defekt ma jednoznaczny, geometryczny opis – klasyczna wizja zazwyczaj wystarczy.
- Defekty są wizualnie różnorodne, a różnice między dobrym a złym są subtelne – wtedy AI może dać duży zysk.
- Często dochodzi do sporów jakościowych („dla mnie to jest ok, dla ciebie już nie”) – AI pomoże ustalić spójne kryteria.
- Produkt ma wiele wariantów, które wymagałyby dziesiątek różnych reguł – tu bardziej opłaca się model uczony na przykładach.
Dobrym podejściem jest wykonanie małego pilotażu: na części linii porównać klasyczną wizję z prototypem AI. Często wychodzi wtedy, że najkorzystniejszy jest układ hybrydowy: AI tylko tam, gdzie reguły nie dają rady.
Zmiana roli kontrolera jakości i operatora linii
AI nie zastępuje ludzi całkowicie – zmienia ich zakres pracy. Typowe obawy to lęk przed „nieomylną maszyną” i utratą wpływu na decyzje. W praktyce w dobrze zaprojektowanym systemie:
- operator linii nadal decyduje w przypadkach niejednoznacznych (tzw. szara strefa),
- kontroler jakości staje się bardziej analitykiem: przegląda serie zdjęć, trenduje typy defektów, współdecyduje o progach akceptacji,
- doświadczeni pracownicy są kluczowi przy tworzeniu datasetu i anotowaniu defektów – bez nich model „nie wie”, co jest dobre, a co złe,
- komunikacja zmienia się z „kto zawalił” na „co dokładnie wykryto i w którym miejscu procesu”.
Dobrze wdrożony system wizyjny z AI odciąża ludzi od monotonnej, męczącej kontroli ciągłej, a daje im więcej przestrzeni na nadzór, analizę i rozwiązywanie przyczyn problemów.

Z czego składa się nowoczesny system wizyjny z AI w fabryce
Aby system wizyjny z AI działał stabilnie na hali, musi być dobrze przemyślany zarówno od strony sprzętu, jak i oprogramowania. „Magia AI” nie nadrobi złego oświetlenia, kiepskich kamer czy chaosu integracyjnego.
Warstwa sprzętowa: kamery, obiektywy, oświetlenie, moc obliczeniowa
Podstawą jest obraz, z którego AI ma się czego nauczyć. Składają się na to:
- Kamery – przemysłowe (area scan, line scan) dobierane do prędkości linii, wielkości detalu i wymaganej rozdzielczości. Dla mikropęknięć: wyższa rozdzielczość, krótsze czasy naświetlania, często kilka kamer pod różnymi kątami.
- Obiektywy – z odpowiednią ogniskową i głębią ostrości. Zbyt wąska głębia powoduje rozmyte fragmenty, których AI nie zinterpretuje poprawnie.
- Oświetlenie – kluczowy element. Używa się oświetlenia pierścieniowego, listwowego, kopułowego lub strukturalnego, często w kilku barwach, aby podkreślić rysy, wżery, teksturę powierzchni.
- Moc obliczeniowa (edge/serwer) – przemysłowy komputer, serwer GPU lub kamera inteligentna z wbudowanym modułem AI; dobór zależy od prędkości linii i złożoności modeli.
Jeśli na etapie doboru sprzętu oszczędzi się za mocno, AI będzie uczyć się na nieoptymalnych danych i nigdy nie osiągnie pełnego potencjału. Niekiedy mała zmiana – inny kąt oświetlenia, inny filtr optyczny – podnosi skuteczność modelu bardziej niż dłubanie w architekturze sieci neuronowej.
Warstwa oprogramowania: od przechwytywania obrazu po decyzję dla PLC
System wizyjny z AI to nie tylko model. W typowym rozwiązaniu oprogramowanie obejmuje kilka modułów:
- Akwizycja obrazu – sterowanie kamerami, synchronizacja z linią (enkodery, czujniki, sygnały z PLC), buforowanie zdjęć.
- Wstępne przetwarzanie – korekcja jasności, normalizacja, kadrowanie, ewentualne łączenie obrazów z kilku kamer.
- Model AI – wytrenowana sieć (klasyfikacja, detekcja, segmentacja), która zwraca prawdopodobieństwa defektów i ich lokalizację.
- Logika decyzyjna – progi akceptacji, zasady obsługi przypadków niepewnych, łączenie wyników z kilku modeli.
- Integracja z systemami produkcyjnymi – wysyłka sygnałów do PLC (np. wyrzut sztuki), zapis danych do MES/SCADA, generowanie raportów.
Całość powinna być tak zaprojektowana, aby operator widział proste komunikaty: OK / NOK / do weryfikacji, ewentualnie z zaznaczonym na obrazie miejscem defektu. Inżynier jakości powinien mieć panel z bardziej szczegółowymi danymi – statystyki, typy defektów, trendy.
Typy modeli AI stosowane w kontroli jakości
W praktyce wykorzystuje się głównie trzy klasy modeli:
- Klasyfikacja obrazu – model otrzymuje całe zdjęcie i decyzję: OK / NOK lub typ defektu. Proste w utrzymaniu, ale mało precyzyjne co do lokalizacji wady.
- Detekcja obiektów – model zwraca prostokątne ramki wokół defektów (np. brakujący element, zabrudzenie w konkretnym miejscu). Dobry kompromis między złożonością a informacją.
Segmentacja i detekcja anomalii – gdy liczy się każdy piksel
Przy bardziej wymagających zadaniach sama informacja „jest defekt” przestaje wystarczać. Potrzebna jest dokładna mapa wady, np. do analizy przyczyn lub automatycznej naprawy.
- Segmentacja semantyczna – model koloruje każdy piksel jako „dobry” lub „defekt” (ewentualnie rozróżnia kilka typów wad). Sprawdza się przy spoinach, powłokach, powierzchniach o dużej ciągłości.
- Segmentacja instancji – oprócz klasy piksela rozróżnia poszczególne „obiekty” defektów (np. osobne pęcherze, wżery). To przydaje się, gdy liczba defektów na sztuce ma znaczenie dla decyzji.
- Modele detekcji anomalii – uczone głównie na dobrych sztukach. Model „poznaje” normalny wygląd produktu, a każde odstępstwo traktuje jako potencjalny defekt. Dobre rozwiązanie tam, gdzie katalog wad jest otwarty i wciąż pojawiają się nowe typy problemów.
Segmentacja i detekcja anomalii często idą w parze z klasycznymi modułami analitycznymi. Po wykryciu obszaru wady można policzyć jego powierzchnię, odległość od krawędzi, położenie względem kluczowych elementów i dopiero wtedy podjąć decyzję o odrzucie.
Uczenie nadzorowane, nienadzorowane i „słabo” nadzorowane
Pytanie, które bardzo szybko się pojawia: kto będzie oznaczał te wszystkie defekty na zdjęciach? Ręczne rysowanie masek może przerażać, szczególnie przy dużych wolumenach.
Na szczęście istnieje kilka podejść do uczenia modeli:
- Uczenie nadzorowane – każde zdjęcie ma etykietę (OK/NOK, typ defektu, maska). Najdokładniejsze, ale najbardziej pracochłonne w przygotowaniu.
- Uczenie nienadzorowane / półnadzorowane – model uczy się głównie na dobrych sztukach; wystarczą proste informacje, że dana partia jest poprawna. Defekty traktowane są jako anomalie. Mniej pracy przy oznaczaniu, ale większy nacisk na spójną jakość „dobrych” danych.
- Uczenie słabo nadzorowane – kompromis. Operator oznacza jedynie ogólnie, że na zdjęciu jest defekt, a algorytm sam próbuje zawęzić obszar wady. Często wykorzystuje się tu aktywne uczenie: system podpowiada najbardziej „niepewne” przykłady do ręcznej weryfikacji.
W praktyce firmy często zaczynają od prostszego modelu (np. klasyfikacja dobre/złe z uczniem nadzorowanym), a później stopniowo przechodzą do segmentacji, gdy proces anotacji staje się bardziej poukładany, a zespół nabiera doświadczenia.
Jakość danych uczących: skąd się biorą „znikające” odrzuty
Nawet najlepsza architektura sieci neuronowej nie nadrobi złego datasetu. Typowe problemy pojawiają się już na starcie projektu:
- Niereprezentatywny zbiór – zbyt dużo idealnie dobrych sztuk, zbyt mało przypadków z pogranicza akceptacji.
- Niepewne etykiety – różni kontrolerzy inaczej klasyfikują ten sam defekt, przez co model „uczy się” sprzecznych decyzji.
- Brak wariantów procesu – zdjęcia zbierane tylko z jednej zmiany, jednego dnia, przy jednym ustawieniu oświetlenia.
- „Ciche” zmiany w procesie – np. wymiana dostawcy materiału, która zmienia wygląd powierzchni, ale nie jest zarejestrowana w kontekście danych uczących.
Dobrze działa prosta zasada: dataset powinien „pamiętać” o pełnej różnorodności rzeczywistości, a nie o jej idealnej wersji. W praktyce oznacza to świadome zbieranie danych z różnych zmian, partii, dostawców oraz angażowanie kilku doświadczonych osób w proces etykietowania, z jasnymi regułami decyzyjnymi.
Pipeline tworzenia modelu – od testów na biurku do pracy na linii
Dla wielu zespołów wyzwaniem jest przejście z udanej „demówki” do stabilnego systemu na hali. Pomaga trzymanie się kilku etapów, nawet jeśli początkowo projekt jest mały.
- Zebranie danych referencyjnych – zdjęcia z realnej linii, przy typowej zmienności. Nawet kilkaset sztuk potrafi pokazać, czy zadanie jest w zasięgu AI.
- Wstępne etykietowanie – proste kategorie (OK/NOK, typ wady), bez nadmiernej szczegółowości. Zbyt rozbudowana klasyfikacja na początku tylko spowalnia prace.
- Trening modelu „laboratoryjnego” – na wydzielonej maszynie, bez podłączania do PLC. Celem jest zrozumienie, jakie poziomy skuteczności są realne.
- Ocena na osobnym zbiorze walidacyjnym – zdjęcia z innego dnia, innej partii. To właśnie tu wychodzą na jaw nadmierne dopasowanie do „pięknych” danych treningowych.
- Pilot na linii w trybie podglądu – system działa równolegle z dotychczasową kontrolą, ale nie podejmuje decyzji o odrzucie. Zespół obserwuje różnice i kalibruje progi.
- Stopniowe przejmowanie decyzji – najpierw tylko ewidentne przypadki, później także te z pogranicza, w uzgodnieniu z działem jakości.
Taki, z pozoru rozciągnięty, proces zmniejsza ryzyko „niespodzianek” w dniu uruchomienia. Z drugiej strony pozwala ludziom oswoić się z nowym narzędziem, zamiast startować od razu w trybie zero–jedynkowym.
Projektowanie systemu pod realny proces, a nie „pod pokaz
Najbardziej spektakularne efekty pojawiają się wtedy, gdy system wizyjny z AI jest zaprojektowany pod konkretny proces i jego ograniczenia, a nie pod katalog funkcji producenta oprogramowania czy kamer.
Dobór punktu kontroli w strumieniu produkcji
Pierwszy dylemat zwykle dotyczy miejsca instalacji systemu. Naturalne jest myślenie: „na końcu linii, tuż przed pakowaniem”. To czasem dobra opcja, ale nie zawsze najlepsza.
W praktyce często lepiej działa kilka „lżejszych” punktów kontroli, rozłożonych w procesie:
- po kluczowej operacji (np. malowanie, spawanie, odlew), aby szybko wychwycić problemy technologiczne,
- w miejscu, gdzie najłatwiej wyeliminować defekt (np. przed montażem podzespołu w większym zespole),
- tuż przed kosztowną operacją, która nie ma sensu, jeśli wcześniejszy etap jest wadliwy.
Zdjęcia z kilku punktów potrafią też pomóc w analizie przyczyn. Gdy ten sam typ wady pojawia się dopiero po określonej operacji, zawęża to obszar poszukiwań bez długich dyskusji.
Dobór kryteriów: jak przełożyć „oko eksperta” na parametry
Pracownicy często mówią: „Ja to widzę od razu, czy jest dobrze”. Problem w tym, że model potrzebuje liczbowych kryteriów. Ten most buduje się wspólnie – technolog, kontroler jakości, integrator systemu.
Pomaga proste ćwiczenie warsztatowe. Zespół bierze serię zdjęć z linii i niezależnie klasyfikuje je jako OK / NOK / niepewne. Potem porównuje rozbieżności i doprecyzowuje zasady: jak duża rysa jest akceptowalna, kiedy przebarwienie jest już defektem, jak traktować połączenie kilku małych wad w jednym obszarze.
Dopiero po takim „uziemieniu” kryteriów warto ustalać progi w systemie: np. maksymalna łączna powierzchnia defektu w danej strefie, dopuszczalna liczba wżerów na jednostce powierzchni, minimalna odległość wady od krawędzi uszczelniającej.
Integracja z PLC, robotami i systemami sortującymi
Sam fakt wykrycia defektu nie eliminuje odrzutu. Ktoś (lub coś) musi tę wadliwą sztukę fizycznie usunąć z procesu. Tutaj pojawia się druga, bardziej „mechaniczna” część projektu.
Najczęściej system wizyjny komunikuje się z:
- PLC linii – przekazuje decyzje OK/NOK z odpowiednim przesunięciem czasowym, aby dopasować wynik do pozycji detalu na przenośniku.
- Układami wyrzutników – dysze powietrza, siłowniki, klapy – sterowane z dokładnością do pojedynczej sztuki, często przy dużej prędkości taśmy.
- Robotami pick&place – system przekazuje współrzędne defektu lub całego elementu, dzięki czemu robot może przenieść wadliwy produkt w wyznaczone miejsce.
W początkowej fazie zespół zwykle preferuje tryb „miękki”: system jedynie oznacza sztuki do ręcznej weryfikacji. Dopiero gdy zaufanie rośnie, kolejne kategorie defektów są automatycznie kierowane na tor odrzutu. Dobrze zrealizowana integracja pozwala później rozszerzać zakres automatyki bez przeróbek całej linii.
Śledzenie partii i powiązanie z innymi danymi procesowymi
System wizyjny z AI może stać się bardzo cennym źródłem danych nie tylko dla jakości, ale też dla logistyki i utrzymania ruchu. Warunek: wyniki muszą być powiązane z konkretnymi partiami, numerami serii, maszynami i parametrami procesu.
Przykładowo, oprócz samego zdjęcia i decyzji OK/NOK, warto zapisywać:
- czas inspekcji i identyfikator linii,
- numer partii lub kod z etykiety,
- informację, na której zmianie i przy jakim zestawie ustawień pracowała maszyna,
- typ wykrytego defektu i jego lokalizację (jeśli jest dostępna).
Zestawienie takich danych z informacjami z MES lub SCADA pozwala odkryć powtarzalne zależności, np. wzrost liczby wad pod koniec zmiany, korelację z konkretną mieszanką surowca czy konkretnym ustawieniem temperatury. To już nie jest tylko „kontrola na końcu”, ale realne narzędzie do optymalizacji procesu.

Utrzymanie i ciągłe doskonalenie systemu wizyjnego z AI
Po wdrożeniu wiele zespołów odczuwa ulgę, a potem pojawia się pytanie: „Co dalej? Czy system trzeba będzie co chwilę przeuczać?”. Kluczem jest potraktowanie go jak żywego elementu procesu, a nie jak jednorazową inwestycję.
Monitorowanie skuteczności: wskaźniki, które naprawdę coś mówią
Zamiast ogólnego stwierdzenia „system działa dobrze/źle”, dużo bardziej przydatne są konkretne wskaźniki, śledzone w czasie:
- Odsetek fałszywych odrzuceń (false positive) – ile dobrych sztuk system odrzuca jako wadliwe.
- Odsetek przeoczonych defektów (false negative) – ile wadliwych sztuk przeszło jako OK (oceniane np. na podstawie reklamacji lub dodatkowych audytów).
- Stabilność decyzji – porównanie ocen systemu i kontrolerów dla losowo wybranych próbek.
- Czas reakcji na zmianę procesu – ile trwa od zauważenia degradacji jakości do dostosowania modelu lub progów.
Te dane pomagają podjąć spokojną decyzję: czy wystarczy korekta progów, czy potrzebne jest dogranie modelu na nowych przykładach, czy może trzeba wrócić do kwestii sprzętowych (np. czyszczenie optyki, korekta oświetlenia).
Plan aktualizacji modeli: drobne korekty zamiast rewolucji
Największy lęk budzi często wizja, że przy każdej zmianie produktu lub parametru procesu cały system trzeba będzie budować od zera. Dobrze zaprojektowana architektura pozwala na łagodniejsze podejście.
Sprawdza się podział na kilka poziomów zmian:
- Korekta progów decyzyjnych – na podstawie analizy przypadków granicznych. Szybka zmiana, zwykle bez ponownego treningu.
- Dograne na nowych przykładach – np. gdy pojawia się nowy typ materiału lub odcień. Model jest douczany na dodatkowych danych, często z wykorzystaniem transfer learning, zamiast trenowania od zera.
- Nowy wariant produktu – tworzy się nowy „profil” w systemie, czasem z wykorzystaniem tej samej architektury, ale z osobnym zbiorem uczącym.
- Zmiana architektury modelu – rzadkie działanie, zazwyczaj przy dużych przeskokach technologicznych lub przy radykalnej zmianie zadania (np. z klasyfikacji na segmentację).
Przykładowo: w zakładzie produkującym elementy plastikowe po zmianie dostawcy granulatu zmienił się odcień tworzywa. Początkowo model zaczął widzieć „defekty” w miejscach, gdzie ich nie było. Zamiast przeprojektowywać całość, zespół zebrał serię nowych zdjęć, dograł model i dopasował progi. Proces zajął kilka dni, a nie tygodnie.
Rola „właściciela” systemu w organizacji
System wizyjny z AI nie utrzyma się sam. Potrzebuje kogoś, kto będzie czuwał nad jego kondycją – tak jak nad każdą inną ważną maszyną czy narzędziem.
W praktyce dobrze się sprawdza, gdy:
- formalny właściciel systemu jest po stronie zakładu (np. inżynier procesu lub jakości), a nie tylko u dostawcy,
- ma on podstawową wiedzę o tym, jak działa model i jak interpretować raporty,
- ma dostęp do danych i panelu administracyjnego (np. do przeglądania przypadków granicznych),
- jest włączany w rozmowy o zmianach w procesie, materiałach i produktach.
Radzenie sobie ze zmianą: ludzie, nawyki i zaufanie do algorytmu
Nawet najlepiej zaprojektowany system potknie się, jeśli zespół będzie do niego podchodził z dystansem albo wręcz niechęcią. To zupełnie naturalne – obawa o „kontrolę przez maszynę”, lęk przed utratą pracy, wątpliwości, czy „komputer na pewno wie lepiej”. Zamiast to ignorować, lepiej nazwać po imieniu i zaadresować.
Dobrze działa podejście, w którym system jest przedstawiany jako dodatkowa para oczu, a nie sędzia ostateczny. Przez pierwsze tygodnie można przyjąć zasadę, że decyzja należy do człowieka, a algorytm tylko podsuwa sugestie i gromadzi przykłady do uczenia. Taki układ obniża napięcie i pozwala spokojnie budować zaufanie na realnych danych, a nie na przeczuciach.
Pomaga także prosty, przejrzysty sposób zgłaszania zastrzeżeń do decyzji systemu. Jeśli operator widzi, że produkt oznaczony jako NOK jest w jego ocenie w porządku, powinien mieć łatwy kanał, aby to zaznaczyć – przycisk na panelu, formularz na skanerze, krótki komentarz. Te sygnały mogą trafiać do „właściciela” systemu jako lista spraw do przeglądu, a jednocześnie stanowią świetny materiał do dogrywania modeli.
Przy bardziej złożonych systemach sensowne bywa też ustalenie jasnych „zasad gry”: kiedy decyzja systemu jest wiążąca, kiedy wymagana jest podwójna weryfikacja, a kiedy decyzję przejmuje w całości człowiek (np. przy nowych produktach, krótkich seriach próbnych, nietypowych zleceniach). Dzięki temu operatorzy wiedzą, czego się spodziewać, i nie mają poczucia, że jutro system „zacznie rządzić” w nieprzewidywalny sposób.
Szkolenia praktyczne zamiast prezentacji „z wysoka”
Pracownicy szybciej oswajają się z nowym narzędziem, gdy mogą je „pomacać”, a nie tylko obejrzeć na slajdach. Zamiast jednego długiego szkolenia teoretycznego, lepiej zorganizować kilka krótkich sesji przy linii lub na stanowisku testowym.
W praktyce sprawdza się prosty scenariusz:
- krótkie wyjaśnienie, co system „widzi”, jakie ma ograniczenia i jak podejmuje decyzje,
- praca na realnych produktach – operator klasyfikuje sztukę, potem pokazuje decyzję systemu i różnice,
- omówienie typowych komunikatów, stanów błędów i procedury „co robić, gdy…”,
- przestrzeń na pytania związane z codzienną pracą, także te nieformalne („a jak to będzie liczone do premii?”, „kto sprawdza, czy system się nie myli?”).
W jednym z zakładów zrezygnowano z klasycznego szkolenia salowego na rzecz „dyżurów” integratora przy linii przez pierwsze dwa tygodnie. Operatorzy podchodzili z konkretnymi przypadkami, a problem był od razu wyjaśniany na żywo, na ekranie systemu. W efekcie poziom akceptacji dla narzędzia wyrósł zupełnie inaczej, niż przy standardowej prezentacji „dla wszystkich”.
Specyfika wdrożeń w różnych branżach
Choć zasady działania systemów wizyjnych z AI są podobne, sposób podejścia do projektu mocno zależy od branży. Inne ograniczenia ma produkcja spożywcza, inne automotive, a jeszcze inne małe zakłady obróbki metalu.
Produkcja dyskretna: serie, warianty i szybkie przezbrojenia
W produkcji dyskretnej – elementy metalowe, plastikowe, podzespoły mechaniczne – największym wyzwaniem jest zwykle liczba wariantów. Ten sam typ detalu występuje w kilku długościach, z różnymi otworami, w kilku kolorach. System wizyjny musi to „udźwignąć”, aby nie skończyć z kilkudziesięcioma osobnymi modelami nie do utrzymania.
Często opłaca się podejście modułowe: osobne modele lub profile dla wykrywania krawędzi, osobne dla powierzchni, osobne dla obecności/nieobecności elementów. Konfiguracja dla danego produktu składa się wtedy jak klocki z gotowych elementów. Jeśli pojawi się nowy wariant, czasem wystarczy zmienić obszary zainteresowania (ROI) i progi, bez ruszania samych modeli.
Istotne jest także wsparcie przezbrojeń. W idealnym scenariuszu zmiana produktu w systemie wizyjnym dzieje się automatycznie – na podstawie sygnału z PLC, identyfikacji kodu na pojemniku lub receptury z MES. Dzięki temu operator na linii nie musi zastanawiać się, czy „kliknął właściwy wariant” i czy system na pewno ocenia produkt według dobrych reguł.
Branża spożywcza i farmaceutyczna: higiena, tempo i śledzenie
W obszarze żywności i farmacji dochodzą dodatkowe ograniczenia: rygorystyczne wymagania higieniczne, mocno ograniczona możliwość ingerencji w linię oraz bardzo wysokie tempo. Kamery i oświetlenie muszą być przystosowane do częstego mycia, odporne na środki chemiczne, a jednocześnie zapewniać stabilny obraz mimo pary, wilgoci czy zmiennych warunków oświetleniowych.
Systemy wizyjne w tych branżach często łączy się ściśle z mechanizmami śledzenia partii: kody 2D, etykiety, nadruki laserowe. AI pomaga nie tylko w wychwytywaniu wizualnych defektów produktu (np. zanieczyszczeń, braków, deformacji), lecz także w kontroli poprawności nadruku: dat ważności, numerów serii, składów. Modele uczone na realnych przykładach radzą sobie znacznie lepiej z rozmazanymi, częściowo zasłoniętymi nadrukami niż proste algorytmy OCR.
W tej branży szczególnie cenne jest zbieranie danych o defektach związanych z pakowaniem – np. niedomknięte zgrzewy, uszkodzone folie, deformacje opakowań. Pozwalają one nie tylko usuwać odrzuty, lecz także skracać czas dochodzenia do źródła problemu (np. niewłaściwe parametry zgrzewarki, niewyrównane rolki folii, zużyte elementy dociskowe).
Automotive i branże o wysokich wymaganiach jakościowych
W motoryzacji czy lotnictwie oczekiwania wobec systemu wizyjnego są szczególnie wyśrubowane. Nie chodzi tylko o samą skuteczność, lecz także o możliwość audytu decyzji – dlaczego dana sztuka została odrzucona, co konkretnie system uznał za defekt, jaką wersją modelu dokonano klasyfikacji.
Architektura systemu powinna umożliwiać:
- zapisywanie kluczowych obrazów referencyjnych wraz z wersją modelu i kompletem parametrów,
- łatwe odtworzenie „ścieżki decyzji” – nawet jeśli model jest złożoną siecią głęboką, można przechowywać mapy ciepła lub maski defektu,
- wydzielone środowisko testowe, w którym każdą nową wersję modelu porównuje się z poprzednią na danych z produkcji przed wdrożeniem na linię.
W jednej z fabryk komponentów automotive wprowadzono praktykę „podwójnego podpisu” przed każdą istotną zmianą modelu: akceptację działu jakości i działu IT/automatyki. Zmiana jest traktowana podobnie jak modyfikacja ważnego programu PLC – z opisem, numerem wersji i możliwością powrotu do poprzedniej konfiguracji. Dzięki temu audyty klientów przebiegają spokojniej, bo łatwo pokazać, jak wyglądał proces kontroli w określonym okresie.
Małe i średnie zakłady: prostota zamiast „kosmicznej” technologii
W mniejszych firmach obawa dotyczy często skali: czy w ogóle jest sens inwestować w AI, skoro produkcja jest zmienna, a seria niewielka. Kluczowe jest wtedy dobranie zakresu projektu do realnych potrzeb, a nie do katalogu funkcji.
Zamiast pełnej automatyzacji całej linii, można zacząć od jednego wąskiego obszaru, który najbardziej „boli” – np. kontroli poprawności montażu kluczowego podzespołu lub wychwytywania kilku typowych, kosztownych defektów. Statyczne stanowisko z jedną kamerą, prostym oświetleniem i dobrze przemyślanym interfejsem bywa dużo bardziej opłacalne niż rozbudowany system z wieloma kamerami, który trudno utrzymać.
Dla takich zakładów duże znaczenie ma też wybór narzędzi: interfejs do etykietowania danych i zarządzania modelami powinien być na tyle prosty, by osoba z produkcji lub jakości mogła po krótkim przeszkoleniu samodzielnie dodać nowe przykłady czy przejrzeć przypadki graniczne. Dzięki temu system nie „utknie” w momencie, gdy dostawca skończy projekt wdrożeniowy i wróci do innych zadań.

Aspekty techniczne, które często decydują o sukcesie
Dużo uwagi poświęca się algorytmom, a tymczasem wiele wdrożeń wywraca się na rzeczach pozornie prozaicznych: brudne osłony, niestabilne mocowanie kamery, migające oświetlenie, słaba synchronizacja z ruchem linii.
Stabilne warunki obrazu: mechanika, optyka i oświetlenie
AI jest odporna na wiele drobnych zmian, ale gdy obraz „pływa”, model zaczyna szukać wzorców tam, gdzie ich nie ma. W praktyce oznacza to potrzebę zadbania o kilka kwestii już na etapie projektu:
- sztywne mocowanie kamer i opraw oświetleniowych, najlepiej z minimalizacją drgań od maszyn,
- osłony przeciwpyłowe i przeciwbryzgowe, które da się łatwo czyścić podczas standardowych przestojów,
- dobór oświetlenia (typ, barwa, kąt) do materiału i rodzaju defektów – co innego sprawdzi się przy powierzchniach błyszczących, a co innego przy matowych czy półprzezroczystych,
- unikanie wpływu światła zewnętrznego, np. przez zabudowę stanowiska lub zastosowanie oświetlenia impulsowego zsynchronizowanego z kamerą.
Dobrym nawykiem jest zdefiniowanie prostego standardu „stanu zdrowia” stanowiska wizyjnego: kilka referencyjnych zdjęć wzorca, do których można porównać aktualny obraz po czyszczeniu, remoncie czy zmianie ustawień. Jeśli różnice są zbyt duże, najpierw korygowana jest warstwa sprzętowa, a dopiero potem – ewentualnie – model.
Wydajność i opóźnienia: kiedy milisekundy mają znaczenie
Przy wolniejszych liniach różnice w czasie przetwarzania kilku czy kilkunastu milisekund są praktycznie nieodczuwalne. Problem pojawia się przy bardzo dużych prędkościach lub gdy jeden system ma obsługiwać kilka równoległych torów. Zlekceważone opóźnienia mogą skutkować błędnym przypisaniem decyzji do produktu, a w konsekwencji – odrzuceniem niewłaściwej sztuki.
Przy projektowaniu architektury warto ustalić docelowe parametry: maksymalną liczbę obrazów na sekundę, dopuszczalne opóźnienie od wykonania zdjęcia do decyzji, zapas mocy obliczeniowej na dalszy rozwój. Czasem sensowniejsze jest zastosowanie kilku mniejszych jednostek obliczeniowych przy stanowiskach niż jednej centralnej, która obsługuje całą halę i staje się jednym punktem awarii.
Dobrą praktyką jest test „na gorąco”: przed oficjalnym uruchomieniem produkcyjnym system działa w trybie cienia, przetwarzając obrazy z pełną prędkością, ale bez wpływu na realne sortowanie. Pozwala to złapać wąskie gardła, zanim zaczną dotykać wysyłek do klienta.
Bezpieczeństwo i dostęp do danych
Coraz częściej temat systemów wizyjnych z AI dotyka także działów IT i bezpieczeństwa informacji. Dane z kamer, decyzje modeli, informacje o partiach – wszystko to stanowi wrażliwy zasób, który trzeba odpowiednio chronić, a jednocześnie umożliwić do niego dostęp odpowiednim osobom.
Na etapie projektowania dobrze jest jasno zdefiniować:
- jak długo przechowywane są obrazy i na jakim poziomie szczegółowości (wszystkie, próbka, tylko przypadki NOK),
- kto ma dostęp do pełnych zdjęć, a kto tylko do statystyk i zbiorczych raportów,
- w jaki sposób zabezpieczona jest komunikacja między kamerami, jednostkami obliczeniowymi, PLC i systemami nadrzędnymi,
- jak realizowany jest zdalny dostęp dla dostawcy systemu (jeżeli jest potrzebny) i jakie obowiązują procedury zatwierdzania zmian.
Przy wdrożeniach w firmach międzynarodowych dodatkowym wymaganiem bywają regulacje dotyczące lokalizacji danych – np. zakaz przesyłania obrazów produktów do chmury poza obszar konkretnych krajów. W takiej sytuacji punktem wyjścia staje się architektura edge, w której uczenie i wnioskowanie odbywają się lokalnie, a do chmury trafiają jedynie zagregowane wskaźniki.
Od redukcji odrzutów do zmiany sposobu pracy z jakością
Systemy wizyjne z AI zaczynają zwykle od prostego celu: mniej odrzutów, niższe koszty reklamacji, mniej „niespodzianek” przy odbiorach klienta. Z czasem jednak otwierają drogę do innego podejścia – opartego bardziej na faktach niż na domysłach, na szybkich pętlach uczenia się zamiast długich analiz po fakcie.
Dla wielu zespołów przełomowy okazuje się moment, gdy dane z systemu zaczynają służyć nie tylko do „łapania wad”, ale też do planowania przeglądów, korekt procesów czy rozmów z dostawcami materiałów. Zamiast ogólnego stwierdzenia „ostatnio jest gorzej”, można pokazać dokładne wykresy: kiedy, na której linii, przy jakich parametrach i z jakim typem defektów.
Taki sposób pracy wymaga odrobiny cierpliwości na starcie – kilka dodatkowych kroków przy wdrożeniu, bardziej świadomego zbierania danych, rozmów między działami. W zamian pozwala stopniowo przesuwać kontrolę jakości z roli „strażnika na końcu linii” w stronę partnera, który współdecyduje o kształcie procesu i pomaga eliminować odrzuty zanim w ogóle powstaną.
Najczęściej zadawane pytania (FAQ)
Co daje wdrożenie systemu wizyjnego z AI w kontroli jakości?
Najbardziej odczuwalny efekt to ograniczenie zbędnych odrzutów i przepuszczanych wad. AI lepiej odróżnia defekty krytyczne (np. pęknięcie, które spowoduje awarię) od kosmetycznych (drobna rysa niewpływająca na funkcję), dzięki czemu mniej poprawnych sztuk ląduje w koszu, a jednocześnie spada ryzyko reklamacji.
Dodatkowo taki system stabilizuje poziom kontroli między zmianami – model AI „patrzy” na produkt zawsze tak samo, niezależnie od zmęczenia czy doświadczenia pracownika. Pojawiają się też konkretne dane: łatwiej wskazać, na której maszynie, zmianie czy przy jakim ustawieniu rośnie liczba defektów.
Czym różni się system wizyjny z AI od klasycznego systemu wizyjnego?
Klasyczny system wizyjny działa na sztywnych regułach ustawionych przez inżyniera: progach jasności, pomiarach wymiarów, dopasowaniu do wzorca. Sprawdza się przy powtarzalnych produktach i prostych zadaniach typu: zmierz średnicę, policz sztuki, sprawdź, czy jest etykieta.
System wizyjny z AI (np. z użyciem deep learning) uczy się na przykładach dobrych i złych detali, podobnie jak nowy kontroler jakości. Dzięki temu radzi sobie z nieregularnymi defektami, zmiennym wyglądem powierzchni, licznymi wariantami produktu i subtelnymi wadami, które trudno zapisać w kilku prostych regułach.
Kiedy wystarczy zwykła wizja maszynowa, a kiedy naprawdę potrzebna jest AI?
Jeśli produkt jest bardzo powtarzalny, a defekt da się łatwo opisać geometrycznie (np. brak śruby, zły wymiar, przesunięta etykieta), klasyczna wizja zazwyczaj jest tańsza i w pełni wystarczająca. Dobrze się sprawdzi przy pomiarach, liczeniu elementów, weryfikacji obecności czy odczycie kodów.
AI zaczyna mieć sens, gdy defekty są różnorodne wizualnie, trudne do opisania prostą regułą: porowatość odlewów, rysy na lakierze, wady spoiny, przypalenia żywności, zabrudzenia o różnych kształtach. Warto też rozważyć AI, gdy produkt ma wiele wariantów i utrzymanie dziesiątek zestawów reguł staje się koszmarem dla inżynierów.
Czy system wizyjny z AI całkowicie wyeliminuje odrzuty i reklamacje?
Nie, pełne „zero odrzutów” jest nierealne, nawet z najlepszym systemem. AI może mocno ograniczyć nieuzasadnione odrzuty (np. gdy dziś kontroler „dmucha na zimne”) i wychwycić wiele defektów wizualnych, które w ręcznej kontroli przechodzą dalej, ale nie rozwiąże problemów wynikających z błędnego projektu produktu, złego montażu czy braku szkoleń.
Realistyczny scenariusz to: mniej strat materiałowych, stabilniejsza jakość między zmianami, wyraźne zmniejszenie liczby reklamacji związanych z wyglądem, a także lepsza identyfikacja miejsc, w których faktycznie powstają defekty. System z AI jest ważnym elementem układanki, ale nadal tylko częścią całego systemu zarządzania jakością.
Jakie dane są potrzebne, żeby zacząć z systemem wizyjnym opartym na AI?
Podstawą są dobrej jakości zdjęcia lub nagrania reprezentatywne dla produkcji: zarówno detali dobrych, jak i wadliwych. Im więcej realistycznych przykładów różnych wariantów produktu i typów defektów, tym lepiej model nauczy się rozróżniać, co jest akceptowalne, a co nie.
Na starcie nie trzeba mieć „idealnego” archiwum. W wielu zakładach zaczyna się od zbierania obrazów z linii pilotażowej i ich stopniowego opisywania przez dział jakości. Kluczowe jest, aby opisy (etykiety) były spójne – jeśli jeden kontroler uzna dany defekt za krytyczny, a drugi za kosmetyczny, model też będzie miał „mętne” kryteria.
Czy systemy wizyjne z AI zastąpią kontrolerów jakości i operatorów?
AI zmienia rolę ludzi, ale ich nie usuwa z procesu. Zamiast patrzeć przez 8 godzin na każdy detal, kontroler bardziej nadzoruje system, analizuje trudne przypadki, definiuje kryteria jakości i pomaga „douczyć” model na nowych typach defektów. Operator z kolei reaguje na sygnały z systemu, szukając przyczyn problemów na maszynie.
W wielu firmach odczuwalną ulgą jest to, że znikają spory „czy to jeszcze OK, czy już złe” między zmianami – decyzje są bardziej spójne. Człowiek nadal ma ostatnie słowo w sytuacjach niejednoznacznych, a AI przejmuje żmudną, powtarzalną kontrolę, która najmocniej męczy wzrok i koncentrację.
Od czego zacząć wdrożenie systemu wizyjnego z AI w zakładzie produkcyjnym?
Bezpiecznym startem bywa mały pilotaż na fragmencie linii lub jednym typie produktu. Daje to szansę, by spokojnie porównać wyniki: ręczna kontrola vs klasyczna wizja vs prototyp z AI. Na tej podstawie łatwiej zdecydować, gdzie AI faktycznie daje wartość, a gdzie lepiej pozostać przy prostych, regułowych rozwiązaniach.
W praktyce pierwszy krok to wspólne zdefiniowanie z działem jakości i produkcją: jakiego problemu chcemy się pozbyć (np. reklamacje za rysy na lakierze), jakie dane już mamy i jakie możemy szybko zebrać. Dobrze prowadzony pilotaż pomaga też oswoić obawy zespołu – ludzie widzą, że system ma im odciążyć pracę, a nie „ocenić” ich kompetencje.
Kluczowe Wnioski
- Największe koszty jakości to nie pojedyncze wpadki, ale suma drobnych odrzutów, reklamacji, przestojów i nierównej pracy kontroli między zmianami – bez twardych danych trudno nawet wskazać, gdzie dokładnie powstaje problem.
- Ręczna kontrola i klasyczne systemy wizyjne „na progach” zawodzą tam, gdzie produkt jest zmienny (odlewy, spoiny, drewno, lakier), a defekty mają nieregularne kształty lub są subtelne i trudne do opisania prostymi regułami.
- Systemy wizyjne z AI uczą się na przykładach jak doświadczony kontroler, dzięki czemu lepiej rozróżniają istotne wady od kosmetycznych i potrafią utrzymać spójny poziom akceptacji, niezależnie od zmiany i zmęczenia ludzi.
- Realny efekt „znikających odrzutów” to przede wszystkim ograniczenie nieuzasadnionych odrzutów i zmniejszenie liczby przepuszczonych defektów wizualnych, co wprost przekłada się na mniej reklamacji i stabilniejszą marżę.
- AI szczególnie pomaga przy zmiennych powierzchniach i wielu wariantach produktu – zamiast ciągłego „kręcenia progami” wystarczy dostarczać nowe zdjęcia do douczenia modelu, który sam wychwytuje nowe typy defektów.
- System wizyjny z AI nie zastąpi dobrego projektu produktu ani szkoleń operatorów; jest jednym z kluczowych elementów układanki, który daje największy efekt, gdy jest świadomie wbudowany w szerszy system zarządzania jakością.






