Systemy wizyjne w kontroli jakości: pułapki i dobre praktyki

0
24
Rate this post

Spis Treści:

Rola systemów wizyjnych w kontroli jakości – realne możliwości i ograniczenia

Dlaczego systemy wizyjne stały się standardem w kontroli jakości

Systemy wizyjne w kontroli jakości przestały być ciekawostką technologiczną i stały się jednym z kluczowych narzędzi nowoczesnej produkcji. Rosnące wymagania klientów, krótsze serie produkcyjne, presja na ograniczanie braków i koszty reklamacji – wszystko to wymusza precyzyjną, powtarzalną kontrolę. Człowiek z lupą przy taśmie nie jest w stanie zapewnić takiej samej jakości przez całą zmianę, przy setkach czy tysiącach sztuk na godzinę. Systemy wizyjne potrafią pracować bez przerwy, w tym samym tempie i według tych samych kryteriów, a do tego rejestrują dane, które można później analizować.

Jednocześnie sama obecność kamery i oprogramowania nie gwarantuje sukcesu. W wielu firmach pierwsze wdrożenie kończy się rozczarowaniem: zbyt duża liczba fałszywych odrzutów, „niewidzialne” wady, problemy z utrzymaniem stabilności działania przy zmianach produktu lub oświetlenia. Przyczyną najczęściej nie jest technologia jako taka, lecz sposób jej zaprojektowania i integracji z procesem. Właśnie tutaj pojawiają się typowe pułapki, o których rzadko mówi się w materiałach marketingowych.

System wizyjny trzeba traktować nie jak „magiczny czarny box”, lecz jak element procesu technologicznego – z jasno zdefiniowanym zadaniem, ograniczeniami i wymaganiami. Kamera nie „widzi” tego, co chciałby zobaczyć technolog, tylko to, co jest w stanie rozróżnić algorytm przy danych warunkach oświetlenia, kontrastu, rozdzielczości i parametrów optycznych. Przejście z tego abstrakcyjnego poziomu na konkretne parametry techniczne to jedna z kluczowych kompetencji przy projektowaniu systemów wizyjnych w kontroli jakości.

Gdzie systemy wizyjne sprawdzają się najlepiej

Systemy wizyjne nie są panaceum na wszystkie problemy jakościowe, ale w określonych zadaniach potrafią zdziałać więcej niż najbardziej zmotywowany zespół kontrolerów. Szczególnie dobrze sprawdzają się w przypadku:

  • kontroli wymiarów i położeń – pomiar średnic, długości, kątów, odległości, współosiowości, luzów montażowych, deformacji;
  • sprawdzania kompletności i obecności elementów – czy wszystkie części są na swoim miejscu, czy nie brakuje śrub, uszczelek, naklejek, zatyczek;
  • czytania i weryfikacji oznaczeń – kody kreskowe, kody 2D, numery seryjne, daty, oznaczenia bezpieczeństwa;
  • wykrywania wyraźnych defektów powierzchni – rysy, pęknięcia, duże wtrącenia, odpryski, zabrudzenia w określonych obszarach;
  • kontroli etykiet i opakowań – poprawność nadruków, wyrównanie etykiety, poprawność kombinacji kodów, dat, wersji językowych.

Nieco trudniej jest, gdy wada ma charakter bardzo subtelny lub „miękki”: lekka zmiana połysku, miękkie przejścia tonalne, rozproszone zadrapania na chropowatej powierzchni, wady oceniane przez człowieka raczej „na oko” niż miarką. Takie defekty da się często wykryć systemem wizyjnym, ale wymaga to dużo bardziej starannego doboru optyki, oświetlenia oraz algorytmów, a także znacznie lepszego przygotowania danych referencyjnych.

Granice i złudzenia związane z automatyką wizyjną

Najczęstsze złudzenie związane z systemami wizyjnymi w kontroli jakości polega na przekonaniu, że „sztuczna inteligencja sama rozpozna, co jest dobre, a co złe”. Nawet najbardziej zaawansowane rozwiązania oparte na uczeniu maszynowym działają w pewnych ramach: potrzebują odpowiednio dużego i dobrze opisanej bazy przykładów, muszą pracować w warunkach, które nie odbiegają radykalnie od tych, na których były trenowane, a ich decyzje trzeba regularnie weryfikować. Brak tych elementów prowadzi do sytuacji, w której system staje się nieprzewidywalny, a zespół produkcji traci do niego zaufanie.

Drugi obszar złudzeń to oczekiwanie stuprocentowej skuteczności od pierwszego dnia. W praktyce każdy system wizyjny na starcie przechodzi okres „docierania”, gdzie zbierane są kolejne przykłady, dostrajane progi decyzyjne, poprawiane są reguły klasyfikacji. Jeśli ten etap jest zaplanowany i nadzorowany, system po kilku tygodniach lub miesiącach zaczyna działać stabilnie. Jeśli go zabraknie, operatorzy często zaczynają wyłączać system „bo przeszkadza”, a investycja traci sens.

Trzeci mit dotyczy całkowitego wyeliminowania człowieka z procesu kontroli. Dobrze zaprojektowany system wizyjny w kontroli jakości przejąć powinien dużą część rutynowych zadań, ale zawsze pozostaje przestrzeń na oceny graniczne, nietypowe przypadki, decyzje o dopuszczeniu partii przy niskim ryzyku defektu. Ta „mądra współpraca” człowieka i systemu to często najlepsza praktyka, zamiast na siłę dążyć do pełnej automatyzacji w każdym możliwym obszarze.

Jednostki HVAC na dachu budynku wśród miejskiej infrastruktury
Źródło: Pexels | Autor: Sergei A

Najczęstsze pułapki przy planowaniu systemu wizyjnego

Pułapka 1: Niejasno zdefiniowane kryteria jakości

System wizyjny musi mieć jasną odpowiedź na pytanie: co jest wadą, a co nie. Zaskakująco często takie kryteria istnieją jedynie w głowach doświadczonych kontrolerów lub w ogólnych zapisach typu „brak widocznych wad wpływających na wygląd wyrobu”. To za mało, by zakodować reguły w algorytmie. Brak jednoznacznych definicji prowadzi do niekończących się dyskusji: dlaczego system odrzucił ten element, skoro kontroler by go przepuścił, i odwrotnie.

Dobrym punktem wyjścia jest warsztat z udziałem technologów, jakościowców i doświadczonych kontrolerów, podczas którego wspólnie ogląda się konkretne sztuki – zarówno dobre, jak i wadliwe. Każda wada powinna zostać opisana w sposób mierzalny: długość rysy, jej położenie, szerokość, głębokość, kontrast względem tła, odległość od krawędzi, liczba dopuszczalnych wad na danej powierzchni. Tam, gdzie nie da się uniknąć pewnej uznaniowości, warto zdefiniować przynajmniej przykłady graniczne: zdjęcia lub fizyczne elementy „akceptowalny” vs „do odrzutu”.

Brak takiej doprecyzowanej definicji jakości sprawia, że system wizyjny staje się „kozłem ofiarnym”: gdy odrzutów jest za dużo, wini się automat; gdy jakiś defekt przejdzie, również system jest winny. Często problem leży nie w algorytmie, ale w tym, że nikt wcześniej nie zdecydował, jakie dokładnie są kryteria akceptacji. W praktyce inwestycja w doprecyzowanie standardów jakości przed wdrożeniem systemu wizyjnego zwraca się wielokrotnie.

Pułapka 2: Niedoszacowanie wymagań sprzętowych i optyki

W materiałach marketingowych wiele systemów wizyjnych wydaje się „uniwersalnych”: jedna kamera, kilka kliknięć w konfiguratorze i gotowe. W rzeczywistości dobór matrycy, obiektywu, odległości roboczej, rozdzielczości oraz typu oświetlenia jest kluczowy. Próba oszczędzania na optyce kończy się często tym, że algorytmy muszą „walczyć” z kiepskiej jakości obrazem, co zwiększa liczbę fałszywych klasyfikacji.

Typowy błąd to zbyt mała rozdzielczość przy wymaganiu wykrywania bardzo małych wad. Jeśli np. oczekuje się wykrywania rys o szerokości rzędu dziesiątek mikrometrów na dużej powierzchni, to pojedynczy piksel nie może odpowiadać rozmiarowi większemu niż ta wada. Brak takiego przeliczenia (wielkość obiektu vs wielkość piksela) prowadzi do sytuacji, w której wada jest dosłownie „mniejsza niż piksel” – system fizycznie nie może jej zobaczyć. Oprogramowanie nie skompensuje błędów, które wynikają z fizyki optyki.

Drugi nagminny problem to niedopasowane oświetlenie: zbyt słabe, zbyt rozproszone, niewłaściwy kąt padania, zbyt duże odbicia, brak stabilizacji natężenia. System wizyjny w kontroli jakości opiera się na kontraście między dobrym a wadliwym fragmentem obrazu. Jeśli ten kontrast jest za niski, algorytm zaczyna się „gubić”. W wielu zakładach duża część problemów z systemem wizyjnym znika po… dołożeniu lub zmianie oświetlenia na bardziej odpowiednie (np. pierścieniowe, koaksjalne, liniowe, podświetlenie, oświetlenie boczne).

Pułapka 3: Ignorowanie zmienności procesu i warunków

Wiele stanowisk testowych jest budowanych w warunkach laboratoryjnych, gdzie produkty są idealnie powtarzalne, środowisko czyste, a temperatura stabilna. Tymczasem na hali produkcyjnej w realnym cyklu pracy dochodzi do wahań temperatury, wibracji, zabrudzeń optyki, zmiany barwy oświetlenia otoczenia, luzów mechanicznych, a także – co równie istotne – naturalnej zmienności wyrobu w dopuszczalnych tolerancjach. System wizyjny, który zadziałał świetnie w laboratorium, nagle na produkcji zaczyna „widzieć wady” tam, gdzie ich nie ma, albo przepuszcza elementy, których nie powinien.

Konstruując system wizyjny do kontroli jakości, trzeba brać pod uwagę typowe i skrajne warunki pracy: zakres temperatur, poziom drgań, stopień zapylenia, możliwość osadzania się oleju lub mgły chłodzącej na optyce, zmiany partii materiału o różnym odcieniu. Dobrą praktyką jest testowanie prototypu systemu wizyjnego bezpośrednio na hali, na rzeczywistej linii, przez co najmniej kilka zmian, najlepiej z udziałem różnych operatorów i przy naturalnych fluktuacjach procesu.

Warte uwagi:  Inteligentne ramiona robotyczne w przemyśle ciężkim

Ignorowanie zmienności to także zbyt sztywne podejście do nastaw parametrów algorytmów. Minimalne wahania kontrastu czy jasności nie powinny powodować gwałtownego wzrostu odrzutów. Tam, gdzie to możliwe, stosuje się metody normalizacji obrazu, adaptacyjne progi, kompensację zmian oświetlenia. Jednak nawet najlepsze algorytmy nie zastąpią konsekwentnej dbałości o mechanikę, czystość optyki oraz stabilność procesów poprzedzających kontrolę.

Zbliżenie zielonej płytki PCB używanej w systemach wizyjnych
Źródło: Pexels | Autor: Tima Miroshnichenko

Projektowanie systemu wizyjnego: od wymagań do architektury

Precyzyjne określenie celu systemu wizyjnego

Konstrukcja dobrego systemu wizyjnego zaczyna się od zwięzłej, ale konkretnej odpowiedzi na kilka pytań:

  • Jaki jest główny cel systemu: eliminacja wad, dokumentacja jakości, śledzenie trendów, czy kombinacja tych celów?
  • Jakie typy defektów mają być wykrywane i w jakim zakresie rozmiarów / intensywności / lokalizacji?
  • Jaki jest dopuszczalny poziom ryzyka: ile fałszywych odrzuceń jest akceptowalne, ile defektów może przejść w najgorszym razie?
  • W jaki sposób system ma reagować: zatrzymać linię, odrzucić pojedynczy element, wysłać sygnał do systemu nadrzędnego, powiadomić operatora?
  • Jakie czasy cyklu są dostępne: ile milisekund ma system na przeprowadzenie inspekcji i podjęcie decyzji?

Bez jednoznacznych odpowiedzi trudno dobrać właściwą platformę sprzętową i oprogramowanie. System zaprojektowany do roli „asystenta” operatora może pozwalać sobie na większą liczbę fałszywych odrzuceń, bo ostateczną decyzję podejmuje człowiek. System działający w pełni automatycznie, bez nadzoru, musi działać znacznie stabilniej i mieć lepiej przemyślaną strategię zarządzania przypadkami granicznymi.

Dobór architektury: kamera inteligentna, PC, czy rozwiązanie hybrydowe

Na rynku dostępne są trzy podstawowe podejścia do architektury systemu wizyjnego w kontroli jakości:

  • kamery inteligentne (smart cameras) – urządzenia łączące kamerę, procesor i oprogramowanie w jednym kompaktowym module;
  • systemy oparte o PC – jedna lub kilka kamer podłączonych do komputera przemysłowego, na którym uruchomione jest oprogramowanie wizyjne;
  • rozwiązania hybrydowe – np. wstępna obróbka w kamerze, a zaawansowane analizy na serwerze lub w chmurze.

Kamery inteligentne świetnie sprawdzają się w prostszych aplikacjach, gdzie wystarczy kilka standardowych narzędzi: detekcja krawędzi, pomiar odległości, sprawdzanie obecności elementów, odczyt kodów, proste porównanie z wzorcem. Ich zaletą jest kompaktowość, prosty montaż, mniejsza liczba elementów do serwisowania i zwykle intuicyjne interfejsy konfiguracyjne. Ograniczeniem jest natomiast mniejsza moc obliczeniowa, ograniczony wybór algorytmów oraz mniejsze możliwości integracji z bardziej złożonymi systemami IT.

Systemy oparte o PC są bardziej elastyczne, lepiej skalowalne i umożliwiają implementację bardziej zaawansowanych metod, w tym uczenia maszynowego, segmentacji, analizy 3D, fuzji danych z wielu kamer. Wymagają jednak starannego doboru komponentów (karty wizyjne, pamięć, dyski, zasilanie), zapewnienia odpowiedniego chłodzenia oraz przemyślanego planu utrzymania (aktualizacje systemu operacyjnego, backup konfiguracji, zabezpieczenia sieciowe). W aplikacjach krytycznych warto rozważyć architekturę redundantną lub przynajmniej plan awaryjny na wypadek awarii komputera przemysłowego.

Rola oświetlenia i mechaniki w projekcie

Projektowanie oświetlenia i układu mechanicznego

Oświetlenie i mechanika to fundamenty, na których stoi każdy system wizyjny. Jeśli element „pływa” w polu widzenia, drga, jest obracany w niekontrolowany sposób albo raz znajduje się bliżej, raz dalej od kamery, żaden algorytm nie zapewni stabilnych wyników. Dlatego projekt systemu trzeba zacząć nie od wyboru algorytmu, lecz od ustalenia, jak fizycznie będzie prezentowany detal przed obiektywem.

Dobrze zaprojektowany układ mechaniczny odpowiada na kilka pytań: jak element jest pozycjonowany (grawitacyjnie, na trzpieniu, w gnieździe, na taśmie), jak jest stabilizowany (dociski, prowadnice, kieszenie), jakie ma możliwe odchyłki położenia i orientacji oraz w których osiach drgania są najbardziej uciążliwe. Często okazuje się, że dodanie prostego elementu prowadzącego lub zmiana konstrukcji chwytaka robotycznego redukuje problemy z rozpoznawaniem o więcej niż najwymyślniejszy filtr programowy.

Oświetlenie należy traktować jak część mechaniki, a nie „lampkę do kamery”. Trzeba określić, czy kluczowe informacje niesie kształt, kolor, połysk, faktura czy przezroczystość. Od tego zależy, czy użyte będzie oświetlenie:

  • przednie kierunkowe – dobre do uwypuklania krawędzi i rys, ale podatne na refleksy;
  • kopułowe lub bardzo rozproszone – wygładza refleksy, przydatne przy elementach błyszczących;
  • koaksjalne – świetne do powierzchni lustrzanych i płaskich, gdzie istotne są drobne zmiany faktury;
  • podświetlenie – do zarysów, otworów, pomiaru geometrii w rzucie 2D;
  • boczne liniowe – podkreśla mikronierówności, rysy, wytłoczenia.

W praktyce najwięcej problemów powoduje brak powtarzalności: oświetlacz raz świeci mocniej, raz słabiej (brak stabilizowanego zasilania), element jest raz matowy, raz wypolerowany (różne partie obróbki), a w polu widzenia „wchodzi” światło z hali. Lepszym rozwiązaniem niż dogaszanie całej hali jest zbudowanie możliwie szczelnej, matowej kabiny z kontrolowanym oświetleniem oraz zastosowanie ściemniania/sterowania prądem diod z poziomu systemu wizyjnego.

Unikanie pułapki „dopasowania do idealnego detalu”

Jednym z typowych błędów przy doborze oświetlenia i mechaniki jest projektowanie wszystkiego pod idealny, referencyjny detal z laboratorium. Na linii pojawią się sztuki lekko zabrudzone, z inną chropowatością, odbarwieniem, czasem z resztkami emulsji obróbczej. Jeśli oświetlenie jest ustawione „na styk”, to każda taka zmiana spowoduje lawinę błędów klasyfikacji.

Dobrą praktyką jest zbieranie już na etapie projektu możliwie szerokiego spektrum detali: z różnych partii, przy różnych nastawach maszyn, także tych „średnio ładnych, ale jeszcze akceptowalnych”. System wizyjny powinien być testowany właśnie na takiej mieszance, a nie tylko na wzorcach z katalogu.

W jednej z fabryk elementy metalowe badano w systemie z oświetleniem pierścieniowym ustawionym idealnie dla nowych, wypolerowanych detali. Po kilku dniach produkcji powierzchnie zaczęły być matowe od mikro-zużycia narzędzia. Kontrast rys spadł poniżej progu detekcji, a algorytm zaczął przepuszczać defekty. Problem zniknął po zmianie geometrii oświetlenia na bardziej boczne oraz po niewielkim zwiększeniu mocy, tak by system był odporny na zmianę „połysku” w czasie.

Organizacja danych i etykietowanie przykładów

Niezależnie od tego, czy używane są proste algorytmy klasyczne, czy uczenie maszynowe, kluczowe znaczenie ma sposób gromadzenia i opisywania danych. Bez uporządkowanego archiwum obrazów ciężko diagnozować problemy, poprawiać algorytmy i rozmawiać o jakości na podstawie faktów, a nie wrażeń.

Praktyczny system gospodarki obrazami powinien obejmować:

  • automatyczne zapisywanie próbek – np. każdego odrzuconego elementu oraz losowej części elementów zaakceptowanych;
  • rozsądny poziom kompresji – tak, aby obrazy były użyteczne diagnostycznie, ale nie zapełniały dysków w kilka dni;
  • jednoznaczne powiązanie obrazu z danymi produkcyjnymi – numer partii, maszyna, operator, zmiana, receptura;
  • możliwość ręcznego etykietowania – użytkownik może zaznaczyć obszar wady, zakwalifikować ją do kategorii, skorygować decyzję systemu.

Bez etykiet zdarzenia pozostają anegdotyczne: „system głupiał w nocy”, „ta partia była jakaś dziwna”. Z dobrze opisanymi obrazami można wrócić do konkretnych przypadków, przeanalizować je statystycznie, a potem poprawić algorytm lub sprzęt. Przykładowo: jeśli w repozytorium widać, że większość błędnych odrzuceń dotyczy jednego typu zarysowania, łatwo zidentyfikować błąd w definicji klasy wady lub niewłaściwy próg decyzyjny.

Uczenie maszynowe i sieci neuronowe w systemach wizyjnych

W wielu nowych projektach w naturalny sposób pojawia się pomysł zastosowania metod uczenia maszynowego: klasyfikatorów opartych na cechach, a przede wszystkim głębokich sieci neuronowych. Rozwiązania te potrafią znakomicie radzić sobie z złożonymi defektami, które trudno opisać prostymi regułami. Jednocześnie wprowadzają nowe pułapki – szczególnie wtedy, gdy traktuje się je jak „magiczny czarny pudełko”, które samo znajdzie różnicę między dobrym a złym detalem.

Podstawową trudnością jest przygotowanie odpowiedniego zestawu uczącego. Ilość obrazów potrzebnych do stabilnego działania sieci głębokiej jest zazwyczaj wielokrotnie większa, niż zakłada inwestor. Do tego dochodzi konieczność rzetelnego oznaczenia etykiet: „dobre”, „złe”, „przypadek graniczny” i ewentualnie kategorii wad. Bez tego sieć uczy się w sposób niespójny i generuje decyzje, których nie da się sensownie wyjaśnić.

W przypadku kontroli jakości, gdzie liczy się bezpieczeństwo procesu, dobrym kompromisem bywa architektura dwustopniowa:

  • w pierwszym etapie stosuje się klasyczne narzędzia (pomiar, progi, geometria), aby odfiltrować oczywiste przypadki poprawne i oczywiście wadliwe;
  • w drugim etapie sieć neuronowa podejmuje decyzję tylko dla przypadków trudnych, zbliżonych do granicy tolerancji.

Taki podział zmniejsza wymagania co do ilości danych uczących, bo sieć widzi głównie „interesujące” przypadki, i ułatwia walidację całego systemu – proste reguły można łatwo skontrolować, a złożony model działa tam, gdzie tradycyjne podejście zawodzi.

Walidacja modeli ML: pułapki i praktyczne testy

Jeśli w systemie pojawia się komponent uczący się, trzeba poświęcić czas na rzetelną walidację. Standardowe miary, jak dokładność (accuracy), szybko przestają być użyteczne w środowisku produkcyjnym. Przy rzadkich wadach model może mieć „dokładność” na poziomie niemal 100%, mimo że przepuszcza znaczną część defektów.

Bardziej miarodajne są wskaźniki:

  • czułość (sensivity/recall) – jaki odsetek rzeczywistych wad został wykryty;
  • precyzja (precision) – jaki odsetek wskazań „wada” faktycznie nią jest;
  • krzywa ROC / PR – użyteczna przy doborze progów decyzyjnych.

W aplikacjach przemysłowych wygodniej jednak przeliczać te wskaźniki na język procesu: ile wad na godzinę może uciec, ile elementów na milion będzie błędnie odrzuconych przy danym progu, jak to wpływa na reklamacje i koszty złomu. Wtedy łatwiej rozmawia się z działem jakości lub finansów o tym, czy zwiększamy czułość kosztem większej liczby fałszywych odrzuceń, czy odwrotnie.

Istotny jest też sposób testowania. Model trzeba sprawdzać nie tylko na danych archiwalnych, ale i w warunkach „przyszłościowych”: innych partiach materiału, innych ustawieniach maszyn, nowych wariantach produktu. W praktyce robi się to przez stopniowe „wypuszczanie” modelu na linię: na początku pracuje jedynie w trybie doradczym (tylko raportuje), potem decyduje o odrzutach, ale każda jego decyzja jest weryfikowana przez doświadczonego kontrolera, dopiero na końcu przechodzi w tryb w pełni autonomiczny.

Warte uwagi:  Roboty inspekcyjne w przemyśle rafineryjnym

Zarządzanie zmianą wersji algorytmów

System wizyjny w zakładzie produkcyjnym nie jest projektem jednorazowym. Algorytmy ewoluują, pojawiają się nowe typy wad, zmieniają się produkty i wymagania klientów. Nierzadko to, co „działało świetnie” rok temu, dziś generuje za dużo odrzuceń, bo proces się poprawił, a system nadal reaguje na defekty, które już praktycznie nie występują.

Brak zarządzania wersjami kończy się chaosem: ktoś „na szybko” skoryguje próg na nocnej zmianie, ktoś inny przywróci starą konfigurację, a po tygodniu nikt nie wie, dlaczego parametry wyglądają inaczej niż na szkoleniu. Dlatego w dojrzałych systemach stosuje się zasady bliźniacze do tych z IT:

  • konfiguracje i modele przechowuje się w systemie kontroli wersji lub przynajmniej w archiwum z datą i opisem;
  • zmiany są wprowadzane w sposób kontrolowany (procedura MOC – management of change), z opisem przyczyny i wyniku testów;
  • istnieje możliwość szybkiego powrotu do poprzedniej stabilnej wersji, gdy nowa konfiguracja zachowuje się nieprzewidywalnie;
  • wyraźnie rozdziela się środowisko „testowe” od „produkcyjnego”, choćby w postaci osobnych profili ustawień.

W prostszych instalacjach wystarczy dyscyplina zapisywania kopii ustawień i krótkich notatek przy każdej zmianie. Przy kilku liniach i wielu podobnych maszynach lepiej od razu wdrożyć centralne repozytorium konfiguracji, aby uniknąć sytuacji, w której na każdej linii działa „trochę inny” system pod tą samą nazwą.

Integracja z systemami nadrzędnymi i śledzenie partii

Samodzielny system wizyjny jest mało użyteczny, jeśli jego decyzje nie są powiązane z resztą ekosystemu IT. Nawet prosta integracja z PLC, systemem MES lub bazą danych pozwala uzyskać zupełnie nową jakość informacji: nie tylko czy dana sztuka przeszła, ale w jakim kontekście procesowym powstała.

Typowe obszary integracji to:

  • sterowanie odrzutem – sygnały do wyrzutników, zatrzymanie linii, blokada zmiany receptury;
  • identyfikacja produktu – wiązanie obrazu z kodem 2D, numerem partii, numerem seryjnym, gniazdem montażowym;
  • raportowanie do MES/ERP – statystyki odrzutów, mapa wad w funkcji czasu, maszyny, dostawcy materiału;
  • feedback do sterowania procesem – sygnały korygujące do poprzednich etapów (np. ostrzeżenie o dryfcie geometrii, jakości nadruku, rozjeżdżaniu się kolorystyki).

Kluczową korzyścią jest możliwość prześledzenia wstecz, z których partii i na jakich maszynach pochodziły sztuki z wadami. Dzięki temu reklamacja klienta nie kończy się na sprawdzaniu „na oko” losowych próbek, ale na precyzyjnym zidentyfikowaniu źródła problemu – konkretnego gniazda, operatora, dostawcy surowca czy okresu czasu.

Rola operatorów i kultury organizacyjnej

Nawet najbardziej zaawansowany technicznie system wizyjny można „zabić” złą organizacją pracy. Jeśli operatorzy traktują go jak wroga, który zabiera im autonomię i „wytyka błędy”, szybko pojawi się presja, by system wyłączać, omijać lub „przykręcać” progi do minimum reagowania.

Dużo lepsze rezultaty przynosi podejście, w którym operatorzy są od początku partnerami przy wdrożeniu. Znają realia procesu, typowe „dziwne” sytuacje, a także potrafią szybko wychwycić, że system zaczął zachowywać się inaczej niż zwykle (np. zwiększył liczbę odrzuceń). Jeżeli mają prosty interfejs do zgłaszania uwag, opisywania błędnych decyzji systemu czy oznaczania „niejasnych” przypadków, dział utrzymania ruchu oraz inżynierowie jakości dostają bezcenny materiał do dalszej pracy.

Z perspektywy organizacji ważne jest jasne ustalenie odpowiedzialności: kto podejmuje decyzję o zmianie nastaw, kto zatwierdza nowe wersje algorytmu, kto analizuje raporty z systemu, a kto definiuje, co jest wadą. Brak tych ról kończy się typowym sporem „to wina automatu” kontra „to wina produkcji”. Dobrze opisane procedury działania przy zmianie jakości od razu pokazują, czy problem jest natury technologicznej, sprzętowej, czy algorytmicznej.

Projektowanie interfejsu użytkownika

Ekran operatora bywa ostatnią rzeczą, o której myśli się przy projektowaniu systemu wizyjnego. Tymczasem to właśnie interfejs decyduje, czy system będzie używany zgodnie z przeznaczeniem, czy stanie się „czarną skrzynką”, której wszyscy się boją.

Dobry interfejs na stanowisku produkcyjnym ma kilka cech wspólnych:

Projektowanie interfejsu użytkownika (cd.)

Na pierwszy rzut oka interfejs ma przede wszystkim nie przeszkadzać. Operator nie może zastanawiać się, gdzie kliknąć, aby podejrzeć aktualny obraz, ani jak podejrzeć ostatnie odrzuty. Dobrze zaprojektowany ekran prowadzi użytkownika „za rękę” przez typowe scenariusze pracy i utrudnia wykonanie kroków niepożądanych przypadkowo.

W praktyce przydatne okazują się zwłaszcza następujące elementy:

  • jasna informacja o stanie systemu – widoczne z kilku metrów: tryb pracy (auto/ręczny), status (OK/alarm), liczba odrzuceń w ostatnich minutach;
  • podgląd bieżącego obrazu – z zaznaczeniem kluczowych obszarów inspekcji, tak aby operator widział, na co system patrzy;
  • lista ostatnich decyzji – np. ostatnie kilkanaście sztuk, ze wskazaniem, które zostały odrzucone i z jakiego powodu;
  • prosty dostęp do diagnostyki – np. test oświetlenia, odświeżenie ostrości, informacja o braku obrazu z kamery;
  • wyraźne rozdzielenie poziomów dostępu – operator ma inne uprawnienia niż technolog, a technolog inne niż integrator.

W jednym z zakładów, gdzie liczba odrzuceń nagle wzrosła, okazało się, że operatorzy nie mieli łatwego wglądu w obrazy wadliwych sztuk. Widzieli tylko rosnące liczby na czerwono. Reakcją był automatyczny wniosek: „system się zepsuł, wyłączamy”. Po wprowadzeniu prostego ekranu przeglądu ostatnich odrzuceń, z nałożonymi maskami detekcji, rozmowa przesunęła się z poziomu emocji na poziom faktów – szybko wyszło, że problemem jest nowa partia surowca.

Przy projektowaniu interfejsu pomaga obserwacja pracy rzeczywistych użytkowników. Krótkie warsztaty na linii, w trakcie których operatorzy pokazują własne „patenty” i miejsca, które im przeszkadzają, potrafią oszczędzić tygodni przeróbek. Zdecydowanie lepiej uprościć trzy najczęstsze scenariusze (start linii, obsługa alarmu, podgląd odrzutów) niż rozbudowywać rzadko używane funkcje konfiguracyjne.

Bezpieczeństwo funkcjonalne i ryzyko błędnych decyzji

System wizyjny może mieć bezpośredni wpływ na bezpieczeństwo ludzi i maszyn. Jeśli od jego decyzji zależy np. zwolnienie blokady, dopuszczenie elementu do montażu bezpieczeństwa czy odrzut krytycznego komponentu, projekt trzeba rozpatrywać w kategoriach bezpieczeństwa funkcjonalnego, a nie tylko jakości produktu.

Podstawą jest analiza ryzyka. Dla każdej decyzji podejmowanej przez system należy określić:

  • konsekwencje fałszywego pozytywu (odrzut elementu dobrego);
  • konsekwencje fałszywego negatywu (przepuszczenie elementu wadliwego);
  • prawdopodobieństwo wystąpienia obu typów błędów przy aktualnych nastawach;
  • wymagany poziom niezawodności, wynikający z norm branżowych lub wewnętrznych standardów.

W obszarach krytycznych (motoryzacja, medycyna, lotnictwo) system wizyjny często jest jednym z kilku niezależnych „strażników”. Ten sam element może przechodzić przez kontrolę mechaniczną, test elektryczny i wizyjną, a dopiero spójność wyników daje zielone światło. Taki nadmiar wydaje się kosztowny, lecz przy poważnych konsekwencjach reklamacji jest standardem.

Jeżeli system wizyjny współtworzy funkcję bezpieczeństwa, trzeba rozważyć:

  • mechanizmy samokontroli (watchdog, kontrola ciągłości sygnału, testy lamp oświetlenia);
  • reakcje na wewnętrzny błąd – zatrzymanie linii, wymuszenie przejścia w tryb inspekcji manualnej;
  • rejestrację wszystkich sytuacji, w których system nie mógł podjąć wiarygodnej decyzji (np. zasłonięty obiektyw);
  • procedury okresowych testów referencyjnych – zestaw wzorcowych detali, które pozwalają sprawdzić, czy algorytm „nie zjechał z toru”.

W praktyce dobrym nawykiem jest rozdzielenie logiki bezpieczeństwa (np. w certyfikowanym przekaźniku czy sterowniku bezpieczeństwa) od funkcji inspekcji. System wizyjny dostarcza tylko informacje o stanie produktu, a ostateczne decyzje o zatrzymaniu maszyny podejmuje moduł zaprojektowany zgodnie z odpowiednią normą bezpieczeństwa.

Próby odbiorowe i kryteria „gotowości do produkcji”

Systemy wizyjne często „wpadają” na linię na ostatnim etapie projektu, a próby odbiorowe ograniczają się do deklaracji, że „działa na kilkunastu sztukach”. To prosta droga do rozczarowań po kilku dniach normalnej pracy.

Dobrze zaplanowane odbiory techniczne (FAT/SAT) obejmują zarówno testy sprzętu, jak i algorytmów:

  • FAT (Factory Acceptance Test) – test w warunkach integratora: poprawność okablowania, stabilność oświetlenia, działanie wszystkich kamer, kompletność dokumentacji, wstępne sprawdzenie algorytmów na dostarczonych próbkach;
  • SAT (Site Acceptance Test) – test na docelowej linii: sprawdzenie poprawnej współpracy z maszyną, PLC, wyrzutnikami i systemami nadrzędnymi, ocena liczby fałszywych odrzuceń i przepuszczonych wad w typowym cyklu produkcyjnym.

Dobrym zwyczajem jest uzgodnienie z klientem z góry mierzalnych kryteriów odbioru, w języku bliskim procesowi, np.:

  • maksymalna dopuszczalna liczba fałszywych odrzuceń na zmianę;
  • maksymalna dopuszczalna liczba przepuszczonych wad na określoną liczbę sztuk;
  • dopuszczalny czas reakcji systemu na zmianę receptury / formatki;
  • czas wymagany na szkolenie nowego operatora do samodzielnej obsługi podstawowej.

W jednym z projektów, w którym system wizyjny miał zastąpić manualną kontrolę nadruku, formalnie „działał” – widział wszystkie defekty na wzorcach. Problem pojawił się dopiero przy pełnej prędkości linii: okazało się, że integracja z wyrzutnikiem ma zbyt duże opóźnienie i część błędnych opakowań fizycznie nie trafiała do zrzutu. Błąd nie wynikał z algorytmu, lecz z niedoszacowanego czasu reakcji układu. Taki scenariusz wychodzi na jaw wyłącznie przy realistycznych próbach SAT.

Utrzymanie i serwis: żywotność systemu w czasie

Nawet najlepiej zaprojektowany system wizyjny degraduje się w czasie, jeśli nikt o niego nie dba. Kurz na optyce, zużywające się lampy LED, luzy w mocowaniach kamer czy zmiany oprogramowania na maszynie – wszystko to powoli zmienia jakość obrazu i wiarygodność decyzji.

Warte uwagi:  Przykłady wdrożeń automatyki w zakładach przemysłu ciężkiego

Plan utrzymania ruchu dla systemu wizyjnego powinien być tak samo konkretny, jak dla każdej innej maszyny. Zazwyczaj obejmuje:

  • regularne czyszczenie optyki (z odpowiednimi środkami i procedurą, by nie zniszczyć powłok);
  • okresowe sprawdzanie i dokręcanie mocowań kamer i oświetlenia;
  • kontrolę intensywności oświetlenia (np. poprzez referencyjne zdjęcia lub wbudowane sensory);
  • kopie zapasowe konfiguracji i modeli, testowane co jakiś czas na osobnej maszynie;
  • przegląd logów błędów i statystyk odrzuceń pod kątem anomalii lub dryftów.

Przydatnym narzędziem staje się prosty „zestaw walidacyjny”: kilka wzorcowych detali (dobrych i złych), przechowywanych w kontrolowanych warunkach. Raz na określony czas przeprowadza się na nich test referencyjny: system powinien zaklasyfikować je dokładnie tak samo, jak w chwili odbioru. Odchylenia od tej referencji mogą sygnalizować konieczność przeglądu lub ponownej kalibracji.

Organizacyjnie pomaga wyznaczenie „właściciela” systemu – osoby lub zespołu, który odpowiada za jego kondycję. Dzięki temu zgłoszenia z produkcji nie rozmywają się pomiędzy utrzymaniem ruchu, automatyką, IT i działem jakości.

Szacowanie opłacalności i całkowitego kosztu posiadania

Decyzje o wdrożeniu systemu wizyjnego często zapadają na podstawie bazowych kalkulacji: koszt kamery, oświetlenia, integracji i okresu zwrotu wynikającego z ograniczenia reklamacji. Rzeczywistość jest bogatsza i wymaga spojrzenia na system przez pryzmat całkowitego kosztu posiadania (TCO).

W prostym modelu TCO uwzględnia się:

  • koszty inwestycyjne: sprzęt, inżynieria, oprogramowanie, mechanika, testy;
  • koszty operacyjne: energia, części zamienne (oświetlenie, obiektywy), przeglądy;
  • koszty związane z kompetencjami: szkolenia operatorów i inżynierów, czas na analizę raportów;
  • koszty zmian: dostosowania do nowych produktów, modyfikacje algorytmów, nowe etykiety dla modeli ML;
  • potencjalne koszty przestojów wynikających z awarii lub błędnie zaprojektowanego interfejsu.

Po stronie korzyści znajdują się nie tylko mniejsze straty na złomie czy mniej reklamacji, ale także:

  • redukcja zależności od manualnej kontroli (problemy ze znalezieniem ludzi do monotonnej pracy);
  • lepsza powtarzalność decyzji jakościowych między zmianami i zakładami;
  • lepsza widoczność procesu – szybciej wychwytywane trendy pogarszającej się jakości;
  • argument marketingowy wobec wymagających klientów (przejrzysta ścieżka audytu).

W jednym z zakładów produkcyjnych najbardziej przekonującym argumentem nie okazała się redukcja reklamacji (ich i tak było niewiele), lecz fakt, że system wizyjny pozwolił znacząco przyspieszyć linię przy zachowaniu tego samego poziomu ryzyka jakościowego. To skrócenie cyklu zwróciło inwestycję szybciej niż zakładano.

Typowe scenariusze porażek i jak ich unikać

Patrząc na projekty, które zakończyły się rozczarowaniem, powtarza się kilka schematów. Zamiast traktować je jako anegdoty, lepiej wyciągnąć z nich konkretne wnioski.

  • Zbyt optymistyczne założenia co do jakości obrazu
    System został zaprojektowany „na czystych zdjęciach z biura projektowego”, bez symulacji rzeczywistego zapylenia, drgań czy zabrudzeń na szybie ochronnej. Po kilku tygodniach pracy algorytm nie radzi sobie z pogorszonym kontrastem. Lekarstwem jest prototypowanie na linii, z zapasem na gorsze scenariusze i świadomie dobranymi marginesami jakości obrazu.
  • Próba rozwiązania problemów procesowych „kamerą”
    Zamiast ustabilizować sam proces (np. pozycjonowanie detalu, czystość powierzchni, tolerancje mechaniczne), próbuje się kompensować jego zmienność coraz bardziej skomplikowanymi algorytmami. Kończy się to systemem wrażliwym na drobiazgi i trudnym w utrzymaniu. Zdrowsze podejście: najpierw uporządkować proces, potem dobrać prosty system wizyjny.
  • Brak właściciela definicji wady
    Różne działy mają inne podejście do akceptowalnych defektów. Brak jednoznacznej definicji powoduje, że system jest ciągle „zły”, bo raz przepuszcza coś, co zdaniem jednych jest nie do przyjęcia, a raz odrzuca coś, co inni uważają za akceptowalne. Rozwiązaniem jest formalne uzgodnienie kryteriów jakościowych, najlepiej z udziałem klienta końcowego.
  • Niedoszacowanie utrzymania i szkoleń
    Założenie, że „system będzie działał sam”, bez realnego planu przeglądów i szkoleń nowych pracowników, prowadzi do stopniowego „psucia się” wyników. Po pewnym czasie nikt już nie pamięta, jak wyglądał stan wyjściowy. Pomagają krótkie, powtarzane szkolenia i jasny harmonogram prac serwisowych.

Jak rozsądnie zacząć: podejście iteracyjne

Zamiast próbować w pierwszym kroku zautomatyzować całą kontrolę jakości dla skomplikowanego produktu, lepiej zacząć od ograniczonego, dobrze zdefiniowanego problemu. Może to być pojedynczy typ defektu (np. brak elementu, niewłaściwa pozycja, uszkodzony nadruk) lub jeden kluczowy etap procesu.

Praktyczne podejście iteracyjne można streścić w kilku punktach:

  • wybór jednego, krytycznego dla klienta parametru lub wady, którą dziś trudno stabilnie kontrolować ręcznie;
  • prosty prototyp na linii, nawet z wykorzystaniem uniwersalnego oprogramowania, bez pełnej integracji – celem jest zrozumienie, czy da się uzyskać powtarzalny obraz;
  • krótkie cykle poprawkowe: kilka dni testów, analiza wyników, korekty oświetlenia, optyki, algorytmów;
  • dopiero po ustabilizowaniu jednego zadania – rozbudowa systemu o kolejne punkty inspekcji lub typy wad.

Najczęściej zadawane pytania (FAQ)

Do czego najczęściej wykorzystuje się systemy wizyjne w kontroli jakości?

Systemy wizyjne najczęściej stosuje się do zadań, w których liczy się powtarzalny, szybki i obiektywny pomiar lub ocena wyglądu. Typowe zastosowania to m.in. kontrola wymiarów (średnice, długości, kąty, odległości), sprawdzanie położenia elementów oraz weryfikacja, czy wszystkie części są obecne i poprawnie zmontowane.

Bardzo często system wizyjny czyta i sprawdza oznaczenia (kody kreskowe, kody 2D, numery seryjne, daty ważności), kontroluje etykiety i opakowania (treść, wyrównanie, odpowiednie kombinacje kodów i dat) oraz wykrywa wyraźne defekty powierzchni, takie jak rysy, pęknięcia, odpryski czy zabrudzenia w określonych strefach.

Jakie wady produkty najtrudniej wykryć systemem wizyjnym?

Największym wyzwaniem są defekty „subtelne” i trudno mierzalne, które człowiek często ocenia „na oko”: delikatne zmiany połysku, miękkie przejścia tonalne, rozproszone drobne zadrapania na chropowatych powierzchniach czy ogólne „wrażenie gorszej jakości”. Tego typu wady nie mają jednoznacznych granic i wysokiego kontrastu.

Ich skuteczne wykrywanie wymaga bardzo starannego doboru optyki, oświetlenia oraz bardziej zaawansowanych algorytmów (w tym często uczenia maszynowego). Konieczne jest też przygotowanie dobrze opisanych danych referencyjnych, czyli dużej liczby przykładów wyrobów dobrych, wadliwych i tzw. „granicznych”, które pozwolą zdefiniować, gdzie dokładnie przebiega linia akceptacji.

Czy system wizyjny może całkowicie zastąpić kontrolera jakości?

System wizyjny w praktyce rzadko w 100% zastępuje człowieka. Jego rolą jest przejęcie możliwie dużej części rutynowych, powtarzalnych zadań – takich jak pomiary, liczenie elementów, sprawdzanie obecności części czy odczyt kodów – oraz zapewnienie stabilnej, obiektywnej kontroli na dużych wolumenach.

Człowiek pozostaje potrzebny przy ocenach granicznych, nietypowych przypadkach, interpretacji trudnych wad i podejmowaniu decyzji biznesowych (np. o dopuszczeniu partii przy niskim ryzyku defektu). Najlepsze efekty daje „mądra współpraca” – automat filtruje zdecydowaną większość przypadków, a kontroler skupia się na tych, które wymagają doświadczenia i szerszego kontekstu.

Dlaczego wdrożenie systemu wizyjnego często kończy się rozczarowaniem?

Typową przyczyną rozczarowania są niejasno zdefiniowane kryteria jakości. Jeśli firma nie ma precyzyjnie opisanych wad (np. długości i szerokości rysy, położenia, dopuszczalnej liczby defektów na powierzchni), to trudno przełożyć „intuicję” doświadczonego kontrolera na reguły algorytmu. W efekcie pojawiają się spory: „dlaczego system odrzucił ten element, skoro człowiek by go przepuścił?”.

Drugim częstym problemem jest niedoszacowanie wymagań sprzętowych – zbyt mała rozdzielczość matrycy, źle dobrane obiektywy, niewłaściwe lub niestabilne oświetlenie. Wtedy system fizycznie „nie widzi” tego, czego oczekuje od niego technologia, co skutkuje dużą liczbą fałszywych odrzutów lub przepuszczonych wad.

Czy sztuczna inteligencja w systemach wizyjnych sama „nauczy się” wad?

Algorytmy oparte na uczeniu maszynowym nie działają „magicznie”. Wymagają odpowiednio dużego i dobrze opisanego zbioru przykładów (zarówno poprawnych, jak i wadliwych wyrobów), a także stabilnych warunków pracy – takich jak oświetlenie, ustawienie kamery czy zakres zmienności produktu zbliżony do tego, na którym model był trenowany.

Bez spełnienia tych warunków system staje się nieprzewidywalny: potrafi inaczej klasyfikować bardzo podobne przypadki, a zespół produkcyjny traci do niego zaufanie. Niezbędny jest też zaplanowany etap „docierania” – regularne weryfikowanie decyzji systemu, uzupełnianie bazy danych o nowe przykłady i okresowe dostrajanie modelu.

Jakie są typowe błędy przy doborze sprzętu do systemu wizyjnego?

Najczęstsze błędy to zbyt mała rozdzielczość kamery względem wymaganej wielkości wykrywanej wady (np. wada „mniejsza niż piksel”) oraz oszczędzanie na optyce i oświetleniu. Jeśli piksel jest fizycznie większy niż poszukiwana rysa czy wtrącenie, system nie ma żadnych szans, by je wykryć – to ograniczenie wynika z samej fizyki obrazowania, a nie z „inteligencji” algorytmu.

Kolejny problem to źle zaprojektowane oświetlenie: nieodpowiedni kąt padania światła, zbyt duże odbicia, brak kontrastu między wadą a tłem lub brak stabilizacji natężenia w czasie. Ponieważ system wizyjny opiera się na różnicy jasności/koloru między obszarem dobrym i wadliwym, słaby kontrast bezpośrednio przekłada się na błędne klasyfikacje.

Jak przygotować kryteria jakości pod system wizyjny w kontroli?

Dobrym startem jest warsztat z udziałem technologów, działu jakości i doświadczonych kontrolerów, podczas którego analizuje się realne części – zarówno dobre, jak i wadliwe. Dla każdej wady warto zdefiniować mierzalne parametry: np. długość, szerokość, położenie względem krawędzi, liczbę dopuszczalnych wad na powierzchni czy minimalny kontrast względem tła.

W obszarach, gdzie nie da się uniknąć uznaniowości, pomocne jest przygotowanie fizycznych lub fotograficznych „próbek wzorcowych” – zestawów przykładów: akceptowalne, graniczne, do odrzutu. Takie doprecyzowanie standardów jakości nie tylko ułatwia wdrożenie systemu wizyjnego, ale często porządkuje cały proces kontroli w firmie i zmniejsza liczbę sporów między produkcją a jakością.

Najważniejsze lekcje

  • Systemy wizyjne są dziś kluczowym narzędziem kontroli jakości, bo zapewniają powtarzalność, dużą wydajność i rejestrację danych, której nie jest w stanie zagwarantować kontrola ręczna.
  • Sama instalacja kamery i oprogramowania nie wystarczy – system wizyjny trzeba traktować jak element procesu technologicznego, z jasno określonym zadaniem, ograniczeniami i wymaganiami technicznymi.
  • Najlepiej sprawdzają się w zadaniach „twardych”: pomiarach wymiarów i położeń, kontroli kompletności, odczycie oznaczeń, wykrywaniu wyraźnych defektów powierzchni oraz kontroli etykiet i opakowań.
  • Wykrywanie subtelnych, „miękkich” wad (np. lekkie zmiany połysku, rozproszone zarysowania) jest możliwe, ale wymaga znacznie staranniejszego doboru optyki, oświetlenia, algorytmów i dobrej bazy danych referencyjnych.
  • Rozwiązania oparte na sztucznej inteligencji nie działają „magicznie” – potrzebują dużej, dobrze opisanej bazy przykładów, stabilnych warunków pracy i regularnej weryfikacji decyzji, inaczej stają się nieprzewidywalne.
  • Każdy system wizyjny wymaga fazy „docierania” (zbierania przykładów, dostrajania progów, korekty reguł); pominięcie tego etapu prowadzi do frustracji operatorów i wyłączania systemu z użycia.
  • Najlepsze rezultaty daje współpraca człowieka z systemem wizyjnym: automat przejmuje rutynową kontrolę, ale człowiek pozostaje niezbędny przy ocenie przypadków granicznych i nietypowych.