Przemysłowe przetwarzanie obrazu przechodzi głęboką transformację. Kamery 3D, sztuczna inteligencja czy duża moc obliczeniowa w urządzeniach dają nowe możliwości w wielu zastosowaniach. Technologiczne nowinki obejmują również samodzielnie działające maszyny mobilne, takie jak autonomiczne pojazdy transportowe czy roboty.
Postęp technologiczny w kamerach przemysłowych to rozszerzona rozdzielczość, zwiększona szybkość, podwyższona światłoczułość i precyzyjne informacje podawane w trzech wymiarach, co zapewnia coraz lepsze wyniki, ale generuje jeszcze większe ilości danych. Dlatego właśnie to kamery są podstawą przemysłowego przetwarzania obrazu. Informacje dostarczane z tych urządzeń muszą zostać jednak właściwie przetworzone przez kolejny sprzęt w celu wyodrębnienia tylko konkretnych danych niezbędnych dla analizowanego procesu.
Gigantyczny zbiór danych
Ze względu na bardzo duże ilości informacji, wykorzystywany do przetwarzania sprzęt musi charakteryzować się bardzo dużą wydajnością. Istotne jest też zadecydowanie, gdzie dokładnie ma nastąpić obróbka obrazu lub wstępne przetwarzanie danych. W ostatnich latach popularnym rozwiązaniem było wstępne przetwarzanie informacji bezpośrednio w aparacie, dzięki czemu ilość danych do dalszego przesłania ulegała znacznej redukcji. Jednak takie działanie było nieekonomiczne, bo wiązało się z olbrzymimi kosztami, zwłaszcza w zastosowaniach wymagających kilku systemów kamer, a więc między innymi w diagnostyce, logistyce, robotyce czy automatyce.
Jednym z najważniejszych przypadków użycia jest robotyka mobilna, która świetnie ilustruje zakres wymagań dotyczących obrazowania przemysłowego i instalowania odpowiedniej technologii czujników. Wykorzystywane w niej autonomiczne pojazdy, transportujące na przykład towary pomiędzy konkretnymi punktami wewnątrz magazynu, używają kilku czujników o różnych zasadach działania. Oprócz kamer RGB stosowane są skanery laserowe, czujniki radarowe czy sensory ultradźwiękowe. Wszystkie mają symulować niejako zmysły narządów ruchomej maszyny. Fuzja danych z czujników, w której dodatkowe informacje uzyskuje się z połączenia informacji z wielu urządzeń stanowi jednak ogromne wyzwanie dla użytkowników i sprzętu za sprawą ich skomplikowanej synchronizacji.
Potężna moc obliczeniowa
Odpowiedzią na taki stan rzeczy jest nowa platforma sprzętowa O3R od ifm electronic, która oferuje idealne rozwiązanie dla takich aplikacji. To zastosowanie, dzięki wyrafinowanemu środowisku oprogramowania, bogatemu wachlarzowi narzędzi programowych i interfejsów, jednocześnie ułatwia programistom zarówno fazę początkową, jak i seryjną, obróbki danych i obrazu. Jego centralnym elementem jest urządzenie, które zapewnia nie tylko wysoką moc obliczeniową, ale też możliwość łatwego podłączenia do sześciu kamer 3D oraz podłączenia szerokiej gamy czujników.
– Połączenie kamery odbywa się za pośrednictwem łącza FDP (Flat Panel Display Link), interfejsy GigE są dostępne dla innych czujników, zaś interfejsy CAN zapewniają łatwą integrację z systemem danego robota mobilnego. Podstawą sprzętową jest wydajny system Linux wyposażony w procesor wideo NVIDIA. Wydajność jest skalowalna, dzięki czemu można ją dostosować do danej aplikacji. Co więcej, za sprawą dostępnych sterowników, taki system można bardzo łatwo zintegrować z zainstalowanymi już w parku maszyn aplikacjami – wymienia Jarosław Szmalc, Inżynier Projektu / Systemy wizyjne ifm electronic.
Sieć sztucznej inteligencji
Ponieważ nowa koncepcja O3R przenosi obróbkę obrazu do urządzenia zewnętrznego, prawie żadne przetwarzanie danych nie jest wymagane w kamerze. W efekcie można stosować kilka różnych i niedrogich aparatów lub wysoce specjalistyczne głowice kamer, które zawierają czujniki 3D lub kombinację czujników 3D i 2D o różnych kątach przysłony bądź rozmaitych rozdzielczościach.
Duża moc obliczeniowa oparta na systemie Linux pozwala na wdrożenie innowacyjnych sieci nieszablonowych implementacji. Na tej wydajności opierają się w szczególności aplikacje sztucznej inteligencji (AI), które odgrywają coraz ważniejszą rolę w obrazowaniu przemysłowym. Przykładowo sieci neuronowe można zaimplementować do zastosowań przetwarzania obrazu, co nie byłoby możliwe przy użyciu konwencjonalnych metod algorytmicznych.
Obraz efektywnej opłacalności
Te metody „głębokiego (samodzielnego) uczenia” (Deep Learning) można wykorzystać na przykład do poprawy orientacji autonomicznych robotów (pojazdów) mobilnych (AMR). Dzięki stosowanemu do tego celu procesowi slammingu (Simultaneous Localization and Mapping), maszyna potrafi niezwykle precyzyjnie zlokalizować swoje położenie względem otaczającej przestrzeni. Poruszając się w tym środowisku, może również za sprawą mappingu tworzyć mapę swojego otoczenia. Wykorzystanie nowoczesnej platformy O3R w sztucznej inteligencji oznacza, że system sam symuluje dokładnie taką metodę, której człowiek użyłby do rozwiązania tego zadania, ale robi to w ekspresowym tempie.
Nowa platforma O3R nie tylko umożliwia zastosowanie innowacyjnych aplikacji do przetwarzania obrazu, ale jednocześnie obniża koszty takich rozwiązań. Otwiera to nowe perspektywy wykorzystania autonomicznych robotów mobilnych w zastosowaniach, które wcześniej były wykluczane ze względu na duże środki do wydatkowania. Eksperci są pewni, że w przyszłości w oparciu o platformę O3R powstanie kompletny pakiet rozwiązań dla niemal wszystkich dziedzin naszego życia, co przełoży się na olbrzymie oszczędności.