W naszym świecie, każde narzędzie badawcze, każda technologia, pełni unikalną rolę, pozwalając nam zgłębiać tajemnice Wszechświata. Podobnie jak teleskop Hubble’a otworzył nasze oczy na nieznane wcześniej zakątki kosmosu, tak obrazowanie wielospektralne i hiperspektralne pozwala nam dostrzec to, co jest ukryte przed naszymi zmysłami w codziennym życiu. Aby zrozumieć różnicę między obrazowaniem wielospektralnym, a tradycyjną fotografią, warto spojrzeć na nie przez pryzmat ich wyjątkowych właściwości i zastosowań.

Fotografia tradycyjna jest jak podróż w czasie do chwili, gdy światło w postaci trzech podstawowych kolorów – czerwonego, zielonego i niebieskiego – zostaje uchwycone przez matrycę aparatu. Jest to okno do świata widzialnego, światła, które nasze oczy potrafią zinterpretować, zamieniając je w obrazy, które możemy zrozumieć i podziwiać. Tradycyjna fotografia jest doskonała w uchwyceniu tego jak my sami widzimy świat, przedstawiając ją modelu przestrzennym barw RGB (Red-Green-Blue).

Jednak obrazowanie spektralne to podróż znacznie głębsza i bardziej wszechstronna. To jakbyśmy założyli okulary, które pozwalają nam widzieć świat w sposób, który byłby niewyobrażalny dla naszych przodków. W przeciwieństwie do fotografii tradycyjnej, obrazowanie wielospektralne rejestruje światło w wielu różnych pasmach spektralnych, od ultrafioletu, przez światło widzialne, aż po czerwień krawędziową i podczerwień. Każde z tych pasm niesie ze sobą unikalne informacje o badanym obiekcie – jego strukturze, składzie chemicznym, temperaturze.

Technologia obrazowania spektralnego ma swoje korzenie w badaniach prowadzonych od połowy XX wieku, kiedy rozwijano metody fotogrametrii i teledetekcji. Pierwsze zastosowania obejmowały głównie obserwacje atmosfery i powierzchni Ziemi z wykorzystaniem satelitów.

W latach 60. i 70. NASA rozpoczęła intensywne prace nad obrazowaniem wielospektralnym, co zaowocowało powstaniem programu Landsat – najdłużej trwającej serii misji obserwacji Ziemi. Satelity Landsat rejestrują dane w wielu pasmach spektralnych, od światła widzialnego po bliską i termalną podczerwień.

Instrumenty te, takie jak OLI (Operational Land Imager) i TIRS (Thermal Infrared Sensor) w Landsat 8, wykorzystują filtry optyczne i elementy dyfrakcyjne do precyzyjnego rozdzielania światła na poszczególne długości fal. Każde zarejestrowane pasmo niesie unikalne informacje o właściwościach powierzchni – jej składzie, wilgotności, temperaturze i strukturze. Dane z Landsat odegrały kluczową rolę w monitorowaniu zmian środowiskowych, deforestacji i użytkowania gruntów, stając się fundamentem współczesnej teledetekcji.

Spektrometry satelitarne rozszczepiają światło na wiele wąskich pasm spektralnych, umożliwiając szczegółową analizę właściwości fizycznych i chemicznych obserwowanych obiektów. Przykładem instrumentu działającego w podobny sposób jest MODIS (Moderate Resolution Imaging Spectroradiometer), zainstalowany na satelitach Terra i Aqua. MODIS rejestruje dane w 36 pasmach spektralnych, obejmujących zakres od światła widzialnego po termalną podczerwień, z rozdzielczością przestrzenną od 250 m do 1 km. Dane te stanowią podstawę globalnych analiz klimatycznych, obserwacji dynamiki ekosystemów, monitorowania chmur, aerozoli oraz zmian pokrywy lądowej i oceanicznej.

Systemy hiperspektralne rejestrują dane w setkach, a w zastosowaniach laboratoryjnych nawet w tysiącach bardzo wąskich pasm spektralnych. Dzięki temu możliwe jest uzyskanie wyjątkowo szczegółowych informacji o składzie i właściwościach obserwowanych obiektów. Taka rozdzielczość spektralna pozwala na precyzyjną identyfikację materiałów – zarówno na powierzchni lądów, jak i w środowisku wodnym. Przykładem zaawansowanych systemów hiperspektralnych są HICO (Hyperspectral Imager for the Coastal Ocean) oraz HISUI (Hyperspectral Imager Suite), umieszczone na pokładzie Międzynarodowej Stacji Kosmicznej (ISS).

HICO umożliwiał szczegółową analizę optycznych właściwości wód przybrzeżnych, wspomagając ocenę jakości wody, badanie zakwitów fitoplanktonu oraz monitorowanie zanieczyszczeń. Z kolei HISUI dostarcza danych o wysokiej jakości spektralnej, wykorzystywanych w analizach środowiskowych i badaniach zasobów naturalnych.

Ciekawostką jest, że już pierwsze obrazy z satelitów Landsat pozwalały rozróżniać typy roślinności i gleby dzięki analizie ich charakterystyk spektralnych — co zapoczątkowało rozwój rolnictwa precyzyjnego.

Równie interesującym zastosowaniem jest wykorzystanie systemów hiperspektralnych do monitorowania raf koralowych, co umożliwia ocenę stanu ich zdrowia i identyfikację obszarów zagrożonych blaknięciem koralowców.

Satelitarne obrazowanie wielo- i hiperspektralne znajduje dziś zastosowanie w rolnictwie, ochronie środowiska, geologii, analizach klimatycznych oraz planowaniu przestrzennym. Dzięki możliwości obserwacji w wielu pasmach spektralnych technologie te dostarczają cennych danych dla naukowców, rolników, urbanistów i decydentów na całym świecie.

Pozwalają one monitorować naszą planetę z niespotykaną wcześniej precyzją, przyczyniając się do lepszego zrozumienia procesów zachodzących na Ziemi i wspierając podejmowanie świadomych decyzji dotyczących ochrony środowiska oraz zarządzania zasobami naturalnymi.W ostatnich latach drony zdobyły ogromną popularność, znajdując zastosowanie w różnych dziedzinach, od fotografii i filmowania, po rolnictwo precyzyjne i monitorowanie środowiska. Równolegle rozwijają się autonomiczne pojazdy lądowe, które również mogą być wyposażone w kamery wielospektralne, dostarczając cennych danych w miejscach trudno dostępnych dla innych technologii. Te innowacje technologiczne zmieniają sposób, w jaki zbieramy i analizujemy informacje o naszym otoczeniu.

Obrazowanie wielospektralne przy użyciu dronów i pojazdów lądowych różni się znacząco od obrazowania satelitarnego zarówno pod względem technicznym, jak i operacyjnym.

Satelity orbitują na wysokości kilkuset kilometrów nad Ziemią, co umożliwia jednoczesne obserwacje bardzo dużych obszarów. Typowa rozdzielczość przestrzenna systemów takich jak Landsat czy Sentinel-2 wynosi od 10 do 30 metrów na piksel, co jest wystarczające do monitorowania procesów w skali krajobrazu, ale niewystarczające do analizy drobnych struktur.

Drony działają na wysokości od kilkudziesięciu do kilkuset metrów, natomiast pojazdy lądowe – bezpośrednio na powierzchni terenu. Dzięki temu mogą uzyskiwać obrazy o znacznie wyższej rozdzielczości, sięgającej nawet kilku centymetrów na piksel.

Tak wysoka szczegółowość danych jest nieoceniona w rolnictwie precyzyjnym, gdzie wymagane są dokładne informacje o kondycji roślin, wilgotności gleby, a także o obecności chorób i szkodników. Drony wyposażone w kamery wielospektralne lub hiperspektralne (np. RedEdge, Sequoia, Nano-Hyperspec) umożliwiają bieżące monitorowanie pól uprawnych, łącząc wysoką rozdzielczość przestrzenną z elastycznością działania.

Koszty operacyjne i dostępność technologii stanowią istotne czynniki różniące obrazowanie satelitarne od niskopułapowego. Budowa, wyniesienie i utrzymanie satelity to przedsięwzięcia o bardzo wysokich kosztach, a komercyjne dane satelitarne mogą być kosztowne w pozyskaniu. Jednak w ramach niektórych programów, takich jak Landsat czy Sentinel, dane są udostępniane bezpłatnie w modelu otwartego dostępu.

Z kolei zakup i eksploatacja dronów oraz pojazdów lądowych są relatywnie tańsze, a technologie te stają się coraz bardziej dostępne dla mniejszych firm, instytucji badawczych i użytkowników indywidualnych.

Obrazowanie spektralne z użyciem dronów i systemów naziemnych oferuje wyższą rozdzielczość przestrzenną, większą elastyczność operacyjną i niższe koszty, podczas gdy satelity zapewniają szerokie pokrycie geograficzne i możliwość długoterminowego monitorowania zjawisk w skali globalnej.

W praktyce oba podejścia są komplementarne – dane satelitarne dostarczają kontekstu przestrzennego, a dane dronowe i naziemne zapewniają szczegółową walidację i wysoką rozdzielczość lokalną. Wybór między nimi zależy od celów badania i wymaganej skali analizy.

Każda z tych technologii ma swoje unikalne zalety, które można wykorzystać w różnorodnych dziedzinach – od rolnictwa precyzyjnego, przez ochronę środowiska, po planowanie miejskie – dostarczając cennych informacji wspierających podejmowanie decyzji i zrównoważone zarządzanie zasobami Ziemi.

Kamery spektralne są wyposażone w specjalne matryce detektorów, które rejestrują światło w kilku lub kilkunastu odrębnych pasmach spektralnych. Każdy detektor odpowiada za rejestrację światła w określonym zakresie długości fal.

W tego typu systemach stosuje się filtry optyczne przepuszczające tylko wybrane zakresy widma elektromagnetycznego. Filtry mogą być zintegrowane z matrycą detektorów (np. w formie mozaiki) lub umieszczone przed obiektywem kamery w postaci wymiennego modułu lub koła filtrów.

Podczas lotu dron z kamerą wielospektralną rejestruje obrazy w poszczególnych pasmach, typowo obejmujących zakresy światła widzialnego (czerwony, zielony, niebieski) oraz niewidzialnego (bliska podczerwień, średnia podczerwień, ultrafiolet).

Obrazy z różnych pasm są następnie precyzyjnie rejestrowane i łączone (fuzja danych) w celu utworzenia złożonego obrazu wielospektralnego. Proces ten wymaga dokładnego dopasowania przestrzennego (co-registration), aby każdy piksel odpowiadał temu samemu punktowi na powierzchni Ziemi.

Analiza spektralna wykorzystuje również różne indeksy wegetacyjne, umożliwiają one m.in. ilościową ocenę kondycji roślin i zmian w czasie, bazują one na pomiarze odbicia poszczególnych pasm promieniowania elektromagnetycznego.

Światło słoneczne to promieniowanie elektromagnetyczne o różnych długościach fal. Rośliny wykorzystują tylko jego część – głównie światło niebieskie i czerwone – do przeprowadzania fotosyntezy, czyli procesu, w którym chlorofil przekształca energię światła w energię chemiczną.

Chlorofil pochłania bardzo silnie niebieskie (ok. 430–470 nm) i czerwone (ok. 640–680 nm) fale, ponieważ to one napędzają fotosyntezę.

Słabo pochłania natomiast światło zielone (ok. 520–560 nm), dlatego rośliny wydają się nam zielone – właśnie to światło jest przez nie najsilniej odbijane w zakresie widzialnym.

Tuż za czerwienią znajduje się tzw. czerwona krawędź (Red Edge, ok. 700–740 nm) – to obszar, w którym odbicie gwałtownie wzrasta. Jest on niezwykle czuły na zmiany zawartości chlorofilu, dlatego wiele nowoczesnych wskaźników roślinności (bazuje właśnie na tym paśmie.

W bliskiej podczerwieni (NIR, ok. 750–1300 nm) chlorofil już nie pochłania światła, więc o odbiciu decyduje struktura wewnętrzna liścia. Zdrowe, dobrze uwodnione liście odbijają tu bardzo dużo światła, natomiast rośliny uschnięte lub chore – znacznie mniej.

Wskaźniki roślinności stanowią jedno z najpotężniejszych narzędzi współczesnej obserwacji Ziemi. Łączą w sobie prostotę matematyki z głębią biologicznego znaczenia, pozwalając „zajrzeć” w kondycję roślin bez konieczności dotykania ich liści.

Każdy z indeksów spektralnych pełni określoną rolę – jedne skupiają się na chlorofilu, inne na strukturze liści, wodzie czy pigmentach ochronnych. Wspólnie tworzą język, którym rośliny „komunikują się” z badaczami poprzez odbite światło.

Właśnie w tej subtelnej grze promieniowania i biologii kryje się piękno obrazowania spektralnego – nauka zamienia tu światło w wiedzę, a każdy wskaźnik staje się historią opowiadaną przez rośliny o ich życiu, zdrowiu i przystosowaniu do środowiska.

Obecnie wśród naukowców zajmujących się badania związanymi z roślinami zdecydowanie gorącym zagadnieniem jest wykorzystanie analizy wielospektralnej, czego dowodem jest coraz większa ilość publikacji na ten temat. Publikacja poniżej to tylko jeden z wielu naprawdę ciekawych przykładów jak już teraz ta technologia wręcz wyważa drzwi do stania się podstawowym narzędziem badawczym.

Jednym z pierwszych dronów zintegrowanych fabrycznie z kamerą wielospektralną, oczywiście bez żadnego dostarczenia był produkt od marki DJI. Model Phantom 4 Multispectral umożliwił łatwy dostęp do tej technologii wszystkim na całym świecie, bez nacisku na budowanie własnej bazy w postaci drona, dobieranie do niego aparaty, systemów łączności/wizji, a w dodatku zakupu jeszcze oddzielnie kamery wielospektralnej, co generowało ogromne koszty i wymagało bardzo specjalistycznej wiedzy.

Model ten obecnie to już jednak przeszłość i ma swojego następcę w postaci DJI Mavic 3 Multispectral. To zaawansowany dron wyposażony w technologię wielospektralną, zaprojektowany z myślą o profesjonalnych zastosowaniach w rolnictwie precyzyjnym, ochronie środowiska i badaniach naukowych. Posiada pięć kamer wielospektralnych, które rejestrują obrazy w pasmach zielonym (560 nm ± 16 nm), czerwonym (650 nm ± 16 nm), Red Edge (730 nm ± 16 nm) i bliskiej podczerwieni (860 nm ± 26 nm), oraz jedną kamerę RGB z matrycą 20 MP i 4/3 CMOS. Dzięki systemowi RTK (Real-Time Kinematic), dron zapewnia precyzyjne pozycjonowanie z dokładnością do centymetra, wspierane przez GNSS (Global Navigation Satellite System). Maksymalny czas lotu wynosi do 43 minut, co umożliwia długotrwałe misje inspekcyjne i monitoringowe. Zasięg transmisji sięga do 15 km dzięki technologii O3 (OcuSync 3.0), zapewniając stabilne połączenie nawet na dużych odległościach. Dron jest kompatybilny z oprogramowaniem DJI Terra i DJI SmartFarm Platform, co umożliwia zaawansowaną analizę danych i tworzenie map, a także wspiera API, co ułatwia integrację z różnymi systemami zarządzania rolnictwem i środowiskiem.

Jedną z najbardziej zauważalnych różnic pomiędzy Phantomem 4 Multispectral a jego następcą – DJI Mavic 3 Multispectral – jest brak pasma niebieskiego (Blue) w zestawie sensorów nowego modelu. Na pierwszy rzut oka może to wydawać się zaskakujące, ponieważ właśnie niebieskie i czerwone światło są kluczowe dla fotosyntezy, czyli procesu, w którym chlorofil pochłania energię promieniowania i zamienia ją w energię chemiczną. W praktyce jednak decyzja DJI wynikała nie z ograniczeń technologicznych, ale z celowego dostosowania drona do potrzeb rolnictwa precyzyjnego.

Phantom 4 Multispectral wyposażony był w pięć pasm spektralnych: Blue (450 nm), Green (560 nm), Red (650 nm), Red Edge (730 nm) oraz Near Infrared (840 nm). Taki zestaw pozwalał na prowadzenie zaawansowanych analiz środowiskowych i naukowych, a także na obliczanie wskaźników wymagających niebieskiego pasma – takich jak EVI czy ARVI, które uwzględniają wpływ atmosfery i aerozoli. Dzięki temu Phantom 4 był narzędziem o charakterze bardziej badawczym, wykorzystywanym również w projektach środowiskowych czy edukacyjnych.

Z biologicznego punktu widzenia niebieskie światło rzeczywiście odgrywa ważną rolę – jest silnie pochłaniane przez chlorofil a i b, a jego odbicie może dostarczać informacji o stresie świetlnym roślin. W praktyce jednak pomiar tego pasma z niskiego pułapu jest trudny technicznie: niebieskie fale są krótsze i bardziej rozpraszane w atmosferze (efekt Rayleigha), sygnał jest słabszy i bardziej podatny na zmiany oświetlenia, a małe czujniki dronowe mają niższy stosunek sygnału do szumu w tym zakresie. W rezultacie dane z pasma niebieskiego często wprowadzały więcej zakłóceń niż użytecznej informacji, utrudniając kalibrację i obróbkę. Dlatego w Mavicu 3 Multispectral DJI postawiło na cztery pasma, które zapewniają największą dokładność i stabilność pomiarów przy typowych warunkach polowych.

O wiele droższym rozwiązaniem jest zakup bazy w postaci drona DJI z serii Matrice, oczywiście wraz z aparaturą sterującą, a dodatkowo kamery wielospektralnej od innych producentów o wyższych rozdzielczościach, co generuje koszty nawet 4-5 krotnie wyższe, lecz zapewnia większą dokładność pomiarów.  Oczywiście bazą może być również inny dron, także innego typu jak chociażby senseFly eBee X.

Niestety nawet kiedy mamy już odpowiednie urządzenia do wykonania obrazowania wielospektralnego, potrzebujemy także specjalistycznego oprogramowania do analizy tych danych i uzyskania wskaźników roślinności, co też jest bardzo dużym kosztem.  Przykładami takiego oprogramowania jest bardzo popularne Pix4dfields, czy chociażby Aerobotics, Agisoft i DJI Terra

Zdecydowanie warto przyglądać się rozwojowi tej technologii, szczególnie biorąc pod uwagę jak szybko rozwijają się drony, autonomiczne pojazdy naziemne, roboty, obrazowanie wielospektralne wykonywane oczywiście również za pomocą satelit, ale też przede wszystkim oprogramowanie, które zapewne coraz mocniej będzie wykorzystywać postęp w sztucznej inteligencji, co zapewni lepsze narzędzia analityczne.