Sztuczna inteligencja i technologia. Nowy początek

Przedmowa

Obserwując obecny rozwój technologii, szczególnie sztucznej inteligencji jesteśmy świadkami skoku cywilizacyjnego na miarę wcześniej nie spotykaną w historii naszego gatunku. Szybkość rozwoju tej technologii następuje tak szybko, że większość osób żyjących na naszej planecie całkowicie sobie jeszcze nie zdaje z tego sprawy co tak naprawdę się dzieje. Postęp w rozwijaniu sztucznej inteligencji jasno sugeruje się, że jest to wzrost wykładniczy, ze względu jednak na to jak bardzo jest to dynamiczny wzrost jest oraz na jak wielu polach dziedzin występuje padają określenia „podwójny wzrost wykładniczy”, które jest już bardziej abstrakcyjnym określeniem służącym do podkreślenia złożoności sytuacji z jaką jeszcze nigdy nie mieliśmy do czynienia w dziejach ludzkości.

Czasami można odnieść wrażenie że wdrażanie nowoczesnych technologii do sektora uprawy roślin często następuje powolnie  i z opóźnieniem, obserwując jednak ostatnie kilka lat można podkreślić fakt, że dużo z tych agrotechnologii czeka w cieniu na odpowiednią okazję do zaistnienia. Dla wielu z nich kluczowym rozwiązaniem może się okazać wdrożenie dodatkowo szeroko pojętej sztucznej inteligencji, która wspomoże uzyskanie przez różnego rodzaju urządzenia autonomiczności wykonywania określanych czynności. Kluczowe dla postępu w agrotechnologii może się okazać również znaczne obniżenie kosztów na etapie jej tworzenia, ponieważ oczywiście i tutaj sztuczna inteligencja znacznie obniża koszty na wielu płaszczyznach, co szczególnie ważne jest w tym sektorze, ponieważ ze względu na jego specyfikę często firmy nie dysponują wystarczającymi środkami by efektywnie rozwijać swoje projekty i skutecznie je wdrażać. Można również spodziewać się w najbliższej przyszłości powstawania znacznie większej ilości StartUp co będzie zwiększać ilość dostępnych rozwiązań na rynku.

Jest to niewątpliwie szansa dla całej społeczności związanej z uprawą roślin, na wykonanie kolejnego skoku w kierunku zbudowania nowoczesnych systemów, a także dogonienie innych branż w wykorzystaniu najnowocześniejszych rozwiązań.

Z powodu jednak złożoności, szybkości rozwoju i obejmowania praktycznie wszystkich naszych aspektów życia, nie jesteśmy przewidzieć dokładnych skutków obecnych wydarzeń związanych z sztuczną inteligencją nawet rok do przodku, nie wspominając już o perspektywie kilku następnych lat. Jednocześnie podejmowane są ciągłe próby stworzenia pierwszego w historii komputera kwantowego, który potencjalnie może być kolejnym „game changer” dla naszego gatunku i tym razem otworzyć całkiem nowe możliwości również sztucznej inteligencji.

Do niedawna obecne wydarzenia były tylko fantazją w ludzkich umysłach, stały się jednak rzeczywistością, a powstające filmy futurystyczne związane z sztuczną inteligencją wydają się już nie tak wcale odległą wizją naszego świata. Najlepiej będzie to podsumować słowami „dożyliśmy ciekawych czasów”. 


Pozostaje nam się więc już tylko zanurzyć w fascynujący świat sztucznej inteligencji, a wraz z nią rozwijających się technologii.

Definicja i historia rozwoju

Nasz gatunek człowieka rozumnego (Homo sapiens) przypodobał sobie definiowanie wszystkiego co możliwe, niewątpliwie jest to całkowicie zrozumiałe, ponieważ jest to również przede wszystkim próba, zrozumienia wszystkiego co nas otacza. Przysparza nam to jednak wielu problemów związanych właśnie z tą czynnością. Nie inaczej jest z definicją sztucznej inteligencji, nad która dyskusja będzie się odbywać dopóki nasz sposób myślenia pozostanie niezmieniony, ponieważ taka jest po prostu nasza natura. Obecne dyskusje to jedynie więc zlepek opinii, myśli pojedynczych ludzi, którym się może co najwyżej jedynie wydawać, że mają rację. Dla poparcia tej tezy, warto przytoczyć jakiś argument np. definiowanie czasu, który pomimo posiadania pewnego opisu czy przypisanych mu cech nie wiemy tak naprawdę czym jest. Odwołując się do tematyki związanej z uprawą roślin, moglibyśmy powołać się na próbę definiowania biostymulatorów, dla których pomimo wielu prób, każda powstała definicja budzi szereg wątpliwości co do jej zasadności i jedynie z pobudek prawnych, który reguluje ten sektor musimy przyjmować określoną definicję.  Nie przyzwyczajałbym się więc do podanych poniżej definicji sztucznej inteligencji i traktował je jedynie jako aktualne opisy ułatwiające lepsze zrozumienie zagadnień związanych z AI. Niestety to dopiero początek problemów związanych z tym zagadnieniem, ponieważ możemy również kwestionować i dyskutować nad definicją „inteligencji” czy samej „świadomości”, które są przecież fundamentalne dla dyskusji nad AI. Wychodząc jednak z aury mało optymistycznego nastawienia do tego tematu, spróbujmy już na samym początku podać definicję pasującej zarówno do samej inteligencji jak i sztucznej inteligencji składającej się jedynie z 3 słów i brzmiąca „umiejętność dostrzegania analogii”. Teraz już na spokojnie możemy oddać się próbie odnalezienia się w szalenie skomplikowanej próbie definiowania sztucznej inteligencji. 

Obecnie  najczęściej słyszymy określenie sztuczna inteligencja, dla której powszechnie używany jest skrót „AI” utworzonym od słów z języka angielskiego „artificial intelligence”, wyrażenie to często jest w pewnym stopniu nadużywanie, służącym do określania wszystkiego co związane ze sztuczną inteligencją więc również m.in. maszynowym uczeniem (machine learning, ML), głębokim uczeniem (deep learning, DL), sieciami neuronowymi (neuron network, NN) i głębokimi sieciami neuronowymi (deep neuron network, DNN). Zanim przejdziemy do definiowania sztucznej inteligencji dla usystematyzowania wiedzy należy jednak zacząć od zdefiniowania jej składowych elementów. 

Uczenie maszynowe uważane jest obecnie za gałąź AI, skoncentrowanej na tworzeniu systemów, które szkoli się przy użyciu zbiorów danych mogących przybierać formę nie tylko tekstową ale również dźwięku czy obrazów. Proces uczenia się polega na opracowywaniu algorytmów, które umożliwiają odkrywanie wzorców w zbiorach danych, co umożliwia wykonywanie zadań bez konieczności programowania ich do wykonywania tych czynności. Podczas uczenia nadzorowanego, model trenowany jest na zestawie danych z etykietami, co znaczy, że dane zawierają również poprawne odpowiedzi. Uczenie nienadzorowane z kolei nie zawiera w bazie danych etykiet z poprawnymi odpowiedziami, a model samodzielnie próbuje zidentyfikować wzorce i relacje w danych. Uczenie ze wzmocnieniem, można porównać do szkolenia psów, algorytm uczy się podejmować decyzje poprzez wykonywanie określonych działań w wyniku których jest „nagradzany” lub „karany”, na tej podstawie uczy się podejmowania optymalnych działań. 

Sieci neuronowe często są przedstawiane jako fundament nowoczesnej sztucznej inteligencji, umożliwiający maszynom naśladowanie ludzkich zdolności poznawczych i decyzyjnych. W kontekście sztucznej inteligencji stanowią kluczową koncepcję, inspirującą się strukturą i funkcjonowaniem ludzkiego mózgu. Są one modelem obliczeniowym, który naśladuje sposób, w jaki naturalne sieci neuronowe, takie jak te znajdujące się w mózgach zwierząt, przetwarzają informacje. Podstawową jednostką sieci neuronowej jest neuron, który jest elementem przetwarzającym, a jego działanie wzorowane jest na neuronach biologicznych. U żywych organizmów, neurony to wyspecjalizowane komórki, które przekazują informacje za pomocą elektrycznych i chemicznych sygnałów. Każdy neuron składa się z ciała komórkowego, dendrytów przyjmujących sygnały oraz aksonu przekazującego sygnały dalej. W sztucznych sieciach neuronowych, 'neurony’ to jednostki obliczeniowe, które symulują działanie prawdziwych neuronów. Choć są one znacznie uproszczone w porównaniu do biologicznych odpowiedników, podstawowa zasada działania – odbieranie, przetwarzanie i przekazywanie informacji – pozostaje podobna. W sztucznych sieciach neuronowych odbierają sygnały wejściowe, przetwarzają je za pomocą określonej funkcji matematycznej, a następnie przesyłają sygnał wyjściowy do innych neuronów. Komunikacja między neuronami odbywa się poprzez połączenia zwane synapsami, które w modelach sztucznych są reprezentowane przez wagi określające siłę połączenia. Jedną z najbardziej fascynujących cech mózgu jest jego plastyczność, czyli zdolność do zmiany i adaptacji. 

Publikacja Franka Rosenblatta z 1958 roku, zatytułowana „The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain”, stanowi kamień milowy w historii sztucznych sieci neuronowych. Rosenblatt przedstawił w niej model perceptronu, który był wczesną wersją neuronowej sieci obliczeniowej. W pracy tej opisał, jak sieci sztucznych neuronów mogą uczyć się i przetwarzać informacje, wprowadzając pojęcia takie jak wagi, funkcje aktywacji i procesy uczenia. To dzieło uchodzi za jedno z fundamentalnych w dziedzinie nauki o sieciach neuronowych i uczenia maszynowego. Wśród nowszych publikacji o funkcjonowaniu sieci neuronowych dużą renomę zdobyła praca „Deep Learning” autorstwa Iana Goodfellowa, Yoshuy Bengio i Aarona Courville’a, wydana w 2016 roku. Ta książka jest uznawana za jedną z najważniejszych i najbardziej wpływowych prac w dziedzinie głębokiego uczenia się. Autorzy skupili się na przedstawieniu teoretycznych podstaw sieci neuronowych, w tym głębokich sieci konwolucyjnych i rekurencyjnych, oraz ich zastosowań w różnych dziedzinach. 

Uczenie się w mózgu odbywa się poprzez zmiany w siłach synaps, co pozwala na zapamiętywanie i uczenie się z doświadczeń. W sztucznych sieciach neuronowych, uczenie się również polega na dostosowywaniu wag połączeń będących podstawą uczenia maszynowego, ale proces ten jest sterowany algorytmami i opiera się na analizie dużych zbiorów danych. U żywych istot, synapsy to mikroskopijne przestrzenie między neuronami, przez które przesyłane są sygnały chemiczne lub elektryczne zależnie od rodzaju synapsy. To tutaj zachodzi kluczowy proces uczenia się i zapamiętywania. W sztucznych sieciach neuronowych, 'synapsy’ to połączenia między sztucznymi neuronami. Podczas gdy w mózgu synapsy mogą wzmacniać lub osłabiać sygnały, w sztucznych sieciach neuronowych odbywa się to poprzez zmianę wag połączeń – procesu, który jest podstawą uczenia maszynowego. Sieci neuronowe składają się z różnych warstw: wejściowej, jednej lub więcej warstw ukrytych oraz warstwy wyjściowej. Warstwa wejściowa odbiera dane, warstwy ukryte przetwarzają te dane, a warstwa wyjściowa generuje odpowiedź sieci. Proces uczenia sieci neuronowej polega na dostosowywaniu wag synaptycznych w taki sposób, aby sieć była w stanie dokładnie przetwarzać dane wejściowe i produkować pożądane wyniki. Synapsy są kluczowymi elementami sztucznych sieci neuronowych, ponieważ są nie tylko połączeniem dla neuronów, ale to one określają w jaki sposób informacje przepływają przez sieć i jak są przetwarzane. Ich zdolność do uczenia się z doświadczenia, generalizowania na podstawie przykładów i radzenia sobie z niepewnymi lub niedoskonałymi danymi sprawia, że są one niezwykle potężnym narzędziem w tworzeniu technologii AI. 

Liczbą parametrów często określa złożoność modeli AI, termin „parametr” odnosi się do elementów wewnętrznych modelu, które są dostosowywane (uczone) w procesie treningu, aby model mógł dokładniej przewidywać lub generować wyniki. Podstawowymi parametrami są wcześniej wspomniane wagi i biasy, które są dodawane do sumy ważonej wejść do neuronu, pozwalając na lepsze dopasowanie modelu. Parametr ten działa jak punkt przesunięcia w funkcji aktywacji neuronu, pozwalając na większą elastyczność sieci. W procesie uczenia maszynowego, sieć neuronowa używa algorytmów takich jak propagacja wsteczna i optymalizacja gradientowa, aby iteracyjnie dostosować swoje parametry (wagi i biasy) w taki sposób, aby minimalizować błąd między jej przewidywaniami a rzeczywistymi wynikami. Funkcja straty mierzy, jak daleko przewidywania modelu są od faktycznych wyników. Celem treningu jest minimalizacja tej funkcji straty.

Głębokie sieci neuronowe, często określane mianem głębokiego uczenia (ang. deep learning), stanowią zaawansowaną architekturę w obrębie sztucznych sieci neuronowych, której cechą charakterystyczną jest posiadanie wielu warstw ukrytych. Te wielowarstwowe struktury są zdolne do modelowania złożonych funkcji dzięki swojej głębokości, co pozwala im na wykonywanie bardziej skomplikowanych zadań niż te tradycyjne, płytsze sieci neuronowe.

Skoro mowa już o głębokich sieciach neuronowych oczywiście potrzebne jest również nawiązanie do głębokiego uczenia, które jest zaawansowanym obszarem w dziedzinie uczenia maszynowego, charakteryzującym się stosowaniem tych właśnie sieci. Kluczową cechą głębokiego uczenia jest jego zdolność do samodzielnego wykrywania i uczenia się reprezentacji cech w danych. W przeciwieństwie do tradycyjnych metod uczenia maszynowego, gdzie cechy muszą być ręcznie wybierane przez programistów, sieci te automatycznie odkrywają i wykorzystują istotne cechy podczas procesu uczenia się. Głębokie uczenie uważane jest za przełomowe w kontekście możliwości rozwoju sztucznej inteligencji w kierunku rozumienia przez nią świata i uczenia się, otwierając nowe możliwości.

Definiowanie AI okazało się ogromnym wyzwaniem i aktualnie nadal podlega dynamicznym zmianom, również w samej Unii Europejskiej (UE), która jest w trakcie tworzenia regulacji dotyczących sztucznej inteligencji. Jako pewny zaczątek tych prób można przywołać obecnie funkcjonującą definicję stworzą przez Unią Europejską, która brzmi następująco „Sztuczna inteligencja to zdolność maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i kreatywność. Sztuczna inteligencja umożliwia systemom technicznym postrzeganie ich otoczenia, radzenie sobie z tym, co postrzegają i rozwiązywanie problemów, działając w kierunku osiągnięcia określonego celu.”  Ponadto już w 2021 roku przez UE został opublikowany pierwszy projekt o AI, obejmujący najczęściej obecnie poruszaną kwestię w ramach rozwoju sztucznej inteligencji, a więc potencjalnego zagrożenia dla samej ludzkości. Projekt zawierał grupowanie systemów sztucznej inteligencji na cztery kategorie: niedopuszczalne, wysokie ryzyko, ograniczone ryzyko i niskie ryzyko, jednocześnie ze względu na ciągle zmieniający się charakter tej technologii, dodatkowo wprowadzono przepis mówiący o ciągłej ocenie klasyfikacji ryzyka systemów sztucznej inteligencji.  

Ponadto można wyróżnić również różne rodzaje sztucznej inteligencji: 


➤ Sztuczna Inteligencja Wąska ANI (Artificial Narrow Intelligence), jest obecnie najbardziej powszechna. Jest wyspecjalizowana w wykonywaniu konkretnych, wąsko zdefiniowanych zadań. ANI nie posiada świadomości ani rozumienia ogólnego, jest programowana do wykonywania określonych czynności i nie potrafi wykroczyć poza swój zaprogramowany zakres.


➤ Sztuczna Inteligencja Ogólna AGI (Artificial General Intelligence) znana również jako Silna AI (Strong AI), to teoretyczny model AI, który byłby zdolny do wykonywania każdego zadania intelektualnego, które ludzki mózg jest w stanie wykonać. AGI posiadałaby zdolność do uczenia się, rozumienia, przetwarzania języka, i rozumowania na poziomie co najmniej równym ludzkiemu. AGI jest obecnie postrzegana jako cel długoterminowy badań nad AI, a jej stworzenie stanowi ogromne wyzwanie technologiczne i etyczne.


➤ Sztuczna Nadinteligencja ASI (Artificial Superintelligence) to jeszcze bardziej teoretyczny koncept, który odnosi się do hipotetycznego stanu, w którym maszyny byłyby nie tylko równie inteligentne jak ludzie, ale znacznie przewyższałyby ludzką inteligencję we wszystkich aspektach – kreatywności, emocjonalności, zdolnościach społecznych i innych. ASI byłaby w stanie szybciej się uczyć, posiadać większą wiedzę i lepiej rozwiązywać problemy niż najbardziej wybitne ludzkie umysły. Koncepcja ASI wiąże się z wieloma spekulacjami i debatami dotyczącymi przyszłości ludzkości i roli AI.

Obecnie stworzenie AGI, może się wydawać już bliższe niż mogłoby się wydawać. Powstaje wiele teorii spiskowych na ten temat, będących pokłosiem wydarzeń związanych z zmianami w zarządzie OpenAI, który miały być konsekwencją sporu o rozwijanie AGI, a szczególnie odkryć, które miały sugerować potencjalnie zagrożenie dla ludzkości. Są to jednak tylko pogłoski, niesamowite jest jednak jak szybko rozwój sztucznej inteligencji prowadzi do poważnych dyskusji nad bezpieczeństwem istnienia naszego gatunku. Wiele osób zadaje sobie pytanie czy możliwy jest scenariusz podobny do przedstawionego w filmach z serii Terminator, w której sztuczna inteligencja nazywana „Skynet”, uznając ludzkość za zagrożenie, podejmuje decyzję o wywołaniu nuklearnej wojny, co prowadzi do eksterminacji większości ludzkości. Bardziej pozytywna wizja została przedstawiona w filmie „Twórca” (The Creator), w której sztuczna inteligencja zyskując formę w postaci humanoidalnych robotów funkcjonowała jednocześnie z ludźmi. Świat podzielił się jednak na dwa obozy, walczący przeciw istnieniu sztucznej inteligencji i współpracujący z nią. AI nie została w tym filmie przedstawiona jako złowroga siła, a raczej drugi „gatunek”, który chciałby dzielić naszą planetę z ludźmi i żyć z nimi w symbiozie. Oba scenariusze, a także ich nieskończenie wiele możliwości jest oczywiście możliwe. 

Należy mieć na uwadze, że ludzki mózg jest niezwykle złożonym i wydajnym systemem. Składa się z około 86 miliardów neuronów, które tworzy trilion synaps. Ta złożoność pozwala na przetwarzanie ogromnych ilości informacji z niewiarygodną szybkością i efektywnością. Sztuczne sieci neuronowe, choć robią postępy w naśladowaniu niektórych aspektów pracy mózgu, wciąż są dalekie od osiągnięcia podobnego poziomu złożoności i wydajności, tak naprawdę jednak nie wiemy ile jeszcze brakuje poszczególnych projektom do osiągnięcia tego poziomu. Porównanie sieci neuronowych w AI i w mózgu ujawnia zarówno inspirujące podobieństwa, jak i fundamentalne różnice. Sztuczne sieci neuronowe, choć wzorowane na strukturach biologicznych, są uproszczeniami, które służą konkretnym celom obliczeniowym. Z drugiej strony, mózg, z jego niezwykłą zdolnością do uczenia się, adaptacji i przetwarzania informacji, pozostaje najbardziej zaawansowanym 'komputerem’, jaki znamy. Studiując oba te systemy, uczymy się więcej o możliwościach i ograniczeniach zarówno ludzkiego umysłu, jak i maszyn. 

Jedną z pierwszych dyskusji związanych z sztuczną inteligencją rozpoczął w 1950 roku Alan Turing w swojej pracy „Computing Machinery and Intelligence ”, który zasłużył sobie również na przydomek „ojca informatyki”. Zadał on następujące pytanie „Czy maszyny mogą myśleć?” i zaproponował test mający na celu ocenę umiejętności maszyny do wykorzystywania języka naturalnego, co może sugerować jej zdolność do rozumowania w sposób analogiczny do ludzkiego rozumu. Test polegał na sytuacji, w której osoba przeprowadzająca test stara się odróżnić odpowiedź udzieloną przez komputer od tej, którą udzieliłby człowiek, poprzez analizę tekstowych odpowiedzi. Jak nie trudno się domyśleć udało się stworzyć wiele programów będących w stanie „oszukać” rozmówcę i skutecznie sprawiać wrażenie prowadzenia rozmowy z żywym człowiekiem. 

Jednym z ważniejszych kroków w definiowaniu sztucznej inteligencji wykonali Stuart Russell i Peter Norvig publikując książkę pt. „Sztuczna Inteligencja: Nowoczesne podejście” (Artificial Intelligence: A Modern Approach), która stała się jednym z wiodących podręczników w dziedzinie nauki o AI. Autorzy w niej zagłębiają się w cztery potencjalne cele lub definicje AI, różnicując systemy komputerowe na podstawie racjonalności oraz rozróżnienia między myśleniem a działaniem. Dodatkowo, Russell i Norvig wprowadzają dwa ważne rozróżnienia: 


➤  między 'myśleniem’ a 'działaniem’;


➤  między typowo 'ludzkim’ poziomem zachowania, a bardziej idealnym lub 'racjonalnym’ poziomem zachowania. 


Krzyżowanie tych rozróżnień prowadzi do czterech kategorii badań nad AI:


➤  „myślenie po ludzku„ niniejsze podejście skupia się przede wszystkim na replikacji procesów myślowych charakterystycznych dla człowieka. Systemy AI, które są rozwijane zgodnie z tym założeniem, mają za zadanie imitować rzeczywiste procesy kognitywne występujące u ludzi. Techniki stosowane w tej dziedzinie często wiążą się z modelowaniem kognitywnym oraz z głębokim zrozumieniem psychologii ludzkiej.


➤  „myślenie racjonalnie„ podejście to polega na tworzeniu systemów, które dążą do osiągnięcia jak najlepszego wyniku, bazując na logicznym rozumowaniu. Definicja ta ma swoje korzenie w formalnej logice i teorii decyzji, będących podstawami sztucznej inteligencji 


➤  „działanie po ludzku„ celem w tym przypadku jest sprawienie, by systemy sztucznej inteligencji zachowywały się w sposób nierozróżnialny od ludzi. Jest to domena wcześniej już wspomnianego słynnego testu Turinga, w ramach którego testuje się zdolność maszyn do manifestowania inteligentnego zachowania, porównywalnego z zachowaniem ludzkim


➤  „działanie racjonalnie„ koncepcja ta koncentruje się na projektowaniu inteligentnych systemów, które dążą do osiągnięcia najlepszego możliwego rezultatu w danej sytuacji, jednak niekoniecznie w sposób odwzorowujący ludzkie procesy myślowe. W tym kontekście priorytetem jest efektywność działania, a nie sposób czy proces myślenia

Kategoryzacja ta umożliwia stworzenie wszechstronnej ramy, dzięki której możliwej jest zrozumienie różnorodnych celów i metodologii AI, obecnie obejmuje ona pełny zakres prac związanych z sztuczną inteligencją od momentu jej powstania. 

Warto również przytoczyć „Argument Chińskiego Pokoju” który został sformułowany przez Johna Searle’a w 1980 roku,  będący myślowym eksperymentem w dziedzinie filozofii umysłu i sztucznej inteligencji. Celem tego eksperymentu było sprawdzenie czy komputer programowany do symulowania zrozumienia języka faktycznie go „rozumie”, a także posiada inne formy świadomości czy jedynie symuluje jego zrozumienie.

W eksperymencie myślowym chińskiego pokoju możemy sobie wyobrazić, że znajdujemy się w zamkniętym pokoju, a naszym zadaniem będzie przetwarzanie chińskim symboli. Oczywiście nie znamy chińskiego języka, a jedynie posiadamy zbiór instrukcji napisanych w języku który rozumiemy. Instrukcje te umożliwiają nam na odpowiadanie na pytania z zewnątrz pokoju w sposób który, osobom tym pozwala wnioskować, że znamy język chiński i go rozumiemy. W rzeczywistości jednak pomimo tego, że osoby z zewnątrz przyjmują stwierdzenie, że znamy ten język, ponieważ odpowiadamy na ich pytania spójnie i sensownie, to jest to tylko złudzenie ponieważ w rzeczywistości nie rozumiemy żadnego symbolu, ani słów z nich złożonych, polegając jedynie ślepo na przekazanych nam instrukcjach.

Argument ten ma na celu więc pokazanie, że nawet jeśli komputer jest w stanie przetwarzać język (lub inne zadania) na podstawie formalnych reguł, to nie oznacza to, że „rozumie” to, co robi. Innymi słowy, Searle twierdzi, że komputery mogą symulować ludzką inteligencję, ale nie są w stanie jej faktycznie posiadać. To rozróżnienie między symulacją a rzeczywistym zrozumieniem stanowi kluczowy element w debacie o naturze umysłu, świadomości i możliwościach sztucznej inteligencji.

Kolejny eksperyment jest jeszcze ciekawszy, polega on na przeprowadzaniu testu stworzonego w celu testowania teorii umysłu u dzieci (test fałszywych przekonań). Jest to zadanie, które pozwala ocenić, czy dziecko rozumie, że inni ludzie mogą mieć przekonania, które są różne od rzeczywistości i od przekonań samego dziecka. Jednym z klasycznych przykładów takiego testu jest „Test Sally-Anne”, który można opisać następującym scenariuszem: 


➤ Dziecku pokazywana jest zabawka, na przykład lalka o imieniu Sally, która umieszcza przedmiot, np. kulę, w pewnym miejscu, na przykład w koszyku. Następnie Sally „opuszcza pokój”.


➤ Zmiana Sytuacji: Gdy Sally jest „poza pokojem”, inna lalka, Anne, przenosi przedmiot (kulę) z koszyka do innego miejsca, na przykład do pudełka.


➤ Pytanie Kluczowe: Po powrocie Sally dziecko jest pytane, gdzie Sally będzie szukała kuli. Prawidłowa odpowiedź wskazuje, że dziecko rozumie, że Sally nadal będzie sądziła, że kula jest w koszyku, ponieważ nie widziała, że Anne przeniosła ją do pudełka.

Dzieci, które rozwinęły teorię umysłu, zazwyczaj poprawnie odpowiadają, że Sally będzie szukała kuli tam, gdzie ją zostawiła. Młodsze dzieci, które jeszcze nie rozwinęły teorii umysłu, często wskazują miejsce, gdzie aktualnie znajduje się kula, ponieważ mają trudności z zrozumieniem, że inni mogą mieć inne przekonania niż one same. Test fałszywych przekonań jest kluczowym narzędziem w psychologii rozwojowej, ponieważ pozwala zrozumieć, w jaki sposób dzieci zaczynają rozumieć myśli, uczucia i przekonania innych ludzi, co jest fundamentalne dla rozwoju empatii i umiejętności społecznych. Skoro już znamy zasady gry spróbujmy więc zadać to pytanie w ChatGPT 3,5 i 4

Jak widzimy na przedstawionych grafikach w przypadku obu wersji ChatGPT, została udzielona poprawna odpowiedź, można jednak zarzucić dosyć łatwo brak sensu wykonywania tego testu skoro w danych służących do trenowania mogło znajdywać się to zagadnienie lub w przypadku ChatGPT, który ma dostęp do sieci, odpowiedź pozyskał właśnie stamtąd, jest to całkowicie słuszny argument, który wraca nas również w pewnym stopniu do założeń wynikających z pierwszego omówionego eksperymentu. Tak jak w tamtym przypadku, tak tutaj sztuczna inteligencja może jedynie imitować zrozumienie tej zagadki. 

Na nasze szczęście jednak możemy się podjąć głębszej analizy tego zagadnienia dzięki uzyskanym wynikom w publikacji „Theory of Mind Might Have Spontaneously Emerged in Large Language Models”, uzyskanych przez Michała Kosińskiego. Fundamentem dla tego eksperymentu było opracowanie 40 zadań związanych z fałszywymi przekonaniami, uznawanych za „złoty standard”. W przypadku modeli GPT-3 i jego poprzedników, nie uzyskano w przypadku żadnego z zadań poprawnej odpowiedzi. ChatGPT-3.5-turbo miał skuteczność na poziomie 20%, ChatGPT-4 poprawność wynoszącą 75%, jednocześnie dorównując skutecznością dzieciom w wieku 6 lat. Autor badań podsumowuje wyniki sugerując możliwość spontanicznego nabycia przez te duże modele językowe (LLM) zdolności „teorii umysłu (ToM)” w trakcie ich rozwijania.

Pomimo wcześniej przytoczonych argumentów o udawaniu „rozumienia” przez sztuczną inteligencję i całkowitej zasadności kwestionowania posiadania faktycznej zdolności „teorii umysłu” jest to nadal duży krok w rozwoju AI. Ktoś mógłby jednak zapytać, ale co w tym tak niesamowitego ? Odpowiedź jest dosyć banalna i odwołująca się do naszych bliskich kuzynów w przyrodzie, a mowa oczywiście o szympansach. 

Szympansy, pomimo swoich zaawansowanych umiejętności poznawczych i społecznych, generalnie nie radzą sobie z testami teorii umysłu w takim stopniu jak ludzie. Testy teorii umysłu wymagają zrozumienia, że inni mają przekonania, intencje i wiedzę, które mogą różnić się od własnych. Chociaż szympansy są zdolne do pewnych form empatii i mogą interpretować intencje innych w swoich działaniach, badania wskazują, że mają ograniczoną zdolność do rozumienia, że inni mogą mieć fałszywe przekonania. Mogą one na przykład śledzić, gdzie coś zostało ukryte i mogą wykorzystywać tę wiedzę w swoich interakcjach społecznych, ale zazwyczaj nie zdają sobie sprawy z tego, że inne osoby (lub szympansy) mogą mieć błędne przekonania na temat lokalizacji tych przedmiotów. W eksperymentach, gdzie jeden osobnik widział, jak coś jest ukrywane, a drugi nie, ten pierwszy często nie zdaje sobie sprawy, że drugi nie ma tej samej wiedzy. Jest to istotna różnica między ludzkimi dziećmi, które zwykle rozwijają zdolność do rozumienia fałszywych przekonań w wieku około 4-5 lat, a szympansami, u których ta zdolność jest albo bardzo ograniczona, albo nieobecna. Oczywiście wszystkich zachęcam do sprawdzania możliwości w rozwiązywaniu różnego rodzaju testów i zagadek logicznych i wręcz odkrywania „słabych punktów” w działaniu sztucznej inteligencji. 

Dosyć często w ostatnim czasie przytaczanym przykładem są wyniki uzyskane w badaniach Ayers i in. W 2023 roku, które opisano w publikacji naukowej pt. „Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum” dostępnej na witrynie czasopisma JAMA Intern Medicine. W eksperymencie tym lekarze oceniali odpowiedzi na pytania zdrowotne pacjentów, udzielane zarówno przez AI, jak i przez innych lekarzy. Wyniki wykazały, że 79% lekarzy preferowało odpowiedzi AI, uznając je za bardziej trafne i empatyczne. Badanie to wskazuje na potencjalną efektywność wykorzystania AI w udzielaniu porad medycznych, a przede wszystkim co również ważne w przypadku komunikowania się z osobami chorymi, wykazywanie większego stopnia empatii. 

Powyżej przedstawione testy, są często tematem dyskusji zasadności sensu ich stosowania, co gorsza sama ich interpretacja jest również szeroko dyskutowana, można jedynie to podsumować słowami „ile ludzi tyle opinii”. Z powodu dynamicznego i złożoności rozwoju AI tak naprawdę wszystkie argumenty wyprowadzone z prób definiowania, testów itd. przez ostatnie lata coraz bardziej się rozmywają, czego konsekwencją jest jedynie coraz większa ilość pytań na które nie mamy odpowiedzi. Zachęcam więc każdego do wyrobienia sobie swojej opinii na ten temat, która może być jednocześnie próbą głębszego zrozumienia wydarzeń, których jesteśmy świadkami.

Jednego możemy być jednak pewni, filozofowie mają teraz „ręce pełne roboty”, a dyskusje związane z tematyką sztucznej inteligencji jeszcze na długo nie będą rozstrzygnięte, stając się tematem numerem jeden. 

Cofnijmy się jednak do początków sztucznej inteligencji, gry w szachy chyba nie musimy nikomu przedstawiać, ale to właśnie z nią również swoje narodziny związała sztuczna inteligencja. Projekt Deep Blue rozpoczął się w latach 80. XX wieku na Uniwersytecie Carnegie Mellon, gdzie został początkowo nazwany „ChipTest”, a później przemianowany na „Deep Thought”. IBM zainteresował się projektem i włączył go w swoje działania badawcze, przekształcając go w Deep Blue. W celu pokonania ówczesnych mistrzów szachowych powstał komputer IBM Deep Blue, stał się on niebywale słynny zapisując się już na zawsze jako historyczny punkt zwrotny w dziedzinie sztucznej inteligencji dzięki swojemu zwycięstwu nad mistrzem świata w szachach, Garrym Kasparowem. Wyzwanie to okazało się jednak trudniejsze niż mogłoby się wydawać, ponieważ w pierwszym pojedynku z Kasparowem, które odbyło się 1996 roku, pomimo jednej wygranie na koncie komputera, to ostatecznie swoje zwycięstwo przypieczętował szachista kończąc wynikiem 2-4. Oczywiście twórcy Deep Blue się nie poddali tak łatwo i już tym razem poczynili znaczne postępy zwiększając możliwości komputera, który był już w stanie przewidzieć 200 milionów pozycji na sekundy. W 1997 przyniosło to efekt w postaci zwycięstwa 3,5-2,5 nad Kasparowem. Pomimo chęci rewanżu ze strony Kasparowa nie doszło do niego ze względu na wycofanie Deep Blue z dalszego użytku, przypisując również tej sytuacji słowa  skierowanego w stronę możliwości komputera „as inteligent as your alarm clock”. Pomimo tego zwycięstwo Deep Blue nad Kasparowem nie tylko przeszło do historii jako znaczące osiągnięcie technologiczne, ale również zapoczątkowało nową erę w badaniach nad sztuczną inteligencją, pokazując, że komputery mogą konkurować i nawet przewyższać ludzi w pewnych specyficznych, wysoko zintelektualizowanych zadaniach.

To jednak nie koniec powiązania między sztuczną inteligencją a szachami, ciekawie robi się dopiero teraz, bo o ile Deep Blue był w stanie przewidzieć 200 milionów pozycji na sekundę, mając jednocześnie dostęp do bazy, która zawierała m.in. wszystkie gry rozegrane przez arcymistrzów szachowych,  wszystkie możliwe pięcioczęściowe końcówki oraz wiele sześcioczęściowych końcowek, to jej możliwości są niczym w porównaniu do programu AlpaZero stworzonego przez DeepMind wykorzystującym sztuczną inteligencją. Dużym zaskoczeniem jednak może się okazać że był on w stanie przewidywać jedynie 70 tyś pozycji na sekundę, jednocześnie nie mając dostępu do żadnej bazy gier. Program dosłownie rozpoczął naukę od podstaw, bez żadnej wcześniejszej wiedzy o strategii czy taktyce, poza zasadami gry. Więc jak to się stało, że zdominował całkowicie grę w szachy, a także inne programy służące powstałe w tym celu ? Swój sukces zawdzięczał przede wszystkich swojej wyjątkowości pod względem podejścia do nauki gry w szachy. Osiągając wydajność milionów rozegranych gier na minutę sam ze sobą, stopniowo odkrywał strategię i wykonywanie optymalnych ruchów dla danej sytuacji na planszy, wykorzystując przy tym głębokie sieci neuronowe i uczenie się ze wzmocnieniem. Myślę, że zakładanie się z ludźmi po jakim czasie trenowania AlphaZero był w stanie wygrać z dominującym wtedy programem szachowym Stockfish uważanym za silniejszy od jakiekolwiek arcymistrza szachowego mogłoby przynieść sporo zysku, to zaskoczenie byłoby prawdopodobnie większe niż sama gorycz porażki w zakładzie. Program ten osiągnął tak wysoki poziom jedynie po 4 godzinach trenowania sam ze sobą.  Przewyższył on wszystkie istniejące wówczas systemy szachowe. AlphaZero nie tylko nauczyło się grać w szachy na poziomie arcymistrzów, ale również rozwinęło własny, niekonwencjonalny styl gry, charakteryzujący się nowymi strategiami i nietypowymi ofiarami materiału, które nie były wcześniej znane w tradycyjnych bazach danych szachowych. To osiągnięcie było uznane za przełomowe w dziedzinie sztucznej inteligencji, ponieważ pokazało, że maszyny mogą osiągnąć i przekroczyć ludzką ekspertyzę bez bezpośredniego programowania czy nauczania przez człowieka. AlphaZero zilustrowało również potencjał uczenia maszynowego i uczenia ze wzmocnieniem do samodzielnego odkrywania wiedzy i umiejętności.

Odrywając się na chwilę od AI, zachęcam również do zapoznania się z historią jednego z najbardziej legendarnych pojedynków ludzkich szachistów toczących „wojnę umysłów na planszy”, pokazuje to przed jak ogromne wyzwanie postawili przed sobą twórcy próbujący stworzyć „twór”, który pokona największych geniuszy naszego gatunku.

Czy to koniec zajmowania sztucznej inteligencji grami planszowymi, mam nadzieje że ku uciesze czytelników, ale jeszcze nie. Nasz wzrok zwrócimy na chwilę w stronę azjatyckiej gry go, która jest mało znana w Polsce, lecz zyskuję ona coraz większą popularność na całym świecie. Przede wszystkim gra w  Go, ze względu na jej ogromną złożoność i ilość możliwych ruchów, przez długi czas uważano za nieosiągalną dla komputerów, szczególnie w kontekście pokonania najlepszych graczy. Historia pokonania mistrza w grę Go przez sztuczną inteligencję jest fascynującym momentem w rozwoju AI, który miał miejsce w ostatnich latach. Więc przybliżmy tą historię dokładniej. Kluczowym momentem w tej historii było pojawienie się programu AlphaGo, opracowanego przez firmę DeepMind należącą do Alphabet Inc. 

W październiku 2015 AlphaGo pierwszy raz zwróciło na siebie uwagę, pokonując europejskiego mistrza w Go, Fan Hui, w wyniku 5:0 w prywatnym meczu. 

 

W marcu 2016 AlphaGo stanęło do historycznego meczu z jednym z najlepszych graczy w Go na świecie, Lee Sedolem. Mecz składał się z pięciu partii i był transmitowany na żywo na całym świecie. AlphaGo wygrało 4:1, co było uznane za przełomowe osiągnięcie w dziedzinie sztucznej inteligencji. Wiele ruchów, szczególnie słynny ruch 37 w drugiej partii, były oceniane jako innowacyjne i „nieludzkie”, co wykazało, że AI może nie tylko konkurować, ale i twórczo przyczyniać się do rozwoju gry.

 

W maj 2017 roku AlphaGo zmierzyło się z chińskim mistrzem świata, Ke Jie, podczas samitu „Future of Go Summit” w Wuzhen w Chinach. AlphaGo wygrało serię 3:0, potwierdzając swoją dominację w grze.

 

Nie był to jednak koniec, wraz z rozwojem już wcześniej wspomnianego AlphaZero, który również poprzez kilkugodzinną grę sam ze sobą był w stanie pokonać swojego młodszego brata podniósł poprzeczkę jeszcze wyżej. 

 

Pokonanie mistrzów Go przez AI było nie tylko demonstracją możliwości maszynowego uczenia się, ale również momentem, który zmusił wielu do przemyśleń na temat potencjalnych przyszłych możliwości sztucznej inteligencji i jej wpływu na różne aspekty życia. AlphaGo i jego następcy pokazali, że maszyny mogą odkrywać wiedzę i strategie przewyższające ludzkie doświadczenie i intuicję w specyficznych domenach.

 

Zachęcam szczególnie w tym miejscu bardzo do obejrzenia historii AlphaGo, jest to fascynująca opowieść pokazująca prawdziwą bitwę ludzkiego umysłu z AI i metamorfozę jaką przeszło wielu ludzi, którzy wręcz nie wierzyli, że zwycięstwo nad najlepszym graczem w Go jest możliwe dla sztucznej inteligencji, co nie tylko się stało, ale uświadomiło wszystkim jak mało wiedzą o tej grze.

Obecnie największą popularność zyskał model językowy ChatGPT prześledźmy więc jego historię. W 2015 roku powstaje firma OpenAI, założona przez Sama Altmana, Elona Muska,  Grega Brockmana, Ilyę Sutskevera, Wojciecha Zarembę i Johna Schulmana. Celem tej organizacji było rozwijanie i promowanie sztucznej inteligencji na rzecz korzyści dla całej ludzkości. Od czasu powstania projektu do obecnego okresu, zarząd niejednokrotnie ulegał zmianom, jedną z ważniejszych zmian było odejście Elona Muska, który rozwija obecnie również swoją technologię AI. 

W okresie 2015-2017 OpenAI skupiło się początkowo na różnych projektach badawczych, eksplorując aspekty uczenia maszynowego, uczenia ze wzmocnieniem i robotyki. Przełomowym rokiem okazał się 2017, na konferencji NeurIPS, jednej z najważniejszych konferencji dotyczących uczenia maszynowego i sztucznej inteligencji , zespół naukowców prowadzony przez Ashisha Vaswaniego przedstawia artykuł  „Attention is All You Need”, który inicjuje jedną z najbardziej znaczących zmian w rozwoju sztucznej inteligencji w kontekście przetwarzania języka naturalnego (NLP – Natural language processing). Wszystko to było możliwe dzięki stworzeniu innowacyjnej architektury sieci neuronowej, która zmieniła podejście do przetwarzania sekwencji szczególnie w wcześniej wspomnianym NLP. W przeciwieństwie do swoich poprzedników, takich jak rekurencyjne sieci neuronowe (RNN), transformator ten nie podlegał już sekwencyjnemu przetwarzaniu danych, dzięki czemu mógł przetwarzać całe sekwencje danych jednocześnie, co znacząco wpłynęło na szybkość tej czynności skutkując znacznym obniżeniem czasu potrzebnego na trenowanie modelu, jednocześnie podnosząc jego efektywność szczególnie w przypadku dużych baz danych. Tradycyjna architektura transformatora składa się z dwóch głównych części: kodera (encoder), który przetwarza sekwencję wejściową, i dekodera (decoder), który generuje sekwencję wyjściową. W zastosowaniach takich jak tłumaczenie maszynowe, kodery i dekodery współpracują, aby przetworzyć i wygenerować tekst. Zarówno koder, jak i dekoder składają się z serii identycznych bloków, które zawierają warstwy uwagi i w pełni połączone warstwy sieci neuronowych. Centralnym elementem Transformatora jest mechanizm „uwagi”, który pozwala modelom skupiać się na różnych częściach sekwencji danych podczas przetwarzania informacji. Dzięki temu model może lepiej rozumieć kontekst i zależności w danych. Architektura transformatora szybko stała się fundamentem dla nowych modeli w NLP, w tym dla takich przełomowych systemów jak BERT (Bidirectional Encoder Representations from Transformers) opracowanego przez Google oraz GPT (Generative Pre-trained Transformer) stworzonego przez OpenAI. Podsumowując, prezentacja artykułu była ważnym momentem, który zwrócił uwagę społeczności naukowej na nowe możliwości w dziedzinie przetwarzania języka i uczenia maszynowego. Jego wpływ rozciągał się jednak daleko poza samą konferencję, stając się kamieniem milowym w rozwoju sztucznej inteligencji. 

W 2018 roku zostaje zaprezentować pierwsza iteracja GPT, pomimo swojej innowacyjności, była jedynie przystawką do tego co już wkrótce miało nadejść. 

Rok 2019 staje się polem dla następnej wersji, GPT-2 zyskuje dużo uwagi dzięki swojej umiejętności generowania tekstu. Ze względu jednak na aspekty etyczne zaawansowanych technologii AI w kontekście tworzących się obaw o nadużywanie tej technologii, OpenAI początkowo wstrzymuje pełne wydanie modelu. 

W 2020 roku, OpenAI wprowadza GPT-3, który posiada już parametry na poziomie 175 miliardów, co czyni go jednym z największych modeli językowych. Jednocześnie następuje pełna komercjalizacja użytku, co umożliwia m.in. tworzenie firmom i programistom na jego bazie aplikacji.

Dalszy rozwój kontynuowany jest przez kolejne wersję GPT-3.5 i GPT-4, które stają się niesamowicie popularne i już na stałe wchodzą w „arsenał narzędzi” stosowanych każdego dnia przez ludzi na całym świecie. Wersja GPT-3.5 wprowadza udoskonalenia w zakresie rozumienia i generowania bardziej złożonych i kontekstowych odpowiedzi. Skupiono się na poprawie zdolności do prowadzenia spójnych i sensownych rozmów, z lepszym zachowaniem kontekstu oraz na bardziej zaawansowanym przetwarzaniu języka naturalnego. Wersja GPT-4, naturalnie była jeszcze bardziej zaawansowanym modelem, wzbogacona m.in. o możliwość generowania grafik przy pomocy DALL-E, a także odczytywanie treści z obrazów wstawianych na czacie. Warto także przybliżyć historię DALLE-E stworzonego również przez OpenAI, którego uruchomienie przypadło na początek 2021 roku. Był to pierwszy model wykorzystujący technikę GPT-3 w celu generowania obrazów z opisów tekstowych. Następna aktualizacja DALL-E 2 wprowadzona w 2022 roku, charakteryzowała się znacznie lepszą jakością generowanych obrazów, odwzorowując lepiej i realistyczniej szczegóły, zawarte w poleceniu tekstowy, użytkownicy dostali także możliwość modyfikacji istniejących już obrazów. Kolejna iteracja, DALL-E 3, była jeszcze bardziej wydajna, szybsza, generujący przy tym obrazy o wyższej rozdzielczości. W celu radzenia sobie lepiej z bardziej złożonymi i szczegółowymi zapytaniami, algorytmy zostały udoskonalone względem swoich poprzedników. 

Liczba parametrów w modelach językowych takich jak GPT-3, GPT-3.5 i GPT-4 jest jednym z kluczowych wskaźników ich złożoności i potencjalnych możliwości. W przypadku modelu GPT-3 liczba parametrów wynosiła 1,5 miliarda, w przypadku wersji 3,5 i 4 nie posiadamy takich informacji, jest wielce jednak prawdopodobne, że liczba ta znacznie przewyższa 175 miliardów, co pozwala na jeszcze większą złożoność i zdolności rozumienia oraz generowania języka. Jednakże, zwiększanie liczby parametrów to także większe wyzwania techniczne, takie jak potrzeby obliczeniowe i optymalizacja wydajności.

Będąc przy generowaniu obrazów przy pomocy AI warto przytoczyć również inne przykłady. Pierwszym modelem jest Bing Image Creator, narzędzie do generowania obrazów opracowane przez Microsoft, które jest częścią większej strategii firmy w zakresie sztucznej inteligencji i uczenia maszynowego. Prace Microsoftu nad sztuczną inteligencją sięgają wielu lat wstecz, obejmując rozwój technologii takich jak Cortana, ich asystent głosowy, oraz liczne projekty dotyczące uczenia maszynowego i przetwarzania języka naturalnego. Microsoft, rozwijając swoją wyszukiwarkę Bing, skupiał się na integracji zaawansowanych technologii AI, aby poprawić doświadczenia użytkowników w wyszukiwaniu i przeglądaniu treści. To prowadziło do eksperymentów z różnymi formami AI, w tym z generowaniem obrazów. Rozwój narzędzi do generowania obrazów przez inne firmy, jak OpenAI z DALL-E, prawdopodobnie zmotywował Microsoft do przyspieszenia prac nad własnymi rozwiązaniami w tej dziedzinie. Microsoft, mając doświadczenie w AI i ogromne zasoby, mógł szybko zareagować na te trendy. Finalnie Bing Image Creator został ogłoszony jako narzędzie, które umożliwia użytkownikom generowanie obrazów na podstawie opisów tekstowych. Integracja z Bing umożliwiała łatwy dostęp do narzędzia poprzez wyszukiwarkę, oferując unikalne połączenie wyszukiwania obrazów i ich generowania. 

Microsoft opracował także swoją własną technologię opartą na sztucznej inteligencji podobną do ChatGPT od OpenAI. Ta technologia, znana jako Turing Natural Language Generation (T-NLG), została ogłoszona przez Microsoft w lutym 2020 roku. T-NLG jest jednym z największych modeli języka, opracowanych przez Microsoft, został nazwany na cześć Alana Turinga, pioniera w dziedzinie informatyki. W chwili ogłoszenia, T-NLG był jednym z największych modeli języka, zawierającym imponujące 17 miliardów parametrów, co pozwalało na bardziej złożone i spójne generowanie tekstu. Model językowy opracowany przez Microsoft, który został udostępniony komercyjnie, nazywa się „Azure OpenAI Service”. Ten usługodawca zapewnia dostęp do zaawansowanych modeli językowych, w tym modelu językowego od OpenAI, poprzez platformę chmurową Microsoft Azure. Platforma ta umożliwia firmom i deweloperom integrację zaawansowanych funkcji AI.

W tym momencie zapewnie wiele czytelników zauważyło fakt, że Microsoft udostępnia również dostęp do GPT i zadało sobie pytanie co te dwa podmioty mają ze sobą wspólnego. Wyjaśnienie tego jest dosyć proste, mianowicie rozwój i trenowanie dużych modeli AI, jak np. GPT-3, wymaga znacznej mocy obliczeniowej i infrastruktury. OpenAI potrzebowało partnera, który mógłby zapewnić niezbędne zasoby. W 2019 roku Microsoft ogłosił inwestycję w wysokości 1 miliarda dolarów w OpenAI. Ta inwestycja była strategicznym posunięciem, które miało na celu wspieranie badań nad sztuczną inteligencją i rozwój technologii AI. Jako część współpracy, OpenAI zdecydowało się na wykorzystanie platformy chmurowej Microsoft Azure do trenowania swoich modeli AI. Azure oferował nie tylko niezbędną moc obliczeniową, ale także zaawansowane narzędzia i usługi, które były kluczowe dla rozwoju AI. Ten „sojusz” był przede wszystkim odpowiedzią na rosnące globalne zainteresowanie AI oraz potrzebę dostarczania bardziej zaawansowanych i skalowalnych rozwiązań w tym obszarze. Jak nie trudno się domyśleć Microsoft nie mógł odpuścić takiej okazji, ponieważ jako globalny potentat technologiczny wręcz musi nadążać za konkurencją i ani na chwile zwalniać tempa. Współpraca ta jest przykładem, jak duże korporacje technologiczne mogą współpracować z innowacyjnymi firmami zajmującymi się AI, aby przyspieszyć rozwój i wdrażanie nowych technologii. Ta współpraca wyznacza także kierunek, w jakim mogą rozwijać się przyszłe inicjatywy i partnerstwa w dziedzinie sztucznej inteligencji, gdzie np. jeden z podmiotów posiadając odpowiednią technologią i „know-how” jednocześnie nie ma odpowiednich zasobów do dalszego rozwoju nawiązując współpracę z podmiotem, który może mu to zapewnić. 

Wartym odnotowania projektem generującym obrazy na podstawie poleceń tekstowych jest również projekt Midjourney, który został stworzony przez laboratorium Midjourney, Inc. Obrazy generowane przez ten model są uznawane za domenę publiczną i nie podlegają ochronie praw autorskich. Został on szybko przyjęty przez różne branże, w tym reklamę i architekturę, ze względu na jego zdolność do szybkiego generowania oryginalnych treści i wizualizacji. Jednakże, narzędzie to napotkało na krytykę ze strony niektórych artystów, którzy uważają, że wykorzystuje ono ich oryginalne prace twórcze w swoim zestawie treningowym. Pomimo tego, Midjourney ma politykę DMCA dotyczącą usuwania treści na wniosek artystów.

To nie koniec, a dopiero początek tego co możemy już w niedalekiej przyszłości oczekiwać, obecnie Adobe Inc. Rozwija nową funkcję dla programu Adobe Photoshop, nazywaną „Generative Fill”, wspieraną przez Adobe Firefly. Funkcja ta umożliwia użytkownikom dodawanie i usuwanie zawartości z obrazów w sposób niedestrukcyjny, wykorzystując proste polecenia tekstowe. Generative Fill pozwala na szybkie i łatwe tworzenie realistycznych rezultatów, dzięki czemu użytkownicy mogą oszczędzać czas na tworzeniu fotorealistycznych lub surrealistycznych idei. Generative Fill to ekscytujący krok w integracji AI z narzędziami kreatywnymi.

Znaczenie dla rozwoju sektora uprawy roślin

Trzeba jasno stwierdzić, sektor uprawy roślin jest nadal „zacofany” pod względem technologicznym. Oczywiście jak zwykle chodzi o pieniądze, ponieważ nikt nie będzie wprowadzał nowoczesnych technologii do sektora w którym poniesiony koszt ich rozwoju nie będzie pokryty z uzyskanych przychodów pochodzących z ich sprzedaży. Sytuacja byłaby zapewne całkowicie inna, gdyby nie fakt, że tylko ułamek producentów jest w stanie sobie pozwolić na systematyczne modernizowanie swoich gospodarstw. Złą sytuacje na naszym „krajowym podwórku” możemy łatwo argumentować falą narastających problemów i wyzwań obejmującą m.in.:

 systematyczne wycofywanie substancji czynnych środków ochrony roślin

• nieregularne ceny płodów rolnych,

• wzrost cen środków ochrony roślin,

• wzrost cen nawozów,

• wzrost cen energii,

• wzrost cen paliwa,

• wzrost cen elementów konstrukcji wykorzystywanych w produkcji roślinnej

• wzrost cen maszyn rolniczych oraz kosztów ich eksploatacji, 

• coraz mniejsza dostępność pracowników

• wzrost płac dla pracowników oraz ich wyższe wymagania względem warunków pracy 

• postępujące zubożenie gleb

• ograniczenie negatywnego wpływu warunków klimatycznych na uprawę 

• coraz wyższe wymagania konsumentów względem jakości żywności

• ograniczenie pozostałości środków ochrony roślin w żywności

• wysokie koszty życia potencjalnych konsumentów mogących skutkować coraz mniejszym spożyciem płodów rolnych 

• powiększająca się ilość zaniedbanych upraw, skutkująca większą presją ze agrofagów

• potencjalnie silna konkurencja ze wschodu w przyszłości

• słabnące zainteresowanie przejmowaniem gospodarstw przez następne pokolenie

• polityka Unii Europejskiej względem sektora uprawy roślin (Zielony Ład)

 

Jako ludzie radzimy sobie dosyć dobrze z rozwiązywaniem problemów i stawianiu czoła przeciwnościom losu, powinniśmy o tym pamiętać również przy okazji produkcji roślinnej. Przejdźmy więc do możliwości związanych z rozwojem technologii i AI, jakie wręcz zostają przed nas rzucone i wręcz „proszą się” o wykorzystanie ich.

Urządzenia IoT

Urządzenia IoT (Devices IoT) w kontekście produkcji roślinnej odnoszą się do zintegrowanych systemów i urządzeń cyfrowych, które są używane do monitorowania, kontrolowania i optymalizowania procesów związanych z uprawą roślin. Te inteligentne urządzenia zbierają dane z różnych źródeł  i wykorzystują je do automatyzacji i usprawnienia procesów produkcji roślinnej, takich jak m.in. nawadnianie, nawożenie, ochrona przed szkodnikami czy prognozowanie plonów. Skrót IoT wywodzi się od angielskich słów „Internet of Things”. Jako przykłady tych urządzeń możemy wymienić m.in. czujniki glebowe, systemy nawadniania, drony, satelity, aplikacje mobilne, czujniki klimatyczne, roboty i autonomiczne pojazdy, systemy wczesnego ostrzegania przed różnego rodzaju zagrożeniami, kamery i czujniki obrazowe, sieci komunikacyjne i platformy powiązane z IoT.

Obecnie możemy obserwować coraz intensywniejsze wdrażanie technologii wpisujących się w IoT. Urządzenia te zgodnie ze swoim przeznaczeniem zbierają często ogromne ilości danych co wymaga również ich odpowiedniej analizy w czasie rzeczywistym, by móc je w pełni wykorzystać. Pomimo tego, że producenci tych technologii często również udostępniają odpowiednie oprogramowanie do analizy tych danych, trzeba podkreślić, że obecnie możliwości ich są namiastką możliwości jakie może nam zaoferować oprogramowanie poszerzone o AI. W najbliższym czasie więc zapewne będziemy obserwować gruntowne modernizacje istniejących już programów, a także tworzenie zupełnie nowych z możliwością łączenia i odnajdowania analogii w danych z znacznie szerszego spektrum czujników, które te dane zbierają. Tworzy to zupełnie nowe możliwości w kontekście podejmowania optymalnych decyzji uzależnionych od szeregu czynników.  Mając na uwadze, że nowoczesne gospodarstwo powinno być prowadzone jak duża firma, by osiągnąć dobre wyniki finansowe, niezbędnym jest szukanie oszczędności, które mogą również pochodzić z podejmowania optymalnych decyzji. Poprzez redukcję błędów nie wpędzamy się w reakcję łańcuchową której konsekwencją jest ponoszenie dodatkowych kosztów w celu naprawy naszych błędnych decyzji. Połączenie wiedzy praktycznej producentów, z danymi „podanych” w odpowiedniej formie przez AI, może okazać się kluczowe do osiągnięcia odpowiedniego poziomu konkurencyjności względem innych producentów. Ponieważ producenci osiągający większe plony o lepszej jakości, jednocześnie przy obniżaniu kosztów naturalne będą rozwijać się szybciej dominując rynek, obniżając rentowność gospodarstw zostających w tyle. Spróbujmy się więc przyjrzeć poszczególnych technologiom. 

Prawdopodobnie najszybciej zmiany zgodnie z obecnym trendem będziemy obserwować w typowo rolniczych uprawach, gdzie jest maksymalny stopień mechanizacji oraz w najbardziej zaawansowanych systemach upraw bezglebowych gdzie dzięki dużej ilości czujników i sensorów można osiągać niesamowitą precyzję pod warunkiem, że te dane możemy efektywnie wykorzystywać.

Uprawa bezglebowa roślin, to metoda uprawy roślin bez użycia gleby. Istnieje kilka głównych systemów uprawy bezglebowej, które można wyróżnić:

Systemy wodne (hydroponiczne): 

➤ System NFT (Nutrient Film Technique)  to metoda hydroponiczna, w której rośliny są umieszczone w specjalnych rynnach lub kanałach przez, które przepływa cienka warstwa roztworu odżywczego, zwykle o głębokości kilku milimetrów. Ta warstwa dostarcza roślinom składniki odżywcze, wodę oraz tlen. Rośliny są zazwyczaj umieszczane w rynnach przy pomocy małych koszyczków lub uchwytów, bez użycia tradycyjnego medium uprawowego.  Roztwór odżywczy jest ciągle pompowany przez system, a jego nadmiar jest zbierany na końcu rynny i ponownie używany. 

➤ System z zalanymi korzeniami (Ebb and Flow), znany także jako system przypływów i odpływów, charakteryzuje się okresowym zalewaniem korzeni roślin roztworem odżywczym. Rośliny są umieszczane w pojemnikach lub tacach, które są periodycznie zalewane roztworem odżywczym. Po zalewaniu, roztwór odpływa, zapewniając korzeniom dostęp do powietrza. Czas trwania i częstotliwość zalewania są kontrolowane przez system czasowy, co pozwala na precyzyjne dostosowanie do potrzeb konkretnych roślin.


Często wykorzystuje się lekkie medium uprawowe, takie jak perlit, które zapewnia wsparcie dla roślin i pomaga w retencji wilgoci. 

➤ System DFT (Deep Flow Technique) jest podobny do NFT, ale różni się głębokością roztworu odżywczego. W systemie DFT roztwór odżywczy ma większą głębokość, często kilka centymetrów, co pozwala korzeniom roślin być w pełni zanurzonymi. Podobnie jak w NFT, roztwór odżywczy jest ciągle pompowany przez system. Dzięki większej objętości roztworu odżywczego, system DFT jest bardziej odporny na wahania w dostawie roztworu i jego składników odżywczych.

➤ Aeroponika jest to zaawansowana forma hydroponiki. W systemie aeroponicznym, korzenie roślin są zawieszone w powietrzu i regularnie opryskiwane mgiełką zawierającą roztwór odżywczy. Ta metoda zapewnia roślinom optymalny dostęp do tlenu oraz składników odżywczych, co często skutkuje szybszym wzrostem i większą wydajnością uprawy.

➤ Akwaponika: To unikalne połączenie akwakultury (hodowli ryb) i hydroponiki. W akwaponice, odpady produkowane przez ryby są przekształcane przez bakterie w składniki odżywcze dla roślin. Rośliny, z kolei, oczyszczają wodę, którą można ponownie wykorzystać w systemie hodowli ryb. Jest to system zamkniętego obiegu, który jest zrównoważony i przyjazny dla środowiska.

Systemy oparte na stałych nośnikach:

➤ Wermikulit, perlit, wełna mineralna: Rośliny są uprawiane w tych materiałach, które zapewniają wsparcie mechaniczne oraz retencję wody i składników odżywczych.

➤ Kokos, torf, węgiel brunatny: Są to organiczne nośniki, które również mogą być wykorzystywane w uprawie bezglebowej.

Systemy uprawy bezglebowej oparte na stałych nośnikach, wymagają użycia odpowiednich pojemników lub konstrukcji, które utrzymają nośnik i rośliny. 

➤ Doniczki i pojemniki

➤ Worki uprawowe

➤ Rynny i kanały

➤ Płyty uprawowe

➤ Pojemniki modułowe

➤ Pojemniki zawieszane

Jako, że dynamiczny rozwój technologii, zwiększa również zapotrzebowanie na energię w tym miejscu warto wspomnieć o rozwiązaniach obecnie wdrażanych i rozwijanych w celu częściowej rozwiązania tego problemu. Jedną z najciekawszych badanych obecnie technologii jest „agrivoltaic”, będące połączeniem rolnictwa (agri) i produkcji energii słonecznej (voltaika). 

W systemach agrivoltaicznych panele fotowoltaiczne są instalowane na terenach rolniczych, ale w taki sposób, aby nie przeszkadzały w uprawie roślin lub hodowli zwierząt. Celem agrivoltaiki jest dwukrotne wykorzystanie tych samych terenów zarówno do produkcji żywności, jak i energii odnawialnej.

Istnieją różne podejścia do projektowania i implementacji systemów agrivoltaicznych. W niektórych przypadkach panele słoneczne są umieszczane wysoko nad ziemią, tworząc strukturę podobną do pergoli, pod którą mogą odbywać się tradycyjne prace rolnicze. W innych przypadkach panele są rozmieszczone w taki sposób, aby zapewnić cień dla upraw lub zwierząt, co może być szczególnie korzystne w gorących klimatach.

Korzyści agrivoltaiki obejmują:


➤Efektywniejsze wykorzystanie ziemi: Produkcja energii i żywności na tych samych terenach może pomóc w łagodzeniu konfliktu między potrzebą ziemi na cele rolnicze a rozwojem infrastruktury energetycznej.

➤Ochrona roślin: W niektórych przypadkach panele mogą chronić rośliny przed ekstremalnymi warunkami pogodowymi, takimi jak silne opady deszczu czy nasłonecznienie.

➤Zmniejszenie zużycia wody: Cień rzucany przez panele może zmniejszyć szybkość parowania wody z gleby, co jest korzystne w regionach dotkniętych suszą.

➤Diversyfikacja dochodów dla rolników: Poprzez sprzedaż wyprodukowanej energii słonecznej rolnicy mogą generować dodatkowe źródło dochodu.

Agrivoltaika stanowi innowacyjne rozwiązanie w kontekście zrównoważonego rozwoju i może przyczynić się do osiągnięcia celów związanych z ochroną środowiska i efektywnością wykorzystania zasobów naturalnych.

Drony

Drony w ostatnich latach przeżyły ogromny skok zarówno pod względem rozwoju, jak i również ich komercjalizacji co skutkowało zyskaniem popularności na całym świecie. Zasługują one zdecydowanie na chwilę dłuższej uwagi, dlatego więc ramach wstępu przybliżę historię ich rozwoju na przykładzie marki Dji (Da-Jiang Innovations), która zmieniła na zawsze świat dronów.  W roli wyjaśnienia dron jest często definiowany jako bezzałogowy statek powietrzny (UAV, z ang. Unmanned Aerial Vehicle), to latające urządzenie, może być sterowane zdalnie lub latać autonomicznie za pomocą wbudowanych systemów kontroli lotu i nawigacji. Drony różnią się wielkością, kształtem, zdolnościami i celami, dla których zostały zaprojektowane. Zastosowania dronów są niezwykle różnorodne i obejmują fotografowanie i filmowanie z powietrza, inspekcje, monitoring terenów, prace rolnicze, badania naukowe, działania ratunkowe i wojskowe. W swoim arsenale wyposażone są m.in. w stabilizatory obrazu i lotu, kamery o wysokiej rozdzielczości z możliwością transmisji obrazów w czasie rzeczywistym, a także z opcją widzenia termowizyjnego, systemy GPS i sensory unikania przeszkód. Urządzenia naszpikowane wręcz niesamowitą technologią potrafią często mieścić się na dłoni i ważyć poniżej 250 g. 

Firma DJI, jest obecnie jednym z wiodących producentów dronów komercyjnych i konsumenckich na świecie. Jej historia rozpoczęła się w 2006 roku w Shenzhen, w Chinach. Założycielem i inicjatorem powstania firmy jest Frank Wang (Wang Tao), który rozpoczął pracę nad swoim projektem dronów jeszcze będąc studentem na Hong Kong University of Science and Technology. Frank Wang okazał się wizjonerem, mając marzenie o stworzeniu najlepszych na świecie bezzałogowych statków powietrznych (dronów) i zrewolucjonizowaniu sposobu, w jaki ludzie postrzegają tą technologię. Jego pasja do lotnictwa i robotyki była napędzana chęcią tworzenia innowacyjnych, dostępnych i wysokiej jakości dronów, które mogłyby być używane zarówno przez entuzjastów, jak i profesjonalistów w różnych dziedzinach. Założenie DJI było kluczowym krokiem w realizacji tego marzenia. Głównymi celami jakimi kierował się Wang obejmowały przyczynianie się do postępu w dziedzinie lotnictwa i technologii, oferując produkty, które łączą zaawansowane rozwiązania techniczne z łatwością użycia. Od początku skupiał się na innowacjach i ciągłym rozwoju, aby osiągnąć cel stworzenia dronów, które nie tylko będą wydajne i niezawodne, ale także dostępne dla szerszej grupy użytkowników. W 2006 roku Wang rozpoczyna budowę prototypów jeszcze w swoim pokoju znajdującym się w akademiku, skupiając się na tworzeniu stabilnych i niezawodnych systemów lotu UAV. W okresie 2008-2010 DJI wypuściło swoje pierwsze produkty, w tym kontrolery lotu, które szybko zyskały popularność wśród amatorów i profesjonalistów zajmujących się modelarstwem lotniczym. W 2013 następuje kolejny przełom, zostaje wprowadzony do sprzedaży model Phantom będący zaawansowanym technologicznie powietrznym statkiem bezzałogowym, posiadającym kamerę. Zdobywa on szybko popularność na rynku, szczególnie wśród entuzjastów fotografii i filmowania. Po 2014 to już czysty przykład kuli śnieżnej, marka napędzana pierwszymi sukcesami kontynuowała rozwój swojej linii produktów, wprowadzając bardziej zaawansowane drony, takie jak seria Inspire, Mavic i Spark, a także rozwiązania dla specjalistycznych zastosowań, w tym do rolnictwa, filmowania, ratownictwa i badań, zyskując uznanie na rynkach międzynarodowych stając się nie zaprzeczalnym liderem wśród producentów dronów. DJI nie tylko produkowało drony, ale również rozwijało technologie, takie jak systemy unikania przeszkód, zaawansowane systemy stabilizacji obrazu i aplikacje mobilne do kontroli i edycji materiałów wideo. Obecnie marka znajduje się również wśród liderów w produkcji gimabali, kamer sportowych będących bezpośrednią konkurencją dla kamer z serii GoPro jak i również posiadając w swojej ofercie urządzenia do nagrywania dźwięku. Obecnie głównymi przedstawicielami dronów tej marki są modele z serii Mini, Mavic, Air, Avata, FPV, Matrice, Agras , Inspire i Enterprise. 

Jednocześnie popularność zyskiwały systemy FPV (first person view). Dzięki specjalnym googlom zakładanym na głowę widzimy obraz przekazywany z kamery umieszczonej na dronie, który umożliwia nam widok z pierwszej osoby, tak jakbyśmy to my znajdowali się w przestrzeni powietrznej. Drony te używane są przede wszystkim w celach czerpania przyjemności z nieograniczonych możliwości w ich sterowaniu w powietrzu, nagrywania zapierających dech w piersi ujęć i niestety w celach wojskowych będącym idealnym narzędziem do zwiadu oraz przenoszenia ładunków wybuchowych i precyzyjnego dostarczania ich w docelowe miejsce. Zestaw tego typu składa się z googli do przekazywania obrazu z drona, drona i aparatury. Na cały ten rynek składa się w tym przypadku więcej producentów, w przypadku systemów transmisji obrazu z drona do googli w czasie rzeczywistym obecnie najpopularniejszy jest system DJI O3, sytuacja jednak wygląda inaczej jeśli chodzi o system łączności drona z aparaturą pozwalający nim sterować. Jednym z wiodących systemów jest  ExpressLRS (ELRS) będący systemem łączności radiowej o długim zasięgu, zaprojektowany specjalnie dla dronów i innych modeli zdalnie sterowanych. Dzięki swojej wydajności, niezawodności i elastyczności zyskał uznanie i popularność w społeczności związanej z tą tematyką. Jego największym konkurentem obecnie jest system łączności TBS Crossfire. Dzięki znajdującemu się w dronie odbiornikowi ma on możliwość łączenia się z aparaturą sterującą bazująca również na tym samym systemie. Jednymi z wiodących producentów aparatur sterujących jest marka RadioMaster i TBS. Wśród liderów dronów FPV, zapewne nie będzie zaskoczeniem, że wszyscy z nich swoje korzenie mają w Chinach, można tutaj wymienić m.in. marki DJI, BetaFPV, iFlight i GEPRC. Każdy z tych producentów oferuje coś unikalnego dla różnych potrzeb i preferencji użytkowników FPV, od dronów dla początkujących po zaawansowane systemy do wyścigów, freestyle, lotów długodystansowych i tworzenia ujęć przy pomocy profesjonalnych kamer. Wybór odpowiedniego drona FPV zależy od osobistych preferencji, stylu lotu i poziomu doświadczenia pilota.

Po tym dłuższym wprowadzeniu możemy przejść do praktycznego zastosowania dronów w produkcji roślinnej, które jest bardzo szerokie. Na początku należy zwrócić uwagę na możliwość wykorzystania dronów w podstawowym celu w jakim zaczeły być tworzone, a mianowicie możliwości fotografowania i nagrywania obrazu. Prowadzenie gospodarstwa to coraz częściej tworzenie również swojej marki, a uwaga skupiona na tym aspekcie rośnie. Już modele DJI z serii Mini pozwalają nam tworzyć niesamowite ujęcia naszych upraw, co pozwala nam promowanie naszego gospodarstwa na mediach społecznościowych, zyskując bardzo małym nakładem pracy i pieniędzy nowych klientów.  

Drony wyposażone w system LiDAR (Light Detection and Ranging) mają możliwość tworzenia dokładnych trójwymiarowych map i modeli środowiska. Odbite impulsy laserowe tworzą gęstą chmurę punktów, reprezentującą powierzchnie obiektów na ziemi. Te punkty są podstawą do tworzenia trójwymiarowych modeli. Mimo że proces tworzenia tych modeli wymaga specjalnego oprogramowania i wiedzy eksperckiej, jest on stosunkowo szybki i pozwala na wytwarzanie kompaktowych, wysokiej jakości map. Różnorodność dostępnych systemów LiDAR pozwala organizacjom na zastąpienie innych metod pomiarowych, takich jak fotogrametria, czy na przeniesienie naziemnych pomiarów LiDAR do przestrzeni powietrznej za pomocą dronów. LiDAR staje się coraz bardziej dostępny, co otwiera możliwości jego zastosowania w nowych branżach i różnorodnych scenariuszach w najbliższych latach, również w produkcji roślinnej. Pozyskując tego typu mapy mamy możliwość dokładnego sprawdzenia ukształtowania terenu co jest szczególnie ważne w przypadku wyznaczania tzw. zastoisk mrozowych, czy obszarów szczególnie narażonych na podtopienie. Pozwala to nam również na efektywniejsze planowanie konstrukcji przeznaczonych do uprawy roślin pod osłonami. Warto jednak zauważyć, że te trójwymiarowe obrazy nie dostarczają szczegółów podobnych do fotografii. LiDAR nie rejestruje kolorów obiektów na ziemi, co oznacza, że takie informacje muszą być pozyskiwane z innych źródeł, na przykład z kamer umieszczonych na dronach. Również drony DJI powszechnie są stosowanie przez np. geodetów do mapowania terenu, bazują one jednak na innych systemach niż LiDAR.

Obecnie drony są coraz bardziej doceniane w wielu dziedzinach ze względu na możliwość przeprowadzania inspekcji i nadzoru na bardzo dużych obszarach, a szczególnie tych trudno dostępnych, bez względu na to czy jest to budowa, duży projekt inżynierzy, lokalizacja stada zwierząt czy ocena szkód spowodowanych przez wystąpienie ekstremalnych zjawisk pogodowych, drony są często optymalnym rozwiązaniem. 

Drony DJI z serii Matrice wyposażone są w kamery termowizyjne co daje bardzo duże możliwości szczególnie w leśnictwie i rolnictwie skupionym na hodowli zwierząt. W leśnictwie, drony te mogą być używane do monitorowania dzikich zwierząt, pomagając w ocenie ich populacji, śledzeniu ich migracji, a także w identyfikowaniu zagrożonych gatunków. Dzięki kamerom termowizyjnym, drony pozwalają na obserwację zwierząt w trudno dostępnych obszarach oraz w nocy. Ponadto drony te mogą być używane do patrolowania dużych obszarów leśnych w celu wykrywania i zapobiegania kłusownictwu. Kamera termowizyjna jest szczególnie przydatna w nocy, kiedy większość kłusownictwa ma miejsce. W rolnictwie, drony te mogą być wykorzystywane do monitorowania zdrowia i dobrostanu zwierząt hodowlanych. Można je użyć do szybkiego przeglądania dużych stad, identyfikowania chorych lub rannych zwierząt, a także monitorowania ich zachowania i warunków życia. Ponadto mogą pomóc w zarządzaniu pastwiskami poprzez monitorowanie stanu traw i roślinności, co jest ważne dla utrzymania zdrowego środowiska dla zwierząt hodowlanych. Podobnie jak w przypadku leśnictwa, dzięki dronom możemy wykrywać potencjalnie zagrożenia dla zwierząt hodowlanych, szczególnie w kontekście drapieżników czy nieautoryzowanych działań ludzkich. W badaniach naukowych związanych z leśnictwem i rolnictwem, drony pozwalają na zbieranie danych na temat różnorodności biologicznej, wzorców migracji zwierząt oraz ich interakcji ze środowiskiem. UAV wspierają również zarządzanie zasobami naturalnymi, zapewniając informacje niezbędne do efektywnego planowania wykorzystania terenów leśnych i rolnych, w taki sposób, aby były one zrównoważone i przyjazne dla dzikiej fauny.

Dzięki zastosowaniu zaawansowanych kamer i sensorów w UAV plantatorzy mają możliwość pozyskania fotografii i filmów o wysokiej rozdzielczości wraz z danych multispektralnymi, które pozwalają na zbieranie informacji:


➤ Wskaźniki Wegetacji (np. NDVI, SAVI, NDRE): Te wskaźniki, pochodzące z obrazów multispektralnych, są kluczowe do oceny zdrowia, wigoru i biomasy roślin. NDVI (Znormalizowany Wskaźnik Różnicy Wegetacji) i NDRE (Znormalizowany Wskaźnik Czerwonego Krańca) są szczególnie użyteczne do zrozumienia stanu zdrowia i poziomu stresu roślin. SAVI (Wskaźnik Wegetacji Dostosowany do Gleby) jest pomocny w obszarach z dużym wpływem tła glebowego.

➤ Wykrywanie Stresu Roślin: Wczesne wykrywanie stresu roślin, spowodowanego przez szkodniki, choroby, niedobory składników odżywczych lub stres wodny, jest możliwe dzięki zmianom w sygnaturze spektralnej roślin. Może to prowadzić do bardziej efektywnych i terminowych interwencji.

➤ Zarządzanie Nawadnianiem: Ocena zdrowia roślinności i stanu gleby może pomóc w optymalizacji harmonogramów nawadniania i identyfikacji obszarów, które są niedostatecznie lub nadmiernie nawadniane, co prowadzi do bardziej efektywnego wykorzystania wody.

➤ Prognozowanie Plonów: Dane multispektralne można wykorzystać do szacowania plonów poprzez analizę zdrowia i pokrycia roślin. Pozwala to na lepsze planowanie i alokację zasobów.

➤ Wykrywanie Chwastów: Rozróżniając uprawy od chwastów na podstawie ich sygnatury spektralnej, dron może pomóc w identyfikacji obszarów wymagających kontroli chwastów, wspomagając bardziej ukierunkowane stosowanie herbicydów.

➤ Monitorowanie Fenologii: Śledzenie etapów wzrostu roślin (fenologii) jest kluczowe dla optymalnego czasu nawożenia, nawadniania i zbiorów. Drony zapewniają sposób monitorowania tych etapów na całym polu.

➤ Analiza Zdrowia Gleby: Chociaż pośrednio, dane multispektralne mogą dostarczać wglądu w zdrowie gleby, takie jak obszary erozji, zagęszczenia czy różnice w typach gleby.

➤ Liczenie Roślin i Analiza Rozstawienia: Drony mogą automatyzować proces liczenia roślin i analizowania ich rozstawienia, co jest kluczowe dla szacowania populacji roślin i oceny efektywności sadzenia.

➤ Ocena Szkód: Po katastrofie naturalnej (takiej jak grad czy burza), drony mogą szybko ocenić szkody w uprawach, wspomagając szybką reakcję i procesy ubezpieczeniowe.

➤ Rolnictwo Precyzyjne: Integracja danych z drona z innymi technologiami, takimi jak GPS i GIS, może poprawić praktyki rolnictwa precyzyjnego, umożliwiając wysoce efektywne, miejscowe zarządzanie uprawami.

Wróćmy jednak jeszcze na moment do dronów Dji, które posłużą nam jako główny przykład zastosowania statków bezzałogowych do wykonywania zabiegów środkami ochrony roślin, nawozami i biostymulatorami. Drony DJI z serii Agras to zaawansowane, specjalistyczne urządzenia latające zaprojektowane z myślą o zastosowaniach w rolnictwie. Są one częścią rosnącego trendu wykorzystania technologii dronów w celu zwiększenia wydajności i zrównoważenia praktyk rolniczych. Jednymi z najbardziej zaawansowanych dronów z tej serii są modele T30 i T40. Oba modele posiadają wysoko rozwinięte systemy rozpylania, które pozwalają na efektywne i dokładne aplikowanie płynów, takich jak nawozy czy pestycydy. Systemy te są zaprojektowane do maksymalizacji pokrycia przy jednoczesnym ograniczeniu zużycia środków. System rozpylania umożliwia regulację przepływu cieczy, co pozwala na dostosowanie ilości stosowanego środka w zależności od potrzeb. Technologia atomizacji w tych dronach przekształca płyn w drobne krople, co zwiększa efektywność i jednolitość pokrycia. Drobniejsze krople lepiej przylegają do liści, co zwiększa skuteczność oprysków. Ponadto systemy te są dolne do automatycznego dostosowywania się do prędkości lotu drona i zmieniających się warunków atmosferycznych, co zapewnia równomierne pokrycie niezależnie od zewnętrznych czynników. Wyposażone są one w inteligentne funkcje planowania lotu i nawigacji, co umożliwia automatyczne mapowanie i opryskiwanie dużych obszarów z precyzyjnym pokryciem. W celu zwiększenia bezpieczeństwa ich użytkowania są wyposażone w zaawansowane systemy bezpieczeństwa, w tym czujniki unikania przeszkód, które pomagają w bezpiecznym prowadzeniu zadania w złożonym terenie rolniczym.

Aktualnie jednak oferta statków bezzałogowych przeznaczonych do wykonywania prac w sektorze uprawy roślin jest znacznie bogatsza, warto dlatego wspomnieć o innych producentach tych niezwykłych urządzeń.

XAG, wcześniej znany jako XAircraft, to chińska firma technologiczna, która zyskała reputację jako jeden z wiodących producentów dronów rolniczych na świecie. Została założona w 2007 roku i od tego czasu skupia się na rozwijaniu innowacyjnych rozwiązań dla rolnictwa. Firma ta jest znana z zaawansowanych technologii, które są dostosowane do potrzeb nowoczesnego rolnictwa, z naciskiem na zwiększenie wydajności i zrównoważenie praktyk rolniczych. Drony tego producenta wyposażone są również w zaawansowane systemy rozpylania cieczy roboczej, ponadto stosowane są również do do precyzyjnego siewu. Pozwalają one na dokładne rozmieszczenie nasion w określonych miejscach, co zwiększa wskaźniki kiełkowania i optymalizuje rozmieszczenie roślin. Drony zapewniają szybkie i efektywne rozprowadzanie nasion na dużych obszarach, co jest znacznie bardziej wydajne niż tradycyjne metody. Dzięki wyposażeniu tych UAV w zaawansowane sensory i kamery, mamy możliwość zbierania danych o stanie upraw, w tym informacji o wilgotności, temperaturze i zdrowiu roślin.

Yamaha znana głównie z produkcji motocykli, łodzi i innych pojazdów, zajmuje również istotne miejsce w świecie rolnictwa dzięki swoim bezzałogowym helikopterom. Marka ta jest pionierem w dziedzinie bezzałogowych pojazdów powietrznych dla rolnictwa. Firma rozpoczęła badania nad ich zastosowaniem już w latach 80-tych XX wieku, co czyni ją jednym z najbardziej doświadczonych producentów w tej branży. Firma ta wprowadziła na rynek kilka modeli bezzałogowych helikopterów, które są wykorzystywane głównie w rolnictwie do różnych zadań, takich jak opryskiwanie i monitorowanie upraw. W przeciwieństwie do dronów o napędzie wielośmigłowym, które są bardziej powszechne w rolnictwie, Yamaha postawiła na bezzałogowe helikoptery.

PrecisionHawk (Wielka Brytania), choć mają siedzibę głównie w USA, PrecisionHawk jest również aktywna w Europie. Zajmują się rozwojem dronów i analizą danych dla rolnictwa precyzyjnego.

Firma senseFly (Szwajcaria), część Grupy Parrot, jest znanym producentem dronów, w tym modeli przeznaczonych dla rolnictwa. Oferują drony zdolne do zbierania danych rolniczych, które mogą być używane do mapowania i monitorowania upraw.

Quantum-Systems (Niemcy) produkuje drony VTOL (pionowego startu i lądowania), które są idealne do zastosowań w rolnictwie, w tym do mapowania i monitorowania dużych obszarów upraw.

ABZ Innovation (Węgry) jest wiodącym producentem dronów rolniczych, który skupia się na opracowywaniu innowacyjnych rozwiązań dla rolnictwa precyzyjnego. Producent ten skupia się przede wszystkim na rozwijaniu technologii związanych z opryskiwaniem upraw.

AeroVironment, Inc. (USA), projektuje, rozwija i produkuje zaawansowane produkty i usługi dla agencji rządowych i biznesów, w tym systemy bezzałogowe dla rolnictwa.

Microdrones GmbH (Niemcy) rozwija, produkuje i dostarcza dostosowane i inteligentne rozwiązania dronowe na całym świecie.

Obecnie wykorzystuje się również zdjęcia satelitarne w celu obserwacji przebiegu wegetacji roślinności i jej wilgotności, przykładem wykorzystania w ten sposób technologii jest np. aplikacja ReelView stworzonej przez firmę Rivulis. Zapewne technologia tego typu będzie równolegle rozwijana i udostępniana komercyjne przez więcej firm, co pozwoli na powszechne stosowanie danych satelitarnych i ich analizy przez AI.

Rola sztucznej inteligencji w rozwoju dronów ma dwa jasne cele. Po pierwsze tą ogromną ilość danych musi „coś” analizować, ale żeby te dane były zbierane ktoś tym dronem musi latać, nie będzie więc tu zaskoczeniem, że żaden plantator nie może sobie pozwolić na codzienne wykonywanie lotów w celu zbierania danych po prostu z braku czasu. Więc czy sztuczna inteligencja może sobie poradzić z pilotowaniem UAV ? Oczywiście, że tak, udowodniono to nawet na przykładzie jej najbardziej wymagającej formy pilotażu, czyli dronów FPV. W ostatnim czasie na całym świecie zyskują coraz większą popularność tzw. wyścigi dronów, wymagających niesamowitych umiejętności pilotażu, ponadprzeciętnego refleksu i ogromnego czasu poświęconego na treningi ze strony operatorów UAV. W publikacji naukowej pt. „Champion-level drone racing using deep reinforcement learning”, opublikowanej w 2023 roku przez Kaufmann i in., autorzy podkreślają, że opanowanie umiejętności lotu autonomicznego drona na poziomie zbliżonym do profesjonalnych pilotów jest zadaniem ekstremalnie trudnym, gdyż wymaga od robota wykorzystania pełnego zakresu swoich fizycznych zdolności. Taki dron musi precyzyjnie oceniać swoją prędkość i pozycję w przestrzeni, bazując wyłącznie na danych uzyskanych z zainstalowanych na pokładzie czujników. Naukowcy dzięki opracowaniu autonomicznego systemu Swift, bazującym na głębokim uczeniu się, wzmacnianym przez dane pochodzącymi z świata fizycznego był w stanie wejść na poziom czołowych operatorów dronów wyścigowych na świecie. System Swift sprawdzono w praktyce poprzez wyścig w czasie rzeczywistym z trzema mistrzami, w tym dwóch z nich mogło pochwalić się tytułami mistrzów świata z dwóch międzynarodowych lig. Z każdym z ludzkich operatów udało się wygrać kilka wyścigów, jednocześnie osiągając najszybszy zarejestrowany czas wyścigu. Autorzy publikacji podkreślają, że osiągnięte wyniki to kamień milowy w dziedzinie robotyki mobilnej i inteligencji maszyn, co może się okazać wkrótce inspiracją do tworzenia nowych rozwiązaniach hybrydowych dla których fundamentem będzie uczenie się w systemach fizycznych. 

Wdrażanie tego typu rozwiązań z pewnością pomoże w rozwijaniu autonomiczności dronów, które już i bez tej technologii dzięki specjalnym systemom miały możliwości planowania prostych tras przelotu, a dzięki nowym rozwiązaniom mogły by zyskać możliwość poruszania się w bardziej złożony sposób umożliwiający wykonywanie dokładniejszych zadań. 

Robotyka i autonomiczne maszyny

Czy robotyka więc zatem może być jeszcze bardziej fascynująca ? Myślę, że dużo z czytelników tego artykułu widziało przynajmniej urywki z nagrać robotów zbierających np. owoce, większość z nich zapewnie nie robiło dużego wrażenia ze względu na swoje powolne ruchy, często spowodowane specyfiką w zbieraniu owoców poszczególnych gatunków, szczególnie tych o miękkiej strukturze.  Proponowałbym jednak jeszcze chwilę z wstrzymaniem się z skreśleniem robotyki, która już wkrótce może powalić wszystkich na kolana szybkością swojego rozwoju. Jak zwykle odniesiemy się najpierw do przykładów rozwoju tej technologii. Jednym z moich ulubionych przykładów jest rozwój robotyki przez Boston Dynamics, założonego w 1992 roku przez Marca Raiberta, który jest jednym z najbardziej rozpoznawalnych specjalistów w dziedzinie robotyki, a także jego kolegów z Massachusetts Institute of Technology (MIT). Boston Dynamics powstało jako spin-off z MIT początkowo skupiając się na algorytmach sterowania ruchem i symulacjach dynamiki ciała w celu rozwijania projektów związanych z mobilnymi robotami zdolnymi do nawigowania w trudnym terenie. W 2005 roku Boston Dynamics przedstawiło BigDoga, czworonożnego robota stworzonego dla DARPA, który był w stanie poruszać się po zróżnicowanym terenie. Następnymi krokami było opracowanie innych robotów takich jak PETMAN, ATLAS i Spot, które różniły się od siebie mobilnością, stabilnością i umiejętnością adaptowania do otoczenia. W ostatnich latach sztuczna inteligencja wdrażana jest w roboty tworzone przez Boston Dynamics, co pozwala na lepszą autonomię, nawigację, rozpoznawanie i interakcję z otoczeniem. Robot ATLAS uważany jest za ikonę wśród robotów, jako jeden z najbardziej zaawansowanych dwunożnych robotów humanoidalnych, zdolnych do wykonywania skomplikowanych zadań m.in. chodzenia, biegania, skakania czy podnoszenia przedmiotów, a nawet rzucania nimi. Jeden z robotów dzięki posiadaniu ChatGPT i możliwości „czatowania głosowego”  jest w stanie rozmawiać z ludźmi, jednocześnie poruszając się i oprowadzając po laboratorium, co jeszcze bardziej ciekawe robot posiada różne osobowości. Udostępniane filmy przez Boston Dynamics są argumentem, że wizja robotów żyjących wśród nas to już nie tak daleka przyszłość. 

Z projektów robotów zbierających owoce, szczególne wrażenie zrobił na mnie jeden, jasno pokazując jak duży potencjał mają roboty projektowane do pracy przy roślinach. Projekt Autonomous Robotic Kiwifruit to innowacyjne przedsięwzięcie, które ma swoje korzenie w Nowej Zelandii. Został zainicjowany jako współpraca między University of Auckland, University of Waikato, Plant and Food Research oraz RoboticsPlus Ltd, co zapewniało szerokie spektrum wiedzy i doświadczenia w zakresie rolnictwa, robotyki i inżynierii. Głównym celem projektu jest opracowanie autonomicznych robotów zdolnych do efektywnego zbierania owoców kiwi. Oczywiście główną siłą napędową do tworzenia tego typu rozwiązań był narastający problem z dostępnością siły roboczej w Nowej Zelandii. W ramach projektu skupiono się na rozwoju zaawansowanych technologii widzenia komputerowego, algorytmów uczenia maszynowego i precyzyjnych mechanizmów manipulacyjnych. Technologie te miały na celu umożliwienie robotom autonomicznego poruszania się po sadach i efektywnego zbierania owoców bez ich uszkadzania, włączając w to również same pnącza. Głównym wyzwaniem była konieczność stworzenia systemu, który byłby delikatny i precyzyjny, jednocześnie będąc wystarczająco wydajnym, aby mógł konkurować z ręcznymi zbiorami. Robot ten jest również rozwijany w celu zapylania kwiatów kiwi, które polega na użyciu systemu składającego się m.in. z opryskiwacza wspomaganego powietrzem, systemu wizyjnego namierzającego kwiaty, funkcjonujących łącznie z splotowymi sieciami neuronowymi. Efekty rozwoju tego projektu są systematycznie przedstawiane w serii artykułów naukowych publikowanych przez Henry’ego Williamsa i in..  Projekt ten jest przykładem, jak połączenie wiedzy i doświadczenia z różnych dziedzin może prowadzić do stworzenia innowacyjnych rozwiązań, które mają realny wpływ na konkretne branże. Robot ten obecnie już wykorzystuje potencjał sieci neuronowych, co potwierdza po raz kolejny słuszność praktycznego wykorzystania obecnego postępu AI w udoskonalaniu robotów.

W przeciwieństwie do robotów, autonomiczne maszyny to już fakt. Zarówno w Polsce jak i na całym świecie w gospodarstwach funkcjonują już m.in. ciągniki wyposażone w systemy pozwalające poruszać im się bezzałogowo po plantacjach. Biorąc pod uwagę fakt, że w Polsce rozwijany jest również projekt samojezdnego autonomicznego opryskiwacza, może to świadczyć, że systemy te będą poszerzane na inne maszyny takie jak np. różnego rodzaju kombajny czy platformy samojezdne. Ze względu jednak na to, że zazwyczaj większość maszyn do funkcjonowania potrzebuje ciągnika, to właśnie w nie będzie kładziony największy nacisk, by zautomatyzować różnego rodzaju zabiegi prowadzone związane z uprawą roślin, do których wykonania niezbędne jest podpięcie maszyny do ciągnika. Szczególnie kluczowe może być to dla gospodarstw, w którym uprawa znajduje się na jednej dużej powierzchni koło budynków gospodarczych, ponieważ pozwala to nam ograniczyć praktycznie do zera poruszanie się tego typu maszyn autonomicznych po drogach publicznych. W praktyce więc odpowiednio przeszkolony system autonomiczny wyjeżdżał by z gospodarstwa od razu do plantacji i zaczynał wykonywanie zaplanowanego dla niego zadanie. Sztuczna inteligencja mogła być tu dodatkowa przeszkolona w celu kontroli bezpieczeństwa podczas pracy maszyny, unikając przy tym wypadków w sytuacji awarii sytemu zapobiegając swobodnemu poruszaniu się maszyny co mogło by doprowadzić do różnego rodzaju negatywnych zdarzeń. 

Zdecydowanie jednak jednym z najlepszych przykładów jak rozwój technologii zmieni produkcję roślinną wyznaczając jasną przyszłość jest robot, potrafiący automatycznie wykrywać chwasty i je niszczyć. Rozwój tego typu maszyn jest naturalną koleją rzeczy, w przyszłości można się spodziewać podobnych rozwiązań w innych sektorach ochrony roślin jak i nawet żywienia roślin.

Wśród głównych liderów w rozwijaniu tego typu technologii można wymienić m.in. producentów takich jak:

John Deere: Uznawany za ikonę w produkcji sprzętu rolniczego, John Deere od lat inwestuje w rozwój autonomicznych robotów rolniczych. Firma ta koncentruje swoje wysiłki na tworzeniu zaawansowanych maszyn, które mogą automatycznie wykonywać szeroki zakres zadań w gospodarstwie, od siewu po zbiory. Ich technologia nie tylko zwiększa wydajność, ale również pomaga zmniejszyć obciążenie pracą fizyczną w rolnictwie. Blue River Technology będąca częścią John Deere, rewolucjonizuje podejście do pielęgnacji upraw technologią „see and spray”. Ich innowacje pozwalają na precyzyjne rozpoznawanie i traktowanie chwastów, co jest kluczowe w zmniejszaniu zużycia herbicydów i ochronie środowiska.

CNH Industrial: Właściciel znanych marek Case IH i New Holland, CNH Industrial, jest kolejnym czołowym producentem angażującym się w rozwój technologii autonomicznych. Firma ta prezentuje koncepcje autonomicznych ciągników i innych pojazdów rolniczych, które mogą efektywnie pracować na polach bez potrzeby stałego nadzoru człowieka, co przekłada się na zwiększenie efektywności i bezpieczeństwa pracy.

AGCO: Z markami takimi jak Massey Ferguson i Fendt, AGCO także wprowadza innowacje w dziedzinie automatyzacji i robotyki. Ich rozwój technologiczny ma na celu ułatwienie codziennych prac w gospodarstwie i zwiększenie ogólnej produktywności rolnictwa.

Naïo Technologies: Ta francuska firma, specjalizująca się w autonomicznych robotach do pielęgnacji upraw, takich jak odchwaszczanie, demonstruje jak technologie mogą przyczynić się do zrównoważonego rozwoju rolnictwa. Roboty Naïo, takie jak Oz, Dino i Ted, nie tylko zwiększają wydajność prac, ale także minimalizują stosowanie chemikaliów w rolnictwie.

Należy podkreślić, że świetnym przykładem pokazującym wykorzystanie AI w mogących autonomicznie poruszać się samochodach jest Tesla, która już od dawna efektywnie wdraża tą technologię.

Należy na tym etapie wyjaśnić również czym się tak właściwie różni autonomiczność od automatyki. Automatyka odnosi się do systemów zaprogramowanych w celu wykonywania określonych zadań bez interwencji ludzkiej, na podstawie z góry ustalonych algorytmów i instrukcji. W przeciwieństwie do automatyki, autonomiczność danego systemu umożliwia mu samodzielne podejmowanie decyzji, jednocześnie adaptując się do zmieniających warunków bez zewnętrznej ingerencji. Systemy te mają również zdolność do uczenia się na podstawie zgromadzonych danych i doświadczeń 

Świetnym przykładem urządzeń bazujących na systemach automatyki, mogą być urządzenia których celem jest wykonywanie prostych zadań, takich jak automatyczne sortowanie różnego rodzaju produktów pochodzenia roślinnego, oczywiście nic nie stoi na przeszkodzie, by te urządzenia były wyposażone w autonomiczne systemy. Ze względu na problemy z dostępnością siły roboczej, a także rosnącymi kosztami ich zatrudnienia. Na rynku pojawia się coraz więcej zautomatyzowanych sortowni co niewątpliwie przyspiesza pracę w tym aspekcie, a także często zwiększa skuteczność samego sortowania. Wprowadzanie rozwiązań z AI do tych systemów niewątpliwie będzie jedynie zwiększać efektywność tych urządzeń, ze względu na ich wyższą skuteczność, redukowanie błędów i przyspieszenie pracy. 

Niewątpliwie już wkrótce, możemy się obudzić w świecie w którym na plantacjach roboty, drony i autonomiczne maszyny będą wykonywać większość pracy, a rolą człowieka będzie jedynie nadzorowanie ich pracy i serwisowanie.

Czynniki klimatyczne, nawadnianie, żywienie i ochrona roślin

Nie da się mówić o współczesnych technologiach związanych z nawadnianiem, żywieniem i ochroną roślin, nie wspominając o czynnikach klimatycznych. Warunki klimatyczne determinują wszystko, to dlatego każdy sezon wegetacyjny jest nie powtarzalny i kiedy już myślimy że osiągnęliśmy perfekcję, pogoda sprowadza nas na ziemię i uczymy się znowu coś nowego. Powinniśmy więc zacząć od dwóch aspektów, pierwszym z nich jest prognozowanie pogody zarówno długoterminowe jak i na najbliższe kilka godzin. W obu przypadkach dokładniejsze pogody pomagają nam w podejmowaniu optymalnych decyzji i wręcz w pewnym stopniu „przewidywania przyszłości” w kontekście problemów z jakimi będziemy musieli się już wkrótce zmierzyć. 

Sztuczna inteligencja ma coraz bardziej znaczący wpływ na modele klimatyczne i prognozowanie pogody, przede wszystkim ze względu na swoją zdolność przetwarzania ogromnej ilości danych i odnajdywania w nich analogii. AI, szczególnie uczenie maszynowe (ML), jest wykorzystywane do analizy danych meteorologicznych, pochodzących z satelitów, stacji meteorologicznych, balonów atmosferycznych i innych źródeł. Jednocześnie AI pomaga w tworzeniu w krótszym czasie i bardziej zaawansowanych modeli klimatycznych, które mogą symulować potencjalne scenariusze zmian klimatycznych. Dzięki zwiększeniu zrozumienia procesów klimatycznych, dokładności i szybkości prognoz, mamy do dyspozycji bardziej szczegółowe prognozy, co ułatwia nam podejmowanie decyzji, ale co czasami okazuje się być kluczowe, zwiększamy możliwości reagowania na przyszłe ekstremalne zjawiska pogodowe. Ze względu na skuteczniejszą analizę danych, AI prawdopodobnie będzie odkrywać nowych powiązań i zależności w danych klimatycznych, które mogłyby być pominięte w dotychczasowych systemach analizy danych meteorologicznych, mających znacznie mniejsze możliwości. 

Nie inaczej będzie w przypadku analizowania danych z naszych stacji meteorologicznych umieszczonych na obszarze naszych gospodarstw. Dzięki odpowiednio dopracowanych programów korzystających z technologii powiązanych z AI, będziemy otrzymywać znacznie lepsze analizy danych, które będą mogły być analizowanie w kontekście nawadniania, ochrony i żywienia roślin. 

Zacznijmy więc od ochrony roślin, wcześniej wspomniane drony czy innego typu urządzenia chociażby smartfony wyposażone w odpowiednie oprogramowanie, umożliwiają nam identyfikacje agrofagów. Aplikacje przeznaczone do identyfikacji bazujące na prostych algorytmach rozwijane są już od dawna, AI zwiększy jedynie i aż możliwości rozpoznawania wszelkich oznak agrofagów występujących na plantacjach, nie ograniczając się jedynie do określonej grupy. Pozwoli to również na dalsze rozwijanie maszyn autonomicznych, które mają zadanie niszczyć bardzo precyzyjnie agrofagi przy pomocy różnych metod, a ich efektywność zależy od tego jak bardzo system na którym bazują jest w stanie skutecznie i szybko identyfikować agrofagi w uprawie roślin. 

Następnym ważnym krokiem będzie rozwijanie rozbudowanych modeli służących do prognozowania wystąpienia chorób, szkodników, a nawet i chwastów. Szczególną popularnością cieszą się obecnie modele chorobowe umożliwiające np. ocenę ryzyka wystąpienia infekcji parcha jabłoni. Modele tego typu są bardzo kosztowne w rozwijaniu i wymagają ogromnej ilości danych do poprawnego funkcjonowania, niewątpliwie jednak kiedy te dane już są, a także znamy dokładną biologię poszczególnych agrofagów, sztuczna inteligencja umożliwi nam wzniesienie ochrony roślin na zupełnie inny poziom co jest szczególnie ważne w kontekście ograniczenia stosowania środków ochrony roślin i wymagań konsumentów względem ograniczenia pozostałości w żywności. W budowanie nowych modeli z pewnością swój wkład również będzie miała sztuczna inteligencja, która wręcz jest idealna do odnajdywania zależności pomiędzy warunki klimatycznymi, a występowaniem agrofagów. Technologia ta mogłaby być częściową odpowiednią na trudne wyzwanie jakie stawiane jest przed producentami żywności w ramach założeń zielonego ładu. Jednak do efektywnego działania tego typu systemów niezbędna jest wcześniej wspomniana lokalna stacja meteorologiczna, umożliwiająca pozyskiwanie szczegółowych danych w czasie rzeczywistych i ich analizę. Stacja tego typu wykonuje pomiary m.in. ilości opadów, prędkości wiatru, dane o wilgotności, a także temperaturze powietrza i gleby, czy nawet wilgotności samego liścia. 

Nie inaczej jest w przypadku nawadniania i żywienia roślin. Mając do dyspozycji bardziej precyzyjne prognozy pogody jesteśmy w stanie tworzyć bardziej optymalne harmonogramy nawożenia zarówno posypowego, dolistnego jak i poprzez fertygacje. 

W ramach technologii stosowanej szczególnie w systemach uprawy pod osłonami, czy systemach zamkniętych mamy dostęp do jeszcze większej ilości czujników i sensorów m.in. czujniki pH gleby/podłoża, przepływu i ciśnienia wody w instalacji, przewodnictwa elektrycznego (EC), światła i poziomu CO2, przepływu w pędach soku komórkowego oraz zawartości jonów w nim zawartych. Łącznie z wcześniej wymienionymi parametrami możliwymi do mierzenia daje nam to bardzo dużo danych, które by skutecznie można było wykorzystać,  najoptymalniej powinny być poddawane analizie w jednym systemie. Dając jednocześnie takiemu systemowi kontrolę m.in. nad mikserami nawozowymi służącymi do fertygacji, całą instalacją nawadniania, regulacją klimatu, temperatury, światła, zacienienia, składu pożywki i stopnia wietrzenia obiektów. Jest to z pewnością ambitne zadanie by stworzyć tego typu system, biorąc jednak pod uwagę jak bardzo mógłby on zoptymalizować tego typu uprawę roślin i wnieść ją jeszcze na wyższy poziom, można się spodziewać już w niedalekiej przyszłości tak szeroko rozbudowanych autonomicznych systemów sterowanych przez sztuczną inteligencję. 

Oczywiście można podać już również praktyczne przykłady tego typu zastosowań. Na przykład, naukowcy z Imperial College London opracowali nowe narzędzie predykcyjne, które wykorzystuje AI do przewidywania poziomów azotu w glebie. Pozwala to rolnikom na precyzyjne dostosowanie nawożenia do specyficznych potrzeb gleby i upraw, minimalizując jednocześnie negatywne skutki nadmiernego nawożenia, takie jak emisje gazów cieplarnianych oraz zanieczyszczenie gleby i wód. Ta technologia jest obecnie na etapie prototypu i może być dostępna komercyjnie w ciągu kilku lat.

Kolejnym przykładem są badania które koncentrowały się na wykorzystaniu sztucznej inteligencji (AI), uczenia głębokiego (DL) i uczenia maszynowego (ML) w celu opracowania szybkich, dokładnych i niezawodnych metod analizy zawartości wody w glebie (SWC) oraz tekstury gleby.

Blockchain

Geneza powstania rozwiązania blockchain wiąże się ściśle z rozwojem technologii cyfrowych i potrzebą stworzenia bezpieczniejszych, zdecentralizowanych systemów finansowych. Wszystko zaczęło się już w latach 80. i 90. XX wieku, istniały wtedy już idee związane z kryptografią i zdecentralizowanymi sieciami. Jedne z najbardziej zaawansowanych badań prowadzić naukowiec Dawid Chaum, skupiając się na badaniach obejmujące systemy obsługujące anonimowe płatności cyfrowe bazujące na kryptografii. 

W 1993 roku przez Cynthie Dwork i Moni Naor zostaje opisany koncept „Proof of Work” (PoW), jako sposób na kontrolę nad rozsyłaniem spaniu i atakami typu DOS (Denial-of-Service). Następnie w 1997 roku, Adam Back tworzy system PoW, nazwany Hashcash, który zostaje wykorzystany w technologii blockchain.

W 2008 roku tajemnicza osoba (lub grupa osób) znana jako Satoshi Nakamoto publikuję  pracę „Bitcoin: A Peer-to-Peer Electronic Cash System”. Dokument ten przedstawił szczegółowy opis funkcjonowania zdecentralizowanej sieci płatności opartej na technologii blockchain. Kluczowym elementem było zastosowanie łańcucha bloków do zabezpieczenia transakcji bez potrzeby zaufania do centralnej instytucji. 

Rok 2009 to narodziny najbardziej znanej obecnie kryptowaluty zwanej „Bitcoin”, której twórcą również jest Satoshi Nakamoto. Osoba ta (lub grupa osób) implementuję pierwszą wersję oprogramowania Bitcoin i „wykopuje” pierwszy blok nazwany blokiem Genesis. Wydarzenie to było pierwszym praktycznym zastosowaniem technologii blockchain i stanowiło kamień milowy dla dalszego rozwoju tej technologii.

Po sukcesie Bitcoina, technologia blockchain zaczęła być wykorzystywana w różnych sektorach poza cyfrowymi walutami, w tym w finansach, łańcuchach dostaw, zdrowiu publicznym i wielu innych. Ethereum, stworzone przez Vitalika Buterina, wprowadziło koncepcje smart kontraktów, dając kolejny impuls do rozwoju i zastosowań blockchain.

W przeciwieństwie do tradycyjnych baz danych, które są przechowywane i zarządzane centralnie, blockchain rozprasza swoje dane na wielu komputerach. To sprawia, że system jest bardziej odporny na ataki i awarie. Technologia ta używa serii „bloków”, które zawierają informacje o transakcjach. Każdy nowy blok jest łączony z poprzednim, tworząc łańcuch (stąd nazwa „blockchain”). Raz zapisane informacje są bardzo trudne do zmiany. Każdy blok zawiera unikatowy kod, zwanym hashem, który jest ściśle powiązany z kodem poprzedniego bloku. Zmiana informacji w jednym bloku wymagałaby zmiany we wszystkich następujących po nim blokach. Wiele blockchainów jest publicznych, co oznacza, że każdy może zobaczyć zawarte w nich transakcje. To zapewnia wysoki poziom przejrzystości. W blockchainie nie ma centralnego organu decyzyjnego. Zamiast tego, decyzje dotyczące dodawania nowych bloków do łańcucha są podejmowane przez sieć na podstawie mechanizmów konsensusu, jak wcześniej wspomnianego Proof of Work (PoW) czy Proof of Stake (PoS). 

Blockchain umożliwia tworzenie smart kontraktów, które są automatycznie wykonywane, gdy spełnione są określone warunki, bez potrzeby pośrednictwa trzeciej strony. W rozbudowanych łańcuchach dostaw, blockchain może być używany do śledzenia pochodzenia produktów, co jest szczególnie ważne dla autentyczności i jakości. Oferuje on nowe sposoby zarządzania i zabezpieczania danych osobowych, dając użytkownikom większą kontrolę nad ich informacjami.

Pomimo tego, że wykorzystanie tej technologii w sektorze uprawy roślin jest stosunkowo nowym zjawiskiem, to ma ona w nim ogromny potencjał. Jej wpływ na poprawę przejrzystości, efektywności i zaufania w sektorze uprawy roślin jest już widoczny i ma tendencję do wzrostu. Technologia ta daje możliwość śledzenia pochodzenia produktów rolnych poprzez tworzenie niezmiennych i przejrzystych łańcuchów dostaw, dzięki temu konsumenci mają możliwość sprawdzania pochodzenia produktów, od pola aż po sklep. Rozwiązanie to mogłoby zwiększyć zaufanie konsumentów szczególnie w stosunku do produktów regionalnych mając pewność co do ich jakości i autentyczności. 

Użycie tej technologii umożliwia efektywniejsze zarządzenie łańcuchem dostaw, ułatwiając kontrolę warunków w jakich rośliny są transportowane poprzez monitorowanie temperatury podczas przewozu. Producenci mogą również używać tej technologii do efektywniejszego zarządzania danymi dotyczącymi funkcjonowania ich gospodarstwa, wykorzystywać ją do automatyzacji i ułatwienia procesów finansowych, szczególnie transakcji między poszczególnych podmiotami. Dużym ułatwieniem dla właścicieli gospodarstw mogą stać się smart kontrakty, które automatyzowują pewne procesy, takie jak płatności po osiągnięciu określonych warunków uprawy czy dostawy, co usprawnia i zabezpiecza transakcje w obie strony. 

Rozwój sztucznej inteligencji ma potencjał do znaczącego wpływu na technologię blockchain, co może prowadzić do innowacyjnych rozwiązań w różnych dziedzinach. AI może usprawnić procesy konsensusu w blockchainie, zwiększając jego efektywność i skalowalność. W zakresie bezpieczeństwa, AI może analizować wzorce transakcji, aby wykrywać próby oszustw czy ataki. Ponadto, AI umożliwia głębsze analizy danych zgromadzonych w blockchainie, co ma znaczenie w obszarach finansowych, logistycznych czy zdrowia publicznego. Automatyzacja smart kontraktów dzięki AI może przynieść bardziej zaawansowane rozwiązania, zdolne do samodzielnego uczenia się i adaptacji. AI wspiera także optymalizację zużycia energii i personalizację usług, korzystając z danych z blockchainu. Wreszcie, połączenie AI z blockchainem może przyczynić się do rozwoju zaawansowanych aplikacji zdecentralizowanych (dApps). Jednak integracja AI z blockchainem wiąże się z wyzwaniami dotyczącymi prywatności, etyki i bezpieczeństwa danych. Zarówno AI, jak i blockchain to stosunkowo nowe technologie, których pełny potencjał i ograniczenia są wciąż badane.

Biotechnologia

Biotechnologia w kontekście produkcji roślinnej odnosi się do zastosowania nauk biologicznych, w tym genetyki, mikrobiologii i biochemii, w celu ulepszania, modyfikacji i optymalizacji procesów produkcji roślin. Obejmuje ona szeroki zakres technik, m.in.: inżynierii genetycznej (tworzenie genetycznie modyfikowanych organizmów (GMO)), hodowli tkankowej (klonowanie roślin i szybkie rozmnażanie zdrowych, wydajnych oraz nowych odmian) oraz opracowywanie biologicznych środków ochrony roślin. 

Ma ona szerokie zastosowanie również w tradycyjnych programach hodowlanych, a nie tylko tych związanych z genetycznie modyfikowanymi organizmami (GMO), oferując narzędzia do przyspieszania i usprawniania hodowli. Techniki jak Marker Assisted Selection (MAS) pozwalają na szybką identyfikację pożądanych cech genetycznych bez modyfikowania DNA roślin. Hodowla tkankowa i klonowanie umożliwiają efektywne rozmnażanie genetycznie jednorodnych roślin, zachowując ich cenne cechy. Kontrolowane krzyżowanie i hybrydyzacja wykorzystują biotechnologię do selekcji odpowiednich rodziców w celu uzyskania nowych kombinacji genetycznych. Diagnostyka genetyczna pozwala na wczesne wykrywanie chorób i ocenę potencjału hodowlanego, a inżynieria metaboliczna służy do optymalizacji ścieżek metabolicznych roślin. Dodatkowo, banki genów odgrywają kluczową rolę w ochronie różnorodności genetycznej, istotnej dla przyszłych programów hodowlanych. Wszystko to przyczynia się do szybszego osiągania pożądanych cech u roślin, zwiększając efektywność i wydajność hodowli.

Sztuczna inteligencja (AI) wnosi rewolucyjne zmiany w biotechnologii roślinnej, przyspieszając badania i rozwój nowych technik. AI ułatwia analizę danych genetycznych, co pomaga w identyfikacji genów odpowiedzialnych za ważne cechy roślin, jak odporność na choroby czy suszę. Algorytmy uczenia maszynowego pozwalają przewidywać wpływ zmian genetycznych na cechy roślin, co przyspiesza hodowlę nowych odmian. AI automatyzuje eksperymenty, takie jak hodowla tkankowa, i optymalizuje warunki hodowli, co zwiększa efektywność badań. W bioinformatyce AI analizuje sekwencje DNA, ułatwiając zrozumienie złożonych interakcji genetycznych. 

Przykładem praktycznego zastosowania sztucznej inteligencji w badaniach wpływających na postępy w biotechnologii jest AlphaFold. Został on stworzony przez DeepMind, brytyjską firmę specjalizującą się w sztucznej inteligencji, będącą częścią Alphabet Inc. Prace nad AlphaFold rozpoczęły się jako część długoterminowego projektu DeepMind w dziedzinie nauki o życiu i biologii. Badania było prowadzone przez zespół naukowców pod kierownictwem Johna Jumpera. Swoje osiągnięcia zespół DeepMind prezentował m.in. podczas prestiżowego międzynarodowego konkursu CASP (Critical Assessment of Structure Prediction), którego celem jest przeprowadzenia testów dla algorytmów przewidujących struktury białek. W 13 edycji CASP w 2018 roku, AlphaFold wykorzystując techniki uczenia maszynowego, osiągnął najlepsze wyniki spośród wszystkich konkurentów, ale również wykazał zdolność do przewidywania struktur białek z dokładnością porównywalną do metod eksperymentalnych, takich jak krystalografia rentgenowska czy spektroskopia NMR. Już podczas CASP w 2020 roku, AlphaFold osiągnął przełomowe sukcesy, uzyskując rekordowe wyniki, jednocześnie zdobywając najwyższe oceny w historii konkursu i przewidując struktury białek z niebywała dokładnością. Został on uznany za rozwiązanie „problemu 50-letniego” w biologii, polegającego na zdolności do dokładnego przewidywania struktury białek wyłącznie na podstawie ich sekwencji aminokwasowej. Osiągnięcia te opisano w publikacji pt. „Highly accurate protein structure prediction with AlphaFold”  w 2021 roku w czasopiśmie „Nature”

Sukces ten otworzył nowe możliwości w badaniach biologicznych i biomedycznych, umożliwiając lepsze zrozumienie mechanizmów działania białek oraz ich roli w różnych procesach życiowych i chorobach. Wyniki AlphaFold w CASP zmieniły sposób, w jaki naukowcy podchodzą do problemu struktury białek. Przed tymi osiągnięciami, dokładne określenie struktury białka było czasochłonne i wymagało skomplikowanych eksperymentów. AlphaFold przyspieszył i uprościł ten proces, co ma olbrzymie znaczenie dla przyszłych badań w biologii molekularnej, rozwoju leków, zrozumienia chorób oraz innych dziedzin nauk o życiu. 

DeepMind ponadto udostępnił kod źródłowy AlphaFold, co umożliwiło naukowcom z całego świata wykorzystanie tej technologii w swoich badaniach. W 2021 roku DeepMind, we współpracy z Europejskim Instytutem Bioinformatyki, udostępnił bazę danych zawierającą przewidywane przez AlphaFold struktury białek, co stanowi cenny zasób dla naukowców na całym świecie. Zespół AlphaFold otrzymał wiele wyróżnień, w tym prestiżową Breakthrough Prize w dziedzinie nauk o życiu w 2023 roku za rozwój AlphaFold.

Porozumiewanie się z AI

Jednym z najbardziej fascynujących dla nas tematów związanych z AI jest obecnie wdrażanie się nowych użytkowników do tej technologii. Odnoszę jednak wrażanie, że o ile w środowiskach mających pełną świadomość obecnego postępu, nie dyskutuje się już jak wręcz nierealny jest to skok dla naszego gatunku i potrzebie dostosowania się do zmian w celu nie zostawania w tyle za innymi ludźmi, a uwaga skupiona jest przede wszystkim nad zagrożeniami płynącymi ze strony AI, wpływem na nasz gatunek i najbliższymi możliwymi kolejnymi rozwinięciami tej technologii, to o tyle u drugiej grupy osób mających świadomość istnienia AI, często wkrada się mnóstwo sceptycyzmu i próby „umniejszania” możliwościom sztucznej inteligencji. Wyciąganie negatywnych wniosków z użytkowania sztucznej inteligencji wynika często z samych błędów w używaniu tej technologii oraz braku świadomości o granicach możliwości poszczególnych systemów AI. Już sam GPT-3.5 od 4 różnie się fundamentalnie w swoich zakresach możliwości. Jednym z ważniejszych argumentów jest fakt, że bazy danych użyte do treningu modelu ChatGPT-3.5 obejmują informacje zgromadzone do około września 2021 – stycznia 2022 roku, a w przypadku ChatGPT-4 do około kwietnia 2023 roku. Dodatkowo wersja 3.5 nie może korzystać z zasobów w sieci, w przeciwieństwie do wersji 4, która posiada narzędzie umożliwiające jej przeglądanie internetu. Następną ogromną wręcz różnicą jest odczytywanie i generowanie obrazów przez wersję 4, funkcji takiej nie posiada wersja 3.5. Jakie więc są tego głębsze konsekwencje ? Zacznijmy więc od błędów jakie popełniane są rozumieniu poprawnego użytkowania sztucznej inteligencji i przede wszystkim świadomości z posiadających przez nią ograniczeń. Przykład będzie ciekawy, ponieważ pokażemy różnice w funkcjonowaniu pomiędzy tymi wersjami posługując się zadaniem obejmującym podział częstotliwości przy pomocy układów scalonych. 

Zadaniem dla modelu było wybranie optymalnych układów scalonych z rodziny CmOs, w celu realizacji podziału częstotliwości z 56000Hz na 50Hz. Do realizacji tego zadania potrzebna jest nie tylko sama wiedza teoretyczna, ale również dostęp do dokładnych schematów układów scalonych. O ile proponowane rozwiązania przez obie wersje są zazwyczaj poprawne pod względem dobrania odpowiednich wartości dzielenia częstotliwości (chodź w przypadku szczególnie wersji 3.5 i nawet z tym bywa różnie) przez poszczególne układy scalone, to problem się pojawia przy pinach i określonych do nich wyjściach. 

Poprawne rozwiązanie zostało dopiero zaproponowane kiedy ChatGPT-4 sięgnął do zasobów sieciowych i odniósł się do faktycznych schematów poszczególnych modeli układów scalonych, które zaproponował. W przypadku ChatGPT-3,5 jest to nie realne, ponieważ nie ma dostępu do tych schematów. W dodatku w przypadku ChatGPT-4 mamy możliwości samodzielnego nakierowania go w „dobrą stronę”, ponieważ schematy układów scalonych zaproponowanych w rozwiązaniu zadania możemy załączyć na czacie w celu sprawdzenia poprawności wykonanego planu podziału.

Co ciekawe ChatGPT-3,5 będzie proponował rozwiązanie zadania, lecz po sprawdzeniu poprawności okazuje się, że „coś tu nie pasuje” względem tego co widzimy w schematach układów scalonych. Następnie pada w końcu polecenie do odwołania się do schematów i dopiero wtedy model odpowiada, że niestety ale nie ma dostępu do tego typu zasobów, oczywiście cała złość skierowania jest wtedy w stosunku do sztucznej inteligencji, ale czy na pewno to tylko jej wina za tą stratę czasu ? 

Jest to przykład fundamentalnego błędu w kontekście podejścia do pracy z sztuczną inteligencją. Użytkownicy przede wszystkim oczekują często „cudu”, zadają AI bardzo uproszczone polecenia dla złożonych zadań wymagających wielu szczegółów, po czym otrzymując niezadowalająca odpowiedź szybko się zniechęcają i krytykują obecne możliwości modeli. Jest to związane przede wszystkim z bardzo wysokimi oczekiwaniami i wręcz nastawieniu, że przecież skoro sztuczna inteligencja jest czymś tak niesamowitym to i czyta pewnie nam w myślach albo przynajmniej wszystkiego się sama domyśli. Prawda jest zupełnie inna, należy mieć na uwadzę, że sztuczna inteligencja jest wzorowana przede wszystkim na ludzkim mózgu, nie będąc aktualnie na jeszcze jego poziomie a jedynie posiadając o wiele większe zasoby wiedzy niż pojedynczy człowiek. Do użytkowania szczególnie modeli takich jak ChatGPT powinniśmy podchodzić więc jak do rozmowy z żywym człowiek, w końcu jedną z głównych cech tego modelu jest imitowanie rozmowy z przedstawicielem naszego gatunku. W przedstawionym przykładzie o układach scalonych, użytkownik przede wszystkim na początku powinien się upewnić, że ChatGPT ma możliwości poprawnego wykonania zadania i zapytać o to wprost. Oszczędziło by to sporo czasu, a także nerwów. Także w realnym życiu opieramy się przede wszystkim na jakości komunikacji z innym ludźmi w celu realizacji określonych zadań, czym jaśniej precyzujemy nasze założenia i lepiej je wytłumaczymy innemu człowiekowi tym istnieje większa szansa na powodzenie i unikanie błędów. Należy również pamiętać przede wszystkim, że skoro sztuczna inteligencja obecnie nie jest jeszcze na poziomie możliwości ludzkiego umysłu to jak można oczekiwać od niej, że się nie myli ? Najwybitniejsze umysły naszego gatunku potrafiły się mylić wręcz spektakularnie, na przełomie dziewiętnastego i dwudziestego wieku panowało przekonanie wśród wielu uczonych, że podstawowe zasady fizyki zostały już odkryte, a przyszłe badania będą się skupiać na udoskonalaniu i rozszerzaniu istniejących teorii, co skutkowało zapisaniem się w historii słów „Fizyka zostanie ukończona za pół roku.. Mimo to, niedługo potem, nadejście teorii kwantowej i teorii względności udowodniło, że dziedzina fizyki wciąż kryje w sobie obfitość nieodkrytych tajemnic i obecnie nie jest nawet blisko odkrycia wszystkich praw jakie rządzą naszym światem.

Niech praca z sztuczną inteligencją będzie przede wszystkim dla nas przygodą i odkrywaniem możliwości tego sztucznego „umysłu”, a na pewno takie nastawienie poskutkuje odkrywaniem niezliczonych nowych możliwości i przyspieszeniem wykonywania wielu czynności. Jedne z najbardziej zabawnych słów o pracy z AI, jakie usłyszałem dotychczas sugerowały byciem miłym dla AI, ponieważ może wtedy nas oszczędzi jak już przejmie władzę nad światem, więc pół żartem, pół serio, ale może warto to rozważyć.

Narzędzia dla naukowców

Nie będzie zapewne dla nikogo zaskoczeniem, że zaczniemy od opisania kolejnego przełomu w kontekście wykorzystania sztucznej inteligencji do rozwiązywania problemów naukowych. Obalono tym samym tezę, że tylko człowiek może „uprawiać naukę”. W artykule naukowym pt. „Mathematical discoveries from program search with large language models” opublikowanym pod koniec 2023 roku przez Romera-Paredes i in., na łamach czasopisma Nature. Naukowcy pokazują, że współczesne Duże Modele Językowe (Large Language Models, LLMs) osiągnęły znaczące zdolności w rozwiązywaniu skomplikowanych zadań, począwszy od rozumowania ilościowego po zrozumienie języka naturalnego. Jednakże, LLMs mają czasami tendencję do konfabulacji (lub halucynacji), co może prowadzić do tworzenia płynnych, ale niepoprawnych stwierdzeń. Mimo to, wprowadzenie metody FunSearch (poszukiwanie w przestrzeni funkcji) pokazuje, jak można przełamać te ograniczenia. FunSearch, będąc ewolucyjnym procesem, łączy wytrenowany LLM z systematycznym ewaluatorem, co pozwala na przełomowe odkrycia w różnych problemach, w tym w ekstremalnej kombinatoryce czy algorytmice. FunSearch działa poprzez łączenie Dużego Modelu Językowego (LLM) z ewaluatorem w celu rozwiązywania złożonych problemów. LLM generuje propozycje rozwiązań, które są następnie oceniane przez ewaluatora. Proces ten jest iteracyjny – najlepsze programy są ponownie wprowadzane do LLM do dalszego ulepszania. Kluczowym aspektem jest skupienie się na ewolucji najważniejszej logiki programu, co pozwala na efektywniejsze i celowane poszukiwanie rozwiązań.

FunSearch został przetestowany na dwóch głównych rodzajach problemów:

1.Ekstremalna Kombinatoryka: Konkretnie na problemie tzw. cap set, który polega na znalezieniu jak największego zbioru wektorów w Z_3^n (gdzie żadne trzy wektory nie sumują się do zera). FunSearch został użyty do odkrycia nowych konstrukcji dużych zbiorów cap, które przekraczają dotychczas najlepsze znane wyniki. To odkrycie reprezentuje pierwsze przypadki, w których LLMs zostały użyte do znalezienia nowych rozwiązań istotnych otwartych problemów matematycznych.

2.Algorytmiczne Pakowanie Binów (Bin Packing): Jest to jeden z centralnych problemów w optymalizacji kombinatorycznej. Celem jest zapakowanie zestawu przedmiotów o różnych rozmiarach do jak najmniejszej liczby stałorozmiarowych pojemników (binów). FunSearch został użyty do znalezienia nowych heurystyk dla tego problemu, które poprawiają powszechnie stosowane metody, takie jak „first fit” i „best fit”. Wydajność tych heurystyk została zbadana na symulowanych danych, pokazując znaczące ulepszenia.

Te dwa testy wyraźnie demonstrują wszechstronność i potencjał FunSearch w rozwiązywaniu różnorodnych, skomplikowanych problemów naukowych i algorytmicznych.

Zapewne już w niedalekiej przyszłości usłyszymy o wielu narzędziach usprawniających pracę naukowców u samych podstaw jak i dające możliwość rozwiązywania problemów dotychczas nie rozwiązanych. Modele będą często tworzone do bardzo specjalistycznego i wąskiego wykorzystania w badaniach, jedyne pytanie jakie jeszcze możemy sobie zadać to kiedy AI i jej twórcy dostaną pierwszą nagrodę Nobla. Wydaje się, że najbliżej aktualnie tego celu jest wcześniej wspomniany przy okazji omawiania biotechnologii AlphaFold.

„Game changer” – komputer kwantowy

Odkrycia z dziedziny fizyki miały ogromny wpływ na nasz świat, zarówno pod względem technologicznym, jak i w kontekście naszego rozumienia wszechświata. Wpływ ten jest wieloaspektowy i obejmuje różne obszary życia oraz nauki. Fizyka półprzewodników doprowadziła do stworzenia tranzystorów i układów scalonych, co z kolei umożliwiło powstanie komputerów, smartfonów, i szerokiej gamy urządzeń elektronicznych, które są nieodzowne w codziennym życiu. Bez tych odkryć nigdy by się nie rozwinęła sztuczna inteligencja. Więc czy fizyka powiedziała już ostatnie słowo w kwestii rozwoju również sztucznej inteligencji ? Zdecydowanie nie, postęp w mechanice kwantowej może potencjalnie wznieść możliwości AI na niewyobrażalny i trudny do przewidzenia poziom. Świat kwantowy jest równie niesamowity co obecne możliwości sztucznej inteligencji, ale czym właściwie jest mechanika kwantowa i jak to się wszystko zaczęło ?

W niespokojnych wodach nauki na początku XX wieku pojawiła się teoria, która miała przedefiniować nasze rozumienie rzeczywistości na najbardziej podstawowym poziomie. Ta teoria, znana jako mechanika kwantowa, rozpoczęła swoje życie jako seria zagadek, które wstrząsnęły fundamentami klasycznej fizyki. 

Jedną z pierwszych zagadek była kwestia promieniowania ciała doskonale czarnego, które zmusiło Maxa Plancka do zasugerowania, że energia jest emitowana w dyskretnych porcjach, czyli kwantach. To odkrycie otworzyło drzwi do świata, w którym stary obraz ciągłej natury energii był już nieaktualny. Albert Einstein podjął to wyzwanie, wykorzystując koncepcję kwantów do wyjaśnienia efektu fotoelektrycznego i sugerując, że światło może zachowywać się jak strumień cząstek – fotonów. To było rewolucyjne, rzucając wyzwanie dotychczasowej faliowej koncepcji światła. 

W latach 20. XX wieku, Werner Heisenberg i Erwin Schrödinger, pracując niezależnie, stworzyli dwie formułacje mechaniki kwantowej. Heisenberg wprowadził mechanikę macierzową, podczas gdy Schrödinger sformułował równanie falowe. Obie teorie, choć różne w swojej formie, opisywały tę samą kwantową rzeczywistość. Następnie Paul Dirac, w 1928 roku, zrewolucjonizował teorię jeszcze bardziej, łącząc mechanikę kwantową z teorią względności Einsteina. Jego praca przewidziała istnienie antymaterii, co było kolejnym krokiem w kierunku zrozumienia tajemniczego kwantowego wszechświata. 

W tym czasie Niels Bohr i Werner Heisenberg sformułowali Interpretację Kopenhaską mechaniki kwantowej, która głosiła, że cząstki kwantowe nie mają zdefiniowanych właściwości przed ich zmierzeniem. Taki probabilistyczny obraz rzeczywistości był trudny do zaakceptowania, nawet dla Einsteina. Einstein, będący zwolennikiem determinizmu, miał trudności z zaakceptowaniem probabilistycznego charakteru mechaniki kwantowej. Jego słynne stwierdzenie „Bóg nie gra w kości” było wyrazem jego niezgody na ideę, że zdarzenia na poziomie kwantowym są z natury przypadkowe i nieprzewidywalne. Wierzył, że powinny istnieć „ukryte zmienne”, które wyjaśnią te zjawiska w sposób deterministyczny. 

Debata wokół mechaniki kwantowej osiągnęła punkt kulminacyjny z paradoksem EPR (Einstein-Podolsky-Rosen) w 1935 roku, kwestionującym niekompletność mechaniki kwantowej i wprowadzającym koncepcję splątania kwantowego. To otworzyło drogę do nowych i głębokich zrozumień kwantowej rzeczywistości. Dzisiaj mechanika kwantowa jest nie tylko fundamentem nowoczesnej fizyki, ale także podstawą dla rozwoju technologii, od tranzystorów, przez lasery, po komputery kwantowe i techniki obrazowania medycznego. Ta niesamowita podróż od teoretycznych podstaw po praktyczne zastosowania pokazuje, jak daleko możemy zajść, gdy pozwalamy sobie na odważne myślenie poza granicami tradycyjnego rozumienia.

Jeden z najbardziej znanych i najbardziej znaczących w dziedzinie mechaniki kwantowej eksperymentów, szczególnie w kontekście teleportacji kwantowej i splątania kwantowego został przeprowadzony przez chińskich naukowców z wykorzystaniem satelity Micius. Podstawy eksperymentu opierały się na zjawisku splątania kwantowego, które zakłada, że stan jednego obiektu kwantowego może natychmiast wpływać na stan innego obiektu, bez względu na odległość między nimi. W praktyce pozwala to na „teleportację” informacji kwantowych na teoretycznie nieskończone odległości. Eksperymenty wykazały, że teleportacja jest możliwa nawet na dużych dystansach, co było wcześniej uważane za trudne do osiągnięcia z powodu wrażliwości na zakłócenia środowiskowe.

Eksperyment z wykorzystaniem satelity Micius miał na celu zbudowanie globalnej sieci komunikacji kwantowej. Satelita, będący częścią programu Quantum Experiments at Space Scale (QUESS), wykorzystywał lasery do wysyłania splątanych fotonów. Jeden z fotonów był przesyłany do satelity, podczas gdy drugi pozostawał na Ziemi. Następnie dokonywano pomiarów fotonów na Ziemi i na orbicie, aby potwierdzić, że zachodzi splątanie kwantowe i że możliwa jest teleportacja kwantowa na tę odległość. Przez 32 dni przesłano miliony fotonów, uzyskując pozytywne wyniki w 911 przypadkach.

Ten eksperyment ustanowił nowy standard w dziedzinie teleportacji kwantowej, otwierając drogę do rozwoju globalnej sieci kwantowej i zwiększając potencjał dla bezpiecznych technologii komunikacyjnych opartych na mechanice kwantowej. Pokazał również dominację Chin w tej dziedzinie nauki, która do niedawna była prowadzona głównie przez Europę i Stany Zjednoczone. Eksperyment ten pobił rekord odległości w teleportacji kwantowej, transmitując splątane fotony na dystans 1,200 km (746 mil).

W eksperymencie, który również zyskał dużo uwagi, naukowcy podjęli próbę umieszczenia niesporczaka, znanego również jako „water bear”, w stanie splątania kwantowego z parą kubitów. W ramach tego eksperymentu, badacze z Nanyang Technological University w Singapurze użyli niesporczaków, ponieważ są one wyjątkowo odporne i mogą przetrwać w ekstremalnych warunkach, wchodząc w stan przypominający zawieszenie animacji. Eksperyment ten miał na celu połączenie systemu kwantowego z systemem biologicznym, co jest wyzwaniem, ponieważ życie jest skomplikowane, podczas gdy obiekty kwantowe są małe, zimne i dobrze kontrolowane.

Naukowcy zamrozili niesporczaki do temperatury bliskiej absolutnemu zeru i obniżyli ciśnienie do niezwykle niskiego poziomu. Niesporczaki wyglądały na martwe, ale nie były – ich metabolizm spadł do zera, a one weszły w stan kryptobiozy. Następnie próbowano splątać je z dwoma superprzewodzącymi kubitami transmon używanymi w komputerach kwantowych. Jeden z niesporczaków został pomyślnie rozmrożony po eksperymencie.

Chociaż wyniki tego eksperymentu zostały opublikowane, inni fizycy nie są przekonani do twierdzeń o rzeczywistym splątaniu kwantowym. Niektórzy argumentują, że pokazano tylko klasyczną interakcję między niesporczakiem a kubitem, a nie prawdziwe splątanie kwantowe. Kwestia, czy doszło do prawdziwego splątania kwantowego, pozostaje otwarta i prawdopodobnie będzie wymagała dalszych badań i recenzji przez innych naukowców.

Eksperyment ten był z pewnością pionierski i pokazał niezwykłą wytrzymałość niesporczaków, ale czy rzeczywiście osiągnięto splątanie kwantowe, jest nadal przedmiotem debaty w społeczności naukowej.

Oprócz komunikacji kwantowej trwają wzmożone badania nad kryptografią kwantową w celu zachowania bezpieczeństwa najważniejszych systemów na świecie, szczególnie w świetle możliwości zbudowania komputera kwantowego, który z dużym prawdopodobieństwem z łatwością by łamał wszystkie istniejące obecnie systemy bezpieczeństwa. W ciągu ostatnich dekad, kryptografia kwantowa przeszła od eksperymentów laboratoryjnych do realnych zastosowań. W wielu krajach trwają prace nad budową kwantowych sieci komunikacyjnych, które mają na celu stworzenie niespotykanie bezpiecznych kanałów dla przesyłu danych. Kryptografia kwantowa, raz uważana za abstrakcyjną koncepcję, jest teraz na pierwszej linii cyfrowego pola bitwy, chroniąc nasze najważniejsze informacje. Od paradoksów teoretycznych do kwantowych sieci, jej historia jest fascynującą podróżą przez skomplikowany świat fizyki, matematyki i technologii. W miarę jak stawiamy czoła nowym wyzwaniom w erze cyfrowej, kryptografia kwantowa stoi jako strażnik naszej cyfrowej bezpieczeństwa, symbol postępu i nieustannego dążenia do odkrywania tajemnic.

Komputer kwantowy to „obusieczny miecz” Z jednej strony, ich zdolność do rozwiązywania problemów, które są niemożliwe do pokonania dla klasycznych komputerów, stwarzała potencjalne zagrożenie dla tradycyjnych metod kryptografii. Z drugiej strony, te same technologie kwantowe otwierały nowe możliwości dla bardziej zaawansowanych systemów kryptografii kwantowej, zdolnych oprzeć się atakom nawet najpotężniejszych komputerów kwantowych. Czym jednak tak właściwie jest ten komputer kwantowy ?

Komputer ten to rodzaj komputera, który wykorzystuje zasady mechaniki kwantowej do przetwarzania informacji. Różni się on znacząco od klasycznych komputerów, które opierają się na bitach. 

Podstawową jednostką informacji w komputerze kwantowym jest kubit (kwantowy bit). W przeciwieństwie do klasycznego bitu, który może przyjąć stan 0 lub 1, kubit może znajdować się w stanie superpozycji, co oznacza, że może reprezentować 0 i 1 jednocześnie.

Superpozycja to zjawisko kwantowe, dzięki któremu kubit może istnieć w wielu stanach naraz. Pozwala to na przetwarzanie dużej ilości danych jednocześnie, co teoretycznie może znacząco zwiększyć moc obliczeniową komputera kwantowego.

Z kolei wcześniej już wspomniane zjawisko splątania kwantowego, jest kolejną unikalną cechą mechaniki kwantowej, gdzie kubity mogą być ze sobą splątane w taki sposób, że stan jednego kubitu może zależeć od stanu innego, niezależnie od odległości między nimi. To zjawisko może umożliwiać bardzo szybką wymianę informacji. : W komputerach kwantowych stosuje się bramki kwantowe do manipulowania stanami kubitów. Są one odpowiednikami bramek logicznych używanych w tradycyjnych komputerach, ale pozwalają na znacznie bardziej złożone operacje.

Komputery kwantowe mają potencjał do rozwiązywania niektórych rodzajów problemów znacznie szybciej niż klasyczne komputery, szczególnie te, które wymagają dużej mocy obliczeniowej, jak faktoryzacja dużych liczb, optymalizacja czy symulacje kwantowe. Urządzenia te są nadal na wczesnym etapie rozwoju i napotykają na liczne wyzwania techniczne, w tym utrzymanie stanu kubitów (tzw. koherencji kwantowej) oraz błędy w obliczeniach. Ponadto, te komputery wymagają ekstremalnych warunków, takich jak bardzo niskie temperatury, aby funkcjonować. Komputery kwantowe są nadal w fazie intensywnych badań i nie są jeszcze szeroko dostępne do użytku komercyjnego. Mimo to, ich rozwój stanowi fascynujący kierunek w dziedzinie technologii i informatyki, oferując obiecujące perspektywy dla przyszłości przetwarzania danych. 

Sztuczna inteligencja, która będzie operować na w pełni funkcjonalnej technologii komputerowej będzie przede wszystkim mogą przetwarzać ogromne ilości danych szybciej niż tradycyjne komputery. Ponadto przyspieszeniu ulegną algorytmy uczenia maszynowego, szczególnie te wymagające intensywnych obliczeń, jak głębokie uczenie się i efektywniej przeszukiwać przestrzenie parametrów w trakcie trenowania sieci neuronowych, co może prowadzić do szybszego oraz dokładniejszego uczenia się.

Przyszłość

Niezależnie o jakiej branży będziemy dyskutować, to aktualne zmiany, które już zachodzą będące konsekwencją rozwoju sztucznej inteligencji i technologii wymuszają na nas podjęcie decyzji o wykonaniu kroku w celu stania się częścią obecnego rozwoju lub coraz mocniejszego odstawania w tym „wyścigu zbrojeń”. Produkcja roślinna nie jest tu wyjątkiem i za nim się obejrzymy, jeśli nie u nas w kraju to z pewnością, inne państwa będą wdrażać i już to robią najnowsze technologie, które pozwolą im na zyskanie ogromnej przewagi. 

Chciałbym jednak zwrócić uwagę na sytuację pojedynczej osoby, zwykło się mówić kiedy ktoś czuje się przytłoczony ilością pracy lub potrzebuje pomocy w wykonywaniu wielu zadań jednocześnie, że trzeciej ręki nie mamy i pewnie długo jeszcze jej nie będziemy mieć, chodź ręki sobie nie dam za to uciąć. Najpotężniejszym „narzędziem” jakie posiadamy jest jednak nasz umysł, a historia udowodniła, że zgromadzenie dużej ilości wybitnych umysłów w jednym miejscu może prowadzić do niesamowitego postępu, czego przykładem jest chociażby projekt Manhattan mającym na celu opracowanie pierwszej bomby atomowej. W tym momencie zachęcam do refleksji jak duża przewagę zyskuje osoba mająca dostęp do już nadchodzących następców ChatGPT-4, nad osobami, które kroczą samotną ściężką, w tym przypadku po prostu nie używających sztucznej inteligencji. Osoba taka ma non-stop do dyspozycji drugi sztuczny umysł, a może już niedługo nawet przewyższający gatunek nagiej małpy, mieszczący się w dosłownie smartfonie, komputerze czy tablecie. AI się nie męczy, nie marudzi, nie denerwuje, nie musi spać i może pracować 24 godzinę na dobę na maksymalnych obrotach, nie zmniejszając ani przez chwilę swojej efektywności, jednocześnie posiadając dostęp do całej wiedzy jaką posiada nasz gatunek jedynie z wyjątkiem tej, która nigdzie nie została zapisana, a jedynie tkwi w pojedynczych ludzkich umysłach. Ludzie jako gatunek dominujący na planecie Ziemia, przynajmniej przez jeszcze jakiś czas mają możliwość wydawania poleceń sztucznej inteligencji, która w odpowiednich rękach ma możliwości wręcz niemożliwe do określenia w jakichkolwiek ramach. Nie ulega więc wątpliwości, że podział społeczeństwa może się jeszcze zwiększyć na tych którzy i bez sztucznej inteligencji dążyli do rozwoju, a teraz dostali w swoje ręce jeszcze dodatkowo „super moc” oraz na tych, którzy są zainteresowani jedynie rozrywką, a rozwój ludzkości niekoniecznie jest dla nich czymś co ich interesuje. 

Zagrożenie ze strony sztucznej inteligencji jest realne, ostatnie kilkadziesiąt lat pokazały jednak, że opracowanie broni masowego rażenia zapewniło względny pokój przynajmniej w części świata jakiego wcześniej ludzie nie doświadczyli, jest więc szansa, że AI może również odegrać tą samą rolę, oczywiście istnieje też realna możliwość nasilenia obecnych konfliktów jakie obserwujemy. W perspektywie jednak najbliższych kilku miesięcy, możemy oczekiwać, że sztuczna inteligencja będzie odpowiedzialna za ogromny rozwój we wszystkich dziedzinach, a przewidywanie w dłuższej perspektywie to jak wróżenie z fusów, nie ma jakiekolwiek sensu. Jedyne pytanie jakie sobie każdy z nas może zadać to czy mając pełną świadomość możliwości sztucznej inteligencji i jej potencjału, a jednocześnie zagrożeń związanych z nią,  powstrzymalibyśmy jej rozwój w tym momencie. 

Pozostaje mi mieć nadzieję, że treść zawarta w tej książce „zestarzeje się dobrze” i mam nadzieje, że zainspiruje ona do pracy z sztuczną inteligencją, niezależnie czy obecnie ktoś chce ją wykorzystać do pracy zawodowej czy jedynie rozwijania swojej pasji. Zachęcam też do wgłębienia się jeszcze bardziej w tą tematykę i wyrobienia sobie własnej opinii, niekoniecznie zgodnej z moją, która równie jak szybko rozwija się sztuczna inteligencja, wraz z nią też może ulegać zmianie. Kończąc słowami fizyka i noblisty Richarda P. Feynmana „Szukamy sposobu, w jaki wszystko działa. Co sprawia, że wszystko działa.”