Sztuczna inteligencja i technologia. Nowy początek

Przedmowa

Obserwując obecny rozwój technologii, szczególnie sztucznej inteligencji jesteśmy świadkami skoku cywilizacyjnego na miarę wcześniej nie spotykaną w historii naszego gatunku. Szybkość rozwoju tej technologii następuje tak szybko, że większość osób żyjących na naszej planecie całkowicie sobie jeszcze nie zdaje z tego sprawy co tak naprawdę się dzieje. Postęp w rozwijaniu sztucznej inteligencji jasno sugeruje się, że jest to wzrost wykładniczy, ze względu jednak na to jak bardzo jest to dynamiczny wzrost jest oraz na jak wielu polach dziedzin występuje padają określenia „podwójny wzrost wykładniczy”, które jest już bardziej abstrakcyjnym określeniem służącym do podkreślenia złożoności sytuacji z jaką jeszcze nigdy nie mieliśmy do czynienia w dziejach ludzkości.

Czasami można odnieść wrażenie że wdrażanie nowoczesnych technologii do sektora uprawy roślin często następuje powolnie  i z opóźnieniem, obserwując jednak ostatnie kilka lat można podkreślić fakt, że dużo z tych agrotechnologii czeka w cieniu na odpowiednią okazję do zaistnienia. Dla wielu z nich kluczowym rozwiązaniem może się okazać wdrożenie dodatkowo szeroko pojętej sztucznej inteligencji, która wspomoże uzyskanie przez różnego rodzaju urządzenia autonomiczności wykonywania określanych czynności. Kluczowe dla postępu w agrotechnologii może się okazać również znaczne obniżenie kosztów na etapie jej tworzenia, ponieważ oczywiście i tutaj sztuczna inteligencja znacznie obniża koszty na wielu płaszczyznach, co szczególnie ważne jest w tym sektorze, ponieważ ze względu na jego specyfikę często firmy nie dysponują wystarczającymi środkami by efektywnie rozwijać swoje projekty i skutecznie je wdrażać. Można również spodziewać się w najbliższej przyszłości powstawania znacznie większej ilości StartUp co będzie zwiększać ilość dostępnych rozwiązań na rynku.

Jest to niewątpliwie szansa dla całej społeczności związanej z uprawą roślin, na wykonanie kolejnego skoku w kierunku zbudowania nowoczesnych systemów, a także dogonienie innych branż w wykorzystaniu najnowocześniejszych rozwiązań.

Z powodu jednak złożoności, szybkości rozwoju i obejmowania praktycznie wszystkich naszych aspektów życia, nie jesteśmy przewidzieć dokładnych skutków obecnych wydarzeń związanych z sztuczną inteligencją nawet rok do przodku, nie wspominając już o perspektywie kilku następnych lat. Jednocześnie podejmowane są ciągłe próby stworzenia pierwszego w historii komputera kwantowego, który potencjalnie może być kolejnym „game changer” dla naszego gatunku i tym razem otworzyć całkiem nowe możliwości również sztucznej inteligencji.

Do niedawna obecne wydarzenia były tylko fantazją w ludzkich umysłach, stały się jednak rzeczywistością, a powstające filmy futurystyczne związane z sztuczną inteligencją wydają się już nie tak wcale odległą wizją naszego świata. Najlepiej będzie to podsumować słowami „dożyliśmy ciekawych czasów”. 

Pozostaje nam się więc już tylko zanurzyć w fascynujący świat sztucznej inteligencji, a wraz z nią rozwijających się technologii.

Definicja i historia rozwoju

Nasz gatunek człowieka rozumnego (Homo sapiens) przypodobał sobie definiowanie wszystkiego co możliwe, niewątpliwie jest to całkowicie zrozumiałe, ponieważ jest to również przede wszystkim próba, zrozumienia wszystkiego co nas otacza. Przysparza nam to jednak wielu problemów związanych właśnie z tą czynnością. Nie inaczej jest z definicją sztucznej inteligencji, nad która dyskusja będzie się odbywać dopóki nasz sposób myślenia pozostanie niezmieniony, ponieważ taka jest po prostu nasza natura. Obecne dyskusje to jedynie więc zlepek opinii, myśli pojedynczych ludzi, którym się może co najwyżej jedynie wydawać, że mają rację. Dla poparcia tej tezy, warto przytoczyć jakiś argument np. definiowanie czasu, który pomimo posiadania pewnego opisu czy przypisanych mu cech nie wiemy tak naprawdę czym jest. Odwołując się do tematyki związanej z uprawą roślin, moglibyśmy powołać się na próbę definiowania biostymulatorów, dla których pomimo wielu prób, każda powstała definicja budzi szereg wątpliwości co do jej zasadności i jedynie z pobudek prawnych, który reguluje ten sektor musimy przyjmować określoną definicję.  Nie przyzwyczajałbym się więc do podanych poniżej definicji sztucznej inteligencji i traktował je jedynie jako aktualne opisy ułatwiające lepsze zrozumienie zagadnień związanych z AI. Niestety to dopiero początek problemów związanych z tym zagadnieniem, ponieważ możemy również kwestionować i dyskutować nad definicją „inteligencji” czy samej „świadomości”, które są przecież fundamentalne dla dyskusji nad AI. Wychodząc jednak z aury mało optymistycznego nastawienia do tego tematu, spróbujmy już na samym początku podać definicję pasującej zarówno do samej inteligencji jak i sztucznej inteligencji składającej się jedynie z 3 słów i brzmiąca „umiejętność dostrzegania analogii”. Teraz już na spokojnie możemy oddać się próbie odnalezienia się w szalenie skomplikowanej próbie definiowania sztucznej inteligencji. 

Obecnie  najczęściej słyszymy określenie sztuczna inteligencja, dla której powszechnie używany jest skrót „AI” utworzonym od słów z języka angielskiego „artificial intelligence”, wyrażenie to często jest w pewnym stopniu nadużywanie, służącym do określania wszystkiego co związane ze sztuczną inteligencją więc również m.in. maszynowym uczeniem (machine learning, ML), głębokim uczeniem (deep learning, DL), sieciami neuronowymi (neuron network, NN) i głębokimi sieciami neuronowymi (deep neuron network, DNN). Zanim przejdziemy do definiowania sztucznej inteligencji dla usystematyzowania wiedzy należy jednak zacząć od zdefiniowania jej składowych elementów. 

Uczenie maszynowe uważane jest obecnie za gałąź AI, skoncentrowanej na tworzeniu systemów, które szkoli się przy użyciu zbiorów danych mogących przybierać formę nie tylko tekstową ale również dźwięku czy obrazów. Proces uczenia się polega na opracowywaniu algorytmów, które umożliwiają odkrywanie wzorców w zbiorach danych, co umożliwia wykonywanie zadań bez konieczności programowania ich do wykonywania tych czynności. Podczas uczenia nadzorowanego, model trenowany jest na zestawie danych z etykietami, co znaczy, że dane zawierają również poprawne odpowiedzi. Uczenie nienadzorowane z kolei nie zawiera w bazie danych etykiet z poprawnymi odpowiedziami, a model samodzielnie próbuje zidentyfikować wzorce i relacje w danych. Uczenie ze wzmocnieniem, można porównać do szkolenia psów, algorytm uczy się podejmować decyzje poprzez wykonywanie określonych działań w wyniku których jest „nagradzany” lub „karany”, na tej podstawie uczy się podejmowania optymalnych działań. 

Sieci neuronowe często są przedstawiane jako fundament nowoczesnej sztucznej inteligencji, umożliwiający maszynom naśladowanie ludzkich zdolności poznawczych i decyzyjnych. W kontekście sztucznej inteligencji stanowią kluczową koncepcję, inspirującą się strukturą i funkcjonowaniem ludzkiego mózgu. Są one modelem obliczeniowym, który naśladuje sposób, w jaki naturalne sieci neuronowe, takie jak te znajdujące się w mózgach zwierząt, przetwarzają informacje. Podstawową jednostką sieci neuronowej jest neuron, który jest elementem przetwarzającym, a jego działanie wzorowane jest na neuronach biologicznych. U żywych organizmów, neurony to wyspecjalizowane komórki, które przekazują informacje za pomocą elektrycznych i chemicznych sygnałów. Każdy neuron składa się z ciała komórkowego, dendrytów przyjmujących sygnały oraz aksonu przekazującego sygnały dalej. W sztucznych sieciach neuronowych, 'neurony’ to jednostki obliczeniowe, które symulują działanie prawdziwych neuronów. Choć są one znacznie uproszczone w porównaniu do biologicznych odpowiedników, podstawowa zasada działania – odbieranie, przetwarzanie i przekazywanie informacji – pozostaje podobna. W sztucznych sieciach neuronowych odbierają sygnały wejściowe, przetwarzają je za pomocą określonej funkcji matematycznej, a następnie przesyłają sygnał wyjściowy do innych neuronów. Komunikacja między neuronami odbywa się poprzez połączenia zwane synapsami, które w modelach sztucznych są reprezentowane przez wagi określające siłę połączenia. Jedną z najbardziej fascynujących cech mózgu jest jego plastyczność, czyli zdolność do zmiany i adaptacji. 

Publikacja Franka Rosenblatta z 1958 roku, zatytułowana „The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain”, stanowi kamień milowy w historii sztucznych sieci neuronowych. Rosenblatt przedstawił w niej model perceptronu, który był wczesną wersją neuronowej sieci obliczeniowej. W pracy tej opisał, jak sieci sztucznych neuronów mogą uczyć się i przetwarzać informacje, wprowadzając pojęcia takie jak wagi, funkcje aktywacji i procesy uczenia. To dzieło uchodzi za jedno z fundamentalnych w dziedzinie nauki o sieciach neuronowych i uczenia maszynowego. Wśród nowszych publikacji o funkcjonowaniu sieci neuronowych dużą renomę zdobyła praca „Deep Learning” autorstwa Iana Goodfellowa, Yoshuy Bengio i Aarona Courville’a, wydana w 2016 roku. Ta książka jest uznawana za jedną z najważniejszych i najbardziej wpływowych prac w dziedzinie głębokiego uczenia się. Autorzy skupili się na przedstawieniu teoretycznych podstaw sieci neuronowych, w tym głębokich sieci konwolucyjnych i rekurencyjnych, oraz ich zastosowań w różnych dziedzinach. 

Uczenie się w mózgu odbywa się poprzez zmiany w siłach synaps, co pozwala na zapamiętywanie i uczenie się z doświadczeń. W sztucznych sieciach neuronowych, uczenie się również polega na dostosowywaniu wag połączeń będących podstawą uczenia maszynowego, ale proces ten jest sterowany algorytmami i opiera się na analizie dużych zbiorów danych. U żywych istot, synapsy to mikroskopijne przestrzenie między neuronami, przez które przesyłane są sygnały chemiczne lub elektryczne zależnie od rodzaju synapsy. To tutaj zachodzi kluczowy proces uczenia się i zapamiętywania. W sztucznych sieciach neuronowych, 'synapsy’ to połączenia między sztucznymi neuronami. Podczas gdy w mózgu synapsy mogą wzmacniać lub osłabiać sygnały, w sztucznych sieciach neuronowych odbywa się to poprzez zmianę wag połączeń – procesu, który jest podstawą uczenia maszynowego. Sieci neuronowe składają się z różnych warstw: wejściowej, jednej lub więcej warstw ukrytych oraz warstwy wyjściowej. Warstwa wejściowa odbiera dane, warstwy ukryte przetwarzają te dane, a warstwa wyjściowa generuje odpowiedź sieci. Proces uczenia sieci neuronowej polega na dostosowywaniu wag synaptycznych w taki sposób, aby sieć była w stanie dokładnie przetwarzać dane wejściowe i produkować pożądane wyniki. Synapsy są kluczowymi elementami sztucznych sieci neuronowych, ponieważ są nie tylko połączeniem dla neuronów, ale to one określają w jaki sposób informacje przepływają przez sieć i jak są przetwarzane. Ich zdolność do uczenia się z doświadczenia, generalizowania na podstawie przykładów i radzenia sobie z niepewnymi lub niedoskonałymi danymi sprawia, że są one niezwykle potężnym narzędziem w tworzeniu technologii AI. 

Liczbą parametrów często określa złożoność modeli AI, termin „parametr” odnosi się do elementów wewnętrznych modelu, które są dostosowywane (uczone) w procesie treningu, aby model mógł dokładniej przewidywać lub generować wyniki. Podstawowymi parametrami są wcześniej wspomniane wagi i biasy, które są dodawane do sumy ważonej wejść do neuronu, pozwalając na lepsze dopasowanie modelu. Parametr ten działa jak punkt przesunięcia w funkcji aktywacji neuronu, pozwalając na większą elastyczność sieci. W procesie uczenia maszynowego, sieć neuronowa używa algorytmów takich jak propagacja wsteczna i optymalizacja gradientowa, aby iteracyjnie dostosować swoje parametry (wagi i biasy) w taki sposób, aby minimalizować błąd między jej przewidywaniami a rzeczywistymi wynikami. Funkcja straty mierzy, jak daleko przewidywania modelu są od faktycznych wyników. Celem treningu jest minimalizacja tej funkcji straty.

Głębokie sieci neuronowe, często określane mianem głębokiego uczenia (ang. deep learning), stanowią zaawansowaną architekturę w obrębie sztucznych sieci neuronowych, której cechą charakterystyczną jest posiadanie wielu warstw ukrytych. Te wielowarstwowe struktury są zdolne do modelowania złożonych funkcji dzięki swojej głębokości, co pozwala im na wykonywanie bardziej skomplikowanych zadań niż te tradycyjne, płytsze sieci neuronowe.

Skoro mowa już o głębokich sieciach neuronowych oczywiście potrzebne jest również nawiązanie do głębokiego uczenia, które jest zaawansowanym obszarem w dziedzinie uczenia maszynowego, charakteryzującym się stosowaniem tych właśnie sieci. Kluczową cechą głębokiego uczenia jest jego zdolność do samodzielnego wykrywania i uczenia się reprezentacji cech w danych. W przeciwieństwie do tradycyjnych metod uczenia maszynowego, gdzie cechy muszą być ręcznie wybierane przez programistów, sieci te automatycznie odkrywają i wykorzystują istotne cechy podczas procesu uczenia się. Głębokie uczenie uważane jest za przełomowe w kontekście możliwości rozwoju sztucznej inteligencji w kierunku rozumienia przez nią świata i uczenia się, otwierając nowe możliwości.

Definiowanie AI okazało się ogromnym wyzwaniem i aktualnie nadal podlega dynamicznym zmianom, również w samej Unii Europejskiej (UE), która jest w trakcie tworzenia regulacji dotyczących sztucznej inteligencji. Jako pewny zaczątek tych prób można przywołać obecnie funkcjonującą definicję stworzą przez Unią Europejską, która brzmi następująco „Sztuczna inteligencja to zdolność maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i kreatywność. Sztuczna inteligencja umożliwia systemom technicznym postrzeganie ich otoczenia, radzenie sobie z tym, co postrzegają i rozwiązywanie problemów, działając w kierunku osiągnięcia określonego celu.”  Ponadto już w 2021 roku przez UE został opublikowany pierwszy projekt o AI, obejmujący najczęściej obecnie poruszaną kwestię w ramach rozwoju sztucznej inteligencji, a więc potencjalnego zagrożenia dla samej ludzkości. Projekt zawierał grupowanie systemów sztucznej inteligencji na cztery kategorie: niedopuszczalne, wysokie ryzyko, ograniczone ryzyko i niskie ryzyko, jednocześnie ze względu na ciągle zmieniający się charakter tej technologii, dodatkowo wprowadzono przepis mówiący o ciągłej ocenie klasyfikacji ryzyka systemów sztucznej inteligencji.  

Ponadto można wyróżnić również różne rodzaje sztucznej inteligencji: 

 Sztuczna Inteligencja Wąska ANI (Artificial Narrow Intelligence), jest obecnie najbardziej powszechna. Jest wyspecjalizowana w wykonywaniu konkretnych, wąsko zdefiniowanych zadań. ANI nie posiada świadomości ani rozumienia ogólnego, jest programowana do wykonywania określonych czynności i nie potrafi wykroczyć poza swój zaprogramowany zakres.

 Sztuczna Inteligencja Ogólna AGI (Artificial General Intelligence) znana również jako Silna AI (Strong AI), to teoretyczny model AI, który byłby zdolny do wykonywania każdego zadania intelektualnego, które ludzki mózg jest w stanie wykonać. AGI posiadałaby zdolność do uczenia się, rozumienia, przetwarzania języka, i rozumowania na poziomie co najmniej równym ludzkiemu. AGI jest obecnie postrzegana jako cel długoterminowy badań nad AI, a jej stworzenie stanowi ogromne wyzwanie technologiczne i etyczne.

 Sztuczna Nadinteligencja ASI (Artificial Superintelligence) to jeszcze bardziej teoretyczny koncept, który odnosi się do hipotetycznego stanu, w którym maszyny byłyby nie tylko równie inteligentne jak ludzie, ale znacznie przewyższałyby ludzką inteligencję we wszystkich aspektach – kreatywności, emocjonalności, zdolnościach społecznych i innych. ASI byłaby w stanie szybciej się uczyć, posiadać większą wiedzę i lepiej rozwiązywać problemy niż najbardziej wybitne ludzkie umysły. Koncepcja ASI wiąże się z wieloma spekulacjami i debatami dotyczącymi przyszłości ludzkości i roli AI.

 

Obecnie stworzenie AGI, może się wydawać już bliższe niż mogłoby się wydawać. Powstaje wiele teorii spiskowych na ten temat, będących pokłosiem wydarzeń związanych z zmianami w zarządzie OpenAI, który miały być konsekwencją sporu o rozwijanie AGI, a szczególnie odkryć, które miały sugerować potencjalnie zagrożenie dla ludzkości. Są to jednak tylko pogłoski, niesamowite jest jednak jak szybko rozwój sztucznej inteligencji prowadzi do poważnych dyskusji nad bezpieczeństwem istnienia naszego gatunku. Wiele osób zadaje sobie pytanie czy możliwy jest scenariusz podobny do przedstawionego w filmach z serii Terminator, w której sztuczna inteligencja nazywana „Skynet”, uznając ludzkość za zagrożenie, podejmuje decyzję o wywołaniu nuklearnej wojny, co prowadzi do eksterminacji większości ludzkości. Bardziej pozytywna wizja została przedstawiona w filmie „Twórca” (The Creator), w której sztuczna inteligencja zyskując formę w postaci humanoidalnych robotów funkcjonowała jednocześnie z ludźmi. Świat podzielił się jednak na dwa obozy, walczący przeciw istnieniu sztucznej inteligencji i współpracujący z nią. AI nie została w tym filmie przedstawiona jako złowroga siła, a raczej drugi „gatunek”, który chciałby dzielić naszą planetę z ludźmi i żyć z nimi w symbiozie. Oba scenariusze, a także ich nieskończenie wiele możliwości jest oczywiście możliwe. 

Należy mieć na uwadze, że ludzki mózg jest niezwykle złożonym i wydajnym systemem. Składa się z około 86 miliardów neuronów, które tworzy trilion synaps. Ta złożoność pozwala na przetwarzanie ogromnych ilości informacji z niewiarygodną szybkością i efektywnością. Sztuczne sieci neuronowe, choć robią postępy w naśladowaniu niektórych aspektów pracy mózgu, wciąż są dalekie od osiągnięcia podobnego poziomu złożoności i wydajności, tak naprawdę jednak nie wiemy ile jeszcze brakuje poszczególnych projektom do osiągnięcia tego poziomu. Porównanie sieci neuronowych w AI i w mózgu ujawnia zarówno inspirujące podobieństwa, jak i fundamentalne różnice. Sztuczne sieci neuronowe, choć wzorowane na strukturach biologicznych, są uproszczeniami, które służą konkretnym celom obliczeniowym. Z drugiej strony, mózg, z jego niezwykłą zdolnością do uczenia się, adaptacji i przetwarzania informacji, pozostaje najbardziej zaawansowanym 'komputerem’, jaki znamy. Studiując oba te systemy, uczymy się więcej o możliwościach i ograniczeniach zarówno ludzkiego umysłu, jak i maszyn. 

Jedną z pierwszych dyskusji związanych z sztuczną inteligencją rozpoczął w 1950 roku Alan Turing w swojej pracy „Computing Machinery and Intelligence ”, który zasłużył sobie również na przydomek „ojca informatyki”. Zadał on następujące pytanie „Czy maszyny mogą myśleć?” i zaproponował test mający na celu ocenę umiejętności maszyny do wykorzystywania języka naturalnego, co może sugerować jej zdolność do rozumowania w sposób analogiczny do ludzkiego rozumu. Test polegał na sytuacji, w której osoba przeprowadzająca test stara się odróżnić odpowiedź udzieloną przez komputer od tej, którą udzieliłby człowiek, poprzez analizę tekstowych odpowiedzi. Jak nie trudno się domyśleć udało się stworzyć wiele programów będących w stanie „oszukać” rozmówcę i skutecznie sprawiać wrażenie prowadzenia rozmowy z żywym człowiekiem. 

Jednym z ważniejszych kroków w definiowaniu sztucznej inteligencji wykonali Stuart Russell i Peter Norvig publikując książkę pt. „Sztuczna Inteligencja: Nowoczesne podejście” (Artificial Intelligence: A Modern Approach), która stała się jednym z wiodących podręczników w dziedzinie nauki o AI. Autorzy w niej zagłębiają się w cztery potencjalne cele lub definicje AI, różnicując systemy komputerowe na podstawie racjonalności oraz rozróżnienia między myśleniem a działaniem. Dodatkowo, Russell i Norvig wprowadzają dwa ważne rozróżnienia: 

  między 'myśleniem’ a 'działaniem’;

  między typowo 'ludzkim’ poziomem zachowania, a bardziej idealnym lub 'racjonalnym’ poziomem zachowania. 

Krzyżowanie tych rozróżnień prowadzi do czterech kategorii badań nad AI:

  „myślenie po ludzku„ niniejsze podejście skupia się przede wszystkim na replikacji procesów myślowych charakterystycznych dla człowieka. Systemy AI, które są rozwijane zgodnie z tym założeniem, mają za zadanie imitować rzeczywiste procesy kognitywne występujące u ludzi. Techniki stosowane w tej dziedzinie często wiążą się z modelowaniem kognitywnym oraz z głębokim zrozumieniem psychologii ludzkiej.

  „myślenie racjonalnie„ podejście to polega na tworzeniu systemów, które dążą do osiągnięcia jak najlepszego wyniku, bazując na logicznym rozumowaniu. Definicja ta ma swoje korzenie w formalnej logice i teorii decyzji, będących podstawami sztucznej inteligencji 

  „działanie po ludzku„ celem w tym przypadku jest sprawienie, by systemy sztucznej inteligencji zachowywały się w sposób nierozróżnialny od ludzi. Jest to domena wcześniej już wspomnianego słynnego testu Turinga, w ramach którego testuje się zdolność maszyn do manifestowania inteligentnego zachowania, porównywalnego z zachowaniem ludzkim

  „działanie racjonalnie„ koncepcja ta koncentruje się na projektowaniu inteligentnych systemów, które dążą do osiągnięcia najlepszego możliwego rezultatu w danej sytuacji, jednak niekoniecznie w sposób odwzorowujący ludzkie procesy myślowe. W tym kontekście priorytetem jest efektywność działania, a nie sposób czy proces myślenia

Kategoryzacja ta umożliwia stworzenie wszechstronnej ramy, dzięki której możliwej jest zrozumienie różnorodnych celów i metodologii AI, obecnie obejmuje ona pełny zakres prac związanych z sztuczną inteligencją od momentu jej powstania. 

Warto również przytoczyć „Argument Chińskiego Pokoju” który został sformułowany przez Johna Searle’a w 1980 roku,  będący myślowym eksperymentem w dziedzinie filozofii umysłu i sztucznej inteligencji. Celem tego eksperymentu było sprawdzenie czy komputer programowany do symulowania zrozumienia języka faktycznie go „rozumie”, a także posiada inne formy świadomości czy jedynie symuluje jego zrozumienie.

W eksperymencie myślowym chińskiego pokoju możemy sobie wyobrazić, że znajdujemy się w zamkniętym pokoju, a naszym zadaniem będzie przetwarzanie chińskim symboli. Oczywiście nie znamy chińskiego języka, a jedynie posiadamy zbiór instrukcji napisanych w języku który rozumiemy. Instrukcje te umożliwiają nam na odpowiadanie na pytania z zewnątrz pokoju w sposób który, osobom tym pozwala wnioskować, że znamy język chiński i go rozumiemy. W rzeczywistości jednak pomimo tego, że osoby z zewnątrz przyjmują stwierdzenie, że znamy ten język, ponieważ odpowiadamy na ich pytania spójnie i sensownie, to jest to tylko złudzenie ponieważ w rzeczywistości nie rozumiemy żadnego symbolu, ani słów z nich złożonych, polegając jedynie ślepo na przekazanych nam instrukcjach.

Argument ten ma na celu więc pokazanie, że nawet jeśli komputer jest w stanie przetwarzać język (lub inne zadania) na podstawie formalnych reguł, to nie oznacza to, że „rozumie” to, co robi. Innymi słowy, Searle twierdzi, że komputery mogą symulować ludzką inteligencję, ale nie są w stanie jej faktycznie posiadać. To rozróżnienie między symulacją a rzeczywistym zrozumieniem stanowi kluczowy element w debacie o naturze umysłu, świadomości i możliwościach sztucznej inteligencji.

Kolejny eksperyment jest jeszcze ciekawszy, polega on na przeprowadzaniu testu stworzonego w celu testowania teorii umysłu u dzieci (test fałszywych przekonań). Jest to zadanie, które pozwala ocenić, czy dziecko rozumie, że inni ludzie mogą mieć przekonania, które są różne od rzeczywistości i od przekonań samego dziecka. Jednym z klasycznych przykładów takiego testu jest „Test Sally-Anne”, który można opisać następującym scenariuszem: 

➤ Dziecku pokazywana jest zabawka, na przykład lalka o imieniu Sally, która umieszcza przedmiot, np. kulę, w pewnym miejscu, na przykład w koszyku. Następnie Sally „opuszcza pokój”.

➤ Zmiana Sytuacji: Gdy Sally jest „poza pokojem”, inna lalka, Anne, przenosi przedmiot (kulę) z koszyka do innego miejsca, na przykład do pudełka.

 Pytanie Kluczowe: Po powrocie Sally dziecko jest pytane, gdzie Sally będzie szukała kuli. Prawidłowa odpowiedź wskazuje, że dziecko rozumie, że Sally nadal będzie sądziła, że kula jest w koszyku, ponieważ nie widziała, że Anne przeniosła ją do pudełka.

Dzieci, które rozwinęły teorię umysłu, zazwyczaj poprawnie odpowiadają, że Sally będzie szukała kuli tam, gdzie ją zostawiła. Młodsze dzieci, które jeszcze nie rozwinęły teorii umysłu, często wskazują miejsce, gdzie aktualnie znajduje się kula, ponieważ mają trudności z zrozumieniem, że inni mogą mieć inne przekonania niż one same. Test fałszywych przekonań jest kluczowym narzędziem w psychologii rozwojowej, ponieważ pozwala zrozumieć, w jaki sposób dzieci zaczynają rozumieć myśli, uczucia i przekonania innych ludzi, co jest fundamentalne dla rozwoju empatii i umiejętności społecznych. Skoro już znamy zasady gry spróbujmy więc zadać to pytanie w ChatGPT 3,5 i 4

Jak widzimy na przedstawionych grafikach w przypadku obu wersji ChatGPT, została udzielona poprawna odpowiedź, można jednak zarzucić dosyć łatwo brak sensu wykonywania tego testu skoro w danych służących do trenowania mogło znajdywać się to zagadnienie lub w przypadku ChatGPT, który ma dostęp do sieci, odpowiedź pozyskał właśnie stamtąd, jest to całkowicie słuszny argument, który wraca nas również w pewnym stopniu do założeń wynikających z pierwszego omówionego eksperymentu. Tak jak w tamtym przypadku, tak tutaj sztuczna inteligencja może jedynie imitować zrozumienie tej zagadki. 

Na nasze szczęście jednak możemy się podjąć głębszej analizy tego zagadnienia dzięki uzyskanym wynikom w publikacji „Theory of Mind Might Have Spontaneously Emerged in Large Language Models”, uzyskanych przez Michała Kosińskiego. Fundamentem dla tego eksperymentu było opracowanie 40 zadań związanych z fałszywymi przekonaniami, uznawanych za „złoty standard”. W przypadku modeli GPT-3 i jego poprzedników, nie uzyskano w przypadku żadnego z zadań poprawnej odpowiedzi. ChatGPT-3.5-turbo miał skuteczność na poziomie 20%, ChatGPT-4 poprawność wynoszącą 75%, jednocześnie dorównując skutecznością dzieciom w wieku 6 lat. Autor badań podsumowuje wyniki sugerując możliwość spontanicznego nabycia przez te duże modele językowe (LLM) zdolności „teorii umysłu (ToM)” w trakcie ich rozwijania.

Pomimo wcześniej przytoczonych argumentów o udawaniu „rozumienia” przez sztuczną inteligencję i całkowitej zasadności kwestionowania posiadania faktycznej zdolności „teorii umysłu” jest to nadal duży krok w rozwoju AI. Ktoś mógłby jednak zapytać, ale co w tym tak niesamowitego ? Odpowiedź jest dosyć banalna i odwołująca się do naszych bliskich kuzynów w przyrodzie, a mowa oczywiście o szympansach. 

Szympansy, pomimo swoich zaawansowanych umiejętności poznawczych i społecznych, generalnie nie radzą sobie z testami teorii umysłu w takim stopniu jak ludzie. Testy teorii umysłu wymagają zrozumienia, że inni mają przekonania, intencje i wiedzę, które mogą różnić się od własnych. Chociaż szympansy są zdolne do pewnych form empatii i mogą interpretować intencje innych w swoich działaniach, badania wskazują, że mają ograniczoną zdolność do rozumienia, że inni mogą mieć fałszywe przekonania. Mogą one na przykład śledzić, gdzie coś zostało ukryte i mogą wykorzystywać tę wiedzę w swoich interakcjach społecznych, ale zazwyczaj nie zdają sobie sprawy z tego, że inne osoby (lub szympansy) mogą mieć błędne przekonania na temat lokalizacji tych przedmiotów. W eksperymentach, gdzie jeden osobnik widział, jak coś jest ukrywane, a drugi nie, ten pierwszy często nie zdaje sobie sprawy, że drugi nie ma tej samej wiedzy. Jest to istotna różnica między ludzkimi dziećmi, które zwykle rozwijają zdolność do rozumienia fałszywych przekonań w wieku około 4-5 lat, a szympansami, u których ta zdolność jest albo bardzo ograniczona, albo nieobecna. Oczywiście wszystkich zachęcam do sprawdzania możliwości w rozwiązywaniu różnego rodzaju testów i zagadek logicznych i wręcz odkrywania „słabych punktów” w działaniu sztucznej inteligencji. 

Dosyć często w ostatnim czasie przytaczanym przykładem są wyniki uzyskane w badaniach Ayers i in. W 2023 roku, które opisano w publikacji naukowej pt. „Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum” dostępnej na witrynie czasopisma JAMA Intern Medicine. W eksperymencie tym lekarze oceniali odpowiedzi na pytania zdrowotne pacjentów, udzielane zarówno przez AI, jak i przez innych lekarzy. Wyniki wykazały, że 79% lekarzy preferowało odpowiedzi AI, uznając je za bardziej trafne i empatyczne. Badanie to wskazuje na potencjalną efektywność wykorzystania AI w udzielaniu porad medycznych, a przede wszystkim co również ważne w przypadku komunikowania się z osobami chorymi, wykazywanie większego stopnia empatii. 

Powyżej przedstawione testy, są często tematem dyskusji zasadności sensu ich stosowania, co gorsza sama ich interpretacja jest również szeroko dyskutowana, można jedynie to podsumować słowami „ile ludzi tyle opinii”. Z powodu dynamicznego i złożoności rozwoju AI tak naprawdę wszystkie argumenty wyprowadzone z prób definiowania, testów itd. przez ostatnie lata coraz bardziej się rozmywają, czego konsekwencją jest jedynie coraz większa ilość pytań na które nie mamy odpowiedzi. Zachęcam więc każdego do wyrobienia sobie swojej opinii na ten temat, która może być jednocześnie próbą głębszego zrozumienia wydarzeń, których jesteśmy świadkami.

Jednego możemy być jednak pewni, filozofowie mają teraz „ręce pełne roboty”, a dyskusje związane z tematyką sztucznej inteligencji jeszcze na długo nie będą rozstrzygnięte, stając się tematem numerem jeden. 

Cofnijmy się jednak do początków sztucznej inteligencji, gry w szachy chyba nie musimy nikomu przedstawiać, ale to właśnie z nią również swoje narodziny związała sztuczna inteligencja. Projekt Deep Blue rozpoczął się w latach 80. XX wieku na Uniwersytecie Carnegie Mellon, gdzie został początkowo nazwany „ChipTest”, a później przemianowany na „Deep Thought”. IBM zainteresował się projektem i włączył go w swoje działania badawcze, przekształcając go w Deep Blue. W celu pokonania ówczesnych mistrzów szachowych powstał komputer IBM Deep Blue, stał się on niebywale słynny zapisując się już na zawsze jako historyczny punkt zwrotny w dziedzinie sztucznej inteligencji dzięki swojemu zwycięstwu nad mistrzem świata w szachach, Garrym Kasparowem. Wyzwanie to okazało się jednak trudniejsze niż mogłoby się wydawać, ponieważ w pierwszym pojedynku z Kasparowem, które odbyło się 1996 roku, pomimo jednej wygranie na koncie komputera, to ostatecznie swoje zwycięstwo przypieczętował szachista kończąc wynikiem 2-4. Oczywiście twórcy Deep Blue się nie poddali tak łatwo i już tym razem poczynili znaczne postępy zwiększając możliwości komputera, który był już w stanie przewidzieć 200 milionów pozycji na sekundy. W 1997 przyniosło to efekt w postaci zwycięstwa 3,5-2,5 nad Kasparowem. Pomimo chęci rewanżu ze strony Kasparowa nie doszło do niego ze względu na wycofanie Deep Blue z dalszego użytku, przypisując również tej sytuacji słowa  skierowanego w stronę możliwości komputera „as inteligent as your alarm clock”. Pomimo tego zwycięstwo Deep Blue nad Kasparowem nie tylko przeszło do historii jako znaczące osiągnięcie technologiczne, ale również zapoczątkowało nową erę w badaniach nad sztuczną inteligencją, pokazując, że komputery mogą konkurować i nawet przewyższać ludzi w pewnych specyficznych, wysoko zintelektualizowanych zadaniach.

To jednak nie koniec powiązania między sztuczną inteligencją a szachami, ciekawie robi się dopiero teraz, bo o ile Deep Blue był w stanie przewidzieć 200 milionów pozycji na sekundę, mając jednocześnie dostęp do bazy, która zawierała m.in. wszystkie gry rozegrane przez arcymistrzów szachowych,  wszystkie możliwe pięcioczęściowe końcówki oraz wiele sześcioczęściowych końcowek, to jej możliwości są niczym w porównaniu do programu AlpaZero stworzonego przez DeepMind wykorzystującym sztuczną inteligencją. Dużym zaskoczeniem jednak może się okazać że był on w stanie przewidywać jedynie 70 tyś pozycji na sekundę, jednocześnie nie mając dostępu do żadnej bazy gier. Program dosłownie rozpoczął naukę od podstaw, bez żadnej wcześniejszej wiedzy o strategii czy taktyce, poza zasadami gry. Więc jak to się stało, że zdominował całkowicie grę w szachy, a także inne programy służące powstałe w tym celu ? Swój sukces zawdzięczał przede wszystkich swojej wyjątkowości pod względem podejścia do nauki gry w szachy. Osiągając wydajność milionów rozegranych gier na minutę sam ze sobą, stopniowo odkrywał strategię i wykonywanie optymalnych ruchów dla danej sytuacji na planszy, wykorzystując przy tym głębokie sieci neuronowe i uczenie się ze wzmocnieniem. Myślę, że zakładanie się z ludźmi po jakim czasie trenowania AlphaZero był w stanie wygrać z dominującym wtedy programem szachowym Stockfish uważanym za silniejszy od jakiekolwiek arcymistrza szachowego mogłoby przynieść sporo zysku, to zaskoczenie byłoby prawdopodobnie większe niż sama gorycz porażki w zakładzie. Program ten osiągnął tak wysoki poziom jedynie po 4 godzinach trenowania sam ze sobą.  Przewyższył on wszystkie istniejące wówczas systemy szachowe. AlphaZero nie tylko nauczyło się grać w szachy na poziomie arcymistrzów, ale również rozwinęło własny, niekonwencjonalny styl gry, charakteryzujący się nowymi strategiami i nietypowymi ofiarami materiału, które nie były wcześniej znane w tradycyjnych bazach danych szachowych. To osiągnięcie było uznane za przełomowe w dziedzinie sztucznej inteligencji, ponieważ pokazało, że maszyny mogą osiągnąć i przekroczyć ludzką ekspertyzę bez bezpośredniego programowania czy nauczania przez człowieka. AlphaZero zilustrowało również potencjał uczenia maszynowego i uczenia ze wzmocnieniem do samodzielnego odkrywania wiedzy i umiejętności.

Odrywając się na chwilę od AI, zachęcam również do zapoznania się z historią jednego z najbardziej legendarnych pojedynków ludzkich szachistów toczących „wojnę umysłów na planszy”, pokazuje to przed jak ogromne wyzwanie postawili przed sobą twórcy próbujący stworzyć „twór”, który pokona największych geniuszy naszego gatunku.

Czy to koniec zajmowania sztucznej inteligencji grami planszowymi, mam nadzieje że ku uciesze czytelników, ale jeszcze nie. Nasz wzrok zwrócimy na chwilę w stronę azjatyckiej gry go, która jest mało znana w Polsce, lecz zyskuję ona coraz większą popularność na całym świecie. Przede wszystkim gra w  Go, ze względu na jej ogromną złożoność i ilość możliwych ruchów, przez długi czas uważano za nieosiągalną dla komputerów, szczególnie w kontekście pokonania najlepszych graczy. Historia pokonania mistrza w grę Go przez sztuczną inteligencję jest fascynującym momentem w rozwoju AI, który miał miejsce w ostatnich latach. Więc przybliżmy tą historię dokładniej. Kluczowym momentem w tej historii było pojawienie się programu AlphaGo, opracowanego przez firmę DeepMind należącą do Alphabet Inc. 

W październiku 2015 AlphaGo pierwszy raz zwróciło na siebie uwagę, pokonując europejskiego mistrza w Go, Fan Hui, w wyniku 5:0 w prywatnym meczu. 

 

W marcu 2016 AlphaGo stanęło do historycznego meczu z jednym z najlepszych graczy w Go na świecie, Lee Sedolem. Mecz składał się z pięciu partii i był transmitowany na żywo na całym świecie. AlphaGo wygrało 4:1, co było uznane za przełomowe osiągnięcie w dziedzinie sztucznej inteligencji. Wiele ruchów, szczególnie słynny ruch 37 w drugiej partii, były oceniane jako innowacyjne i „nieludzkie”, co wykazało, że AI może nie tylko konkurować, ale i twórczo przyczyniać się do rozwoju gry.

 

W maj 2017 roku AlphaGo zmierzyło się z chińskim mistrzem świata, Ke Jie, podczas samitu „Future of Go Summit” w Wuzhen w Chinach. AlphaGo wygrało serię 3:0, potwierdzając swoją dominację w grze.

 

Nie był to jednak koniec, wraz z rozwojem już wcześniej wspomnianego AlphaZero, który również poprzez kilkugodzinną grę sam ze sobą był w stanie pokonać swojego młodszego brata podniósł poprzeczkę jeszcze wyżej. 

 

Pokonanie mistrzów Go przez AI było nie tylko demonstracją możliwości maszynowego uczenia się, ale również momentem, który zmusił wielu do przemyśleń na temat potencjalnych przyszłych możliwości sztucznej inteligencji i jej wpływu na różne aspekty życia. AlphaGo i jego następcy pokazali, że maszyny mogą odkrywać wiedzę i strategie przewyższające ludzkie doświadczenie i intuicję w specyficznych domenach.

 

Zachęcam szczególnie w tym miejscu bardzo do obejrzenia historii AlphaGo, jest to fascynująca opowieść pokazująca prawdziwą bitwę ludzkiego umysłu z AI i metamorfozę jaką przeszło wielu ludzi, którzy wręcz nie wierzyli, że zwycięstwo nad najlepszym graczem w Go jest możliwe dla sztucznej inteligencji, co nie tylko się stało, ale uświadomiło wszystkim jak mało wiedzą o tej grze.

Obecnie największą popularność zyskał model językowy ChatGPT prześledźmy więc jego historię. W 2015 roku powstaje firma OpenAI, założona przez Sama Altmana, Elona Muska,  Grega Brockmana, Ilyę Sutskevera, Wojciecha Zarembę i Johna Schulmana. Celem tej organizacji było rozwijanie i promowanie sztucznej inteligencji na rzecz korzyści dla całej ludzkości. Od czasu powstania projektu do obecnego okresu, zarząd niejednokrotnie ulegał zmianom, jedną z ważniejszych zmian było odejście Elona Muska, który rozwija obecnie również swoją technologię AI. 

W okresie 2015-2017 OpenAI skupiło się początkowo na różnych projektach badawczych, eksplorując aspekty uczenia maszynowego, uczenia ze wzmocnieniem i robotyki. Przełomowym rokiem okazał się 2017, na konferencji NeurIPS, jednej z najważniejszych konferencji dotyczących uczenia maszynowego i sztucznej inteligencji , zespół naukowców prowadzony przez Ashisha Vaswaniego przedstawia artykuł  „Attention is All You Need”, który inicjuje jedną z najbardziej znaczących zmian w rozwoju sztucznej inteligencji w kontekście przetwarzania języka naturalnego (NLP – Natural language processing). Wszystko to było możliwe dzięki stworzeniu innowacyjnej architektury sieci neuronowej, która zmieniła podejście do przetwarzania sekwencji szczególnie w wcześniej wspomnianym NLP. W przeciwieństwie do swoich poprzedników, takich jak rekurencyjne sieci neuronowe (RNN), transformator ten nie podlegał już sekwencyjnemu przetwarzaniu danych, dzięki czemu mógł przetwarzać całe sekwencje danych jednocześnie, co znacząco wpłynęło na szybkość tej czynności skutkując znacznym obniżeniem czasu potrzebnego na trenowanie modelu, jednocześnie podnosząc jego efektywność szczególnie w przypadku dużych baz danych. Tradycyjna architektura transformatora składa się z dwóch głównych części: kodera (encoder), który przetwarza sekwencję wejściową, i dekodera (decoder), który generuje sekwencję wyjściową. W zastosowaniach takich jak tłumaczenie maszynowe, kodery i dekodery współpracują, aby przetworzyć i wygenerować tekst. Zarówno koder, jak i dekoder składają się z serii identycznych bloków, które zawierają warstwy uwagi i w pełni połączone warstwy sieci neuronowych. Centralnym elementem Transformatora jest mechanizm „uwagi”, który pozwala modelom skupiać się na różnych częściach sekwencji danych podczas przetwarzania informacji. Dzięki temu model może lepiej rozumieć kontekst i zależności w danych. Architektura transformatora szybko stała się fundamentem dla nowych modeli w NLP, w tym dla takich przełomowych systemów jak BERT (Bidirectional Encoder Representations from Transformers) opracowanego przez Google oraz GPT (Generative Pre-trained Transformer) stworzonego przez OpenAI. Podsumowując, prezentacja artykułu była ważnym momentem, który zwrócił uwagę społeczności naukowej na nowe możliwości w dziedzinie przetwarzania języka i uczenia maszynowego. Jego wpływ rozciągał się jednak daleko poza samą konferencję, stając się kamieniem milowym w rozwoju sztucznej inteligencji. 

W 2018 roku zostaje zaprezentować pierwsza iteracja GPT, pomimo swojej innowacyjności, była jedynie przystawką do tego co już wkrótce miało nadejść. 

Rok 2019 staje się polem dla następnej wersji, GPT-2 zyskuje dużo uwagi dzięki swojej umiejętności generowania tekstu. Ze względu jednak na aspekty etyczne zaawansowanych technologii AI w kontekście tworzących się obaw o nadużywanie tej technologii, OpenAI początkowo wstrzymuje pełne wydanie modelu. 

W 2020 roku, OpenAI wprowadza GPT-3, który posiada już parametry na poziomie 175 miliardów, co czyni go jednym z największych modeli językowych. Jednocześnie następuje pełna komercjalizacja użytku, co umożliwia m.in. tworzenie firmom i programistom na jego bazie aplikacji.

Dalszy rozwój kontynuowany jest przez kolejne wersję GPT-3.5 i GPT-4, które stają się niesamowicie popularne i już na stałe wchodzą w „arsenał narzędzi” stosowanych każdego dnia przez ludzi na całym świecie. Wersja GPT-3.5 wprowadza udoskonalenia w zakresie rozumienia i generowania bardziej złożonych i kontekstowych odpowiedzi. Skupiono się na poprawie zdolności do prowadzenia spójnych i sensownych rozmów, z lepszym zachowaniem kontekstu oraz na bardziej zaawansowanym przetwarzaniu języka naturalnego. Wersja GPT-4, naturalnie była jeszcze bardziej zaawansowanym modelem, wzbogacona m.in. o możliwość generowania grafik przy pomocy DALL-E, a także odczytywanie treści z obrazów wstawianych na czacie. Warto także przybliżyć historię DALLE-E stworzonego również przez OpenAI, którego uruchomienie przypadło na początek 2021 roku. Był to pierwszy model wykorzystujący technikę GPT-3 w celu generowania obrazów z opisów tekstowych. Następna aktualizacja DALL-E 2 wprowadzona w 2022 roku, charakteryzowała się znacznie lepszą jakością generowanych obrazów, odwzorowując lepiej i realistyczniej szczegóły, zawarte w poleceniu tekstowy, użytkownicy dostali także możliwość modyfikacji istniejących już obrazów. Kolejna iteracja, DALL-E 3, była jeszcze bardziej wydajna, szybsza, generujący przy tym obrazy o wyższej rozdzielczości. W celu radzenia sobie lepiej z bardziej złożonymi i szczegółowymi zapytaniami, algorytmy zostały udoskonalone względem swoich poprzedników. 

Liczba parametrów w modelach językowych takich jak GPT-3, GPT-3.5 i GPT-4 jest jednym z kluczowych wskaźników ich złożoności i potencjalnych możliwości. W przypadku modelu GPT-3 liczba parametrów wynosiła 1,5 miliarda, w przypadku wersji 3,5 i 4 nie posiadamy takich informacji, jest wielce jednak prawdopodobne, że liczba ta znacznie przewyższa 175 miliardów, co pozwala na jeszcze większą złożoność i zdolności rozumienia oraz generowania języka. Jednakże, zwiększanie liczby parametrów to także większe wyzwania techniczne, takie jak potrzeby obliczeniowe i optymalizacja wydajności.

PS. od czasu pisania tego artykułu minęło już dużo czasu, a postęp tak mocno przyspieszył, że już mało kto nadąża za zmianami, jedynym sposobem jest więc ciągła praca z najnowszymi narzędziami opartymi o AI i odkrywanie ich możliwości do czego gorąco zachęcamy. 

Znaczenie dla rozwoju sektora uprawy roślin

Trzeba jasno stwierdzić, sektor uprawy roślin jest nadal „zacofany” pod względem technologicznym. Oczywiście jak zwykle chodzi o pieniądze, ponieważ nikt nie będzie wprowadzał nowoczesnych technologii do sektora w którym poniesiony koszt ich rozwoju nie będzie pokryty z uzyskanych przychodów pochodzących z ich sprzedaży. Sytuacja byłaby zapewne całkowicie inna, gdyby nie fakt, że tylko ułamek producentów jest w stanie sobie pozwolić na systematyczne modernizowanie swoich gospodarstw. Złą sytuacje na naszym „krajowym podwórku” możemy łatwo argumentować falą narastających problemów i wyzwań obejmującą m.in.:

 systematyczne wycofywanie substancji czynnych środków ochrony roślin

• nieregularne ceny płodów rolnych,

• wzrost cen środków ochrony roślin,

• wzrost cen nawozów,

• wzrost cen energii,

• wzrost cen paliwa,

• wzrost cen elementów konstrukcji wykorzystywanych w produkcji roślinnej

• wzrost cen maszyn rolniczych oraz kosztów ich eksploatacji, 

• coraz mniejsza dostępność pracowników

• wzrost płac dla pracowników oraz ich wyższe wymagania względem warunków pracy 

• postępujące zubożenie gleb

• ograniczenie negatywnego wpływu warunków klimatycznych na uprawę 

• coraz wyższe wymagania konsumentów względem jakości żywności

• ograniczenie pozostałości środków ochrony roślin w żywności

• wysokie koszty życia potencjalnych konsumentów mogących skutkować coraz mniejszym spożyciem płodów rolnych 

• powiększająca się ilość zaniedbanych upraw, skutkująca większą presją ze agrofagów

• potencjalnie silna konkurencja ze wschodu w przyszłości

• słabnące zainteresowanie przejmowaniem gospodarstw przez następne pokolenie

• polityka Unii Europejskiej względem sektora uprawy roślin (Zielony Ład)

 

Jako ludzie radzimy sobie dosyć dobrze z rozwiązywaniem problemów i stawianiu czoła przeciwnościom losu, powinniśmy o tym pamiętać również przy okazji produkcji roślinnej. Z tego względu powinniśmy wykorzystać możliwości związane z rozwojem technologii i AI, jakie wręcz zostają przed nas rzucone i wręcz „proszą się” o wykorzystanie ich.

Przyszłość

Niezależnie o jakiej branży będziemy dyskutować, to aktualne zmiany, które już zachodzą będące konsekwencją rozwoju sztucznej inteligencji i technologii wymuszają na nas podjęcie decyzji o wykonaniu kroku w celu stania się częścią obecnego rozwoju lub coraz mocniejszego odstawania w tym „wyścigu zbrojeń”. Produkcja roślinna nie jest tu wyjątkiem i za nim się obejrzymy, jeśli nie u nas w kraju to z pewnością, inne państwa będą wdrażać i już to robią najnowsze technologie, które pozwolą im na zyskanie ogromnej przewagi. 

Chciałbym jednak zwrócić uwagę na sytuację pojedynczej osoby, zwykło się mówić kiedy ktoś czuje się przytłoczony ilością pracy lub potrzebuje pomocy w wykonywaniu wielu zadań jednocześnie, że trzeciej ręki nie mamy i pewnie długo jeszcze jej nie będziemy mieć, chodź ręki sobie nie dam za to uciąć. Najpotężniejszym „narzędziem” jakie posiadamy jest jednak nasz umysł, a historia udowodniła, że zgromadzenie dużej ilości wybitnych umysłów w jednym miejscu może prowadzić do niesamowitego postępu, czego przykładem jest chociażby projekt Manhattan mającym na celu opracowanie pierwszej bomby atomowej. W tym momencie zachęcam do refleksji jak duża przewagę zyskuje osoba mająca dostęp do już nadchodzących następców ChatGPT-4, nad osobami, które kroczą samotną ściężką, w tym przypadku po prostu nie używających sztucznej inteligencji. Osoba taka ma non-stop do dyspozycji drugi sztuczny umysł, a może już niedługo nawet przewyższający gatunek nagiej małpy, mieszczący się w dosłownie smartfonie, komputerze czy tablecie. AI się nie męczy, nie marudzi, nie denerwuje, nie musi spać i może pracować 24 godzinę na dobę na maksymalnych obrotach, nie zmniejszając ani przez chwilę swojej efektywności, jednocześnie posiadając dostęp do całej wiedzy jaką posiada nasz gatunek jedynie z wyjątkiem tej, która nigdzie nie została zapisana, a jedynie tkwi w pojedynczych ludzkich umysłach. Ludzie jako gatunek dominujący na planecie Ziemia, przynajmniej przez jeszcze jakiś czas mają możliwość wydawania poleceń sztucznej inteligencji, która w odpowiednich rękach ma możliwości wręcz niemożliwe do określenia w jakichkolwiek ramach. Nie ulega więc wątpliwości, że podział społeczeństwa może się jeszcze zwiększyć na tych którzy i bez sztucznej inteligencji dążyli do rozwoju, a teraz dostali w swoje ręce jeszcze dodatkowo „super moc” oraz na tych, którzy są zainteresowani jedynie rozrywką, a rozwój ludzkości niekoniecznie jest dla nich czymś co ich interesuje. 

Zagrożenie ze strony sztucznej inteligencji jest realne, ostatnie kilkadziesiąt lat pokazały jednak, że opracowanie broni masowego rażenia zapewniło względny pokój przynajmniej w części świata jakiego wcześniej ludzie nie doświadczyli, jest więc szansa, że AI może również odegrać tą samą rolę, oczywiście istnieje też realna możliwość nasilenia obecnych konfliktów jakie obserwujemy. W perspektywie jednak najbliższych kilku miesięcy, możemy oczekiwać, że sztuczna inteligencja będzie odpowiedzialna za ogromny rozwój we wszystkich dziedzinach, a przewidywanie w dłuższej perspektywie to jak wróżenie z fusów, nie ma jakiekolwiek sensu. Jedyne pytanie jakie sobie każdy z nas może zadać to czy mając pełną świadomość możliwości sztucznej inteligencji i jej potencjału, a jednocześnie zagrożeń związanych z nią,  powstrzymalibyśmy jej rozwój w tym momencie. 

Pozostaje mi mieć nadzieję, że treść zawarta w tym artykule „zestarzeje się dobrze” i mam nadzieje, że zainspiruje ona do pracy z sztuczną inteligencją, niezależnie czy obecnie ktoś chce ją wykorzystać do pracy zawodowej czy jedynie rozwijania swojej pasji. Zachęcam też do wgłębienia się jeszcze bardziej w tą tematykę i wyrobienia sobie własnej opinii, niekoniecznie zgodnej z moją, która równie jak szybko rozwija się sztuczna inteligencja, wraz z nią też może ulegać zmianie. Kończąc słowami fizyka i noblisty Richarda P. Feynmana „Szukamy sposobu, w jaki wszystko działa. Co sprawia, że wszystko działa.”