Pierwszy perceptron
Frank Rosenblatt w 1958 roku zbudował perceptron - pierwszy fizyczny system uczący się (działał na komputerze IBM 704, częściowo na układach analogowych). Może wydawać się szokujące, ale już 67 lat temu komputer był do rozpoznawania kształtów, liter. Oczywiście dawał radę tylko przy najprostszych przykładach - możliwości perceptronu było bardzo ograniczone.
Perceptron przyjmował na wejściu sygnały (cechy opisane liczbami), mnożył sygnały przez ustalone wagi (ważność danej cechy) i sumował wyniki. Jeśli suma przekraczała jakiś próg, to neuron był włączany (1), a jeśli nie, to pozostawał wyłączony (0). Brzmi naprawdę banalnie, a na tamte czasy to było rewolucyjne.
Doszło do takiej sytuacji, że magazyn The New Yorker nazwał percetron "pierwszym poważnym rywalem ludzkiego mózgu". Pieniądze w badania zainwestowało nawet amerykańskie wojsko. To były początki sztucznej inteligencji, jaką znamy obecnie.
Sprawdź polecane oferty
RRSO 20,77%
Zima AI
Ale żeby nie było tak pięknie, to w 1969 roku Marvin Minsky i Seymour Paper z MIT wykazali, że perceptron ma poważne ograniczenia natury matematycznej. Perceptron potrafił rozpoznawać tylko bardzo proste wzorce - tłumacząc na przystępny język: takie, które da się oddzielić prostą linią. Miał problemy nawet z implementacją funkcji XOR. Finansowanie w dużej mierze upadło. Nastała tzw. "zima AI".
Ale nauka nie zatrzymała się – choć entuzjazm wokół sztucznej inteligencji wyraźnie przygasł, laboratoria nadal działały. W 1974 roku Paul Werbos opracował algorytm backpropagation - metoda, która pozwala sieciom neuronowym uczyć się z własnych błędów. Przez wiele lat jego pomysł nie cieszył się zainteresowaniem, był zapomniany. Wszystko dlatego, że temat "sztucznego mózgu" miał być ślepą uliczką.
W 1975 roku Japończyk Kunihiko Fukushima zaprojektował pierwszą wielowarstwową sieć neuronową, która inspirowała się działaniem kory wzrokowej. Sieć rozpoznawała kształty i wzorce w o wiele bardziej zaawansowany sposób. Niestety prace nie zdobyły większego zainteresowania ze względu na brak odpowiedniej mocy obliczeniowej. Badania nad AI co prawda trwały, ale kierowały się raczej w stronę mało elastycznych systemów eksperckich, programowania regułowego, a nie sztucznych sieci neuronowych.
Ale to już było
W 1986 roku David Rumelhart opisał ponownie algorytm backpropagation - niezależnie od Paula Werbosa. Rumelhart nie znał jego pracy. Moc obliczeniowa była już większa, zbiory danych urosły - uczenie AI zaczynało mieć większy sens. Znów zaczęto szukać sposobów, aby AI iść w uczenie, a nie tylko myślenie logiczne na podstawie sztywno zapisanych regułów. Bez algorytmu propagacji wstecznej, sieci wielowarstwowe nie działałyby efektywnie. Zaczęły się pojawiać pierwsze biznesowe zastosowania sieci neuronowych. Na przełomie lat 80. i 90. sieci neuronowe wykorzystywano np. do rozpoznawania pisma odręcznego na czekach bankowych.
Niezmiennie, ważną rolę odgrywała rosnąca moc obliczeniowa. W latach 90. pojawiły się pierwsze procesory graficzne (GPU), znakomicie nadające się do równoległych obliczeń. To dało konkretnego kopa w kontekście trenowania sieci neuronowych. Jednak to nadal nie wystarczało - pod koniec lat 90. nawet ludzie w branży technicznej nie byli zaznajomieni z tematyką sztucznych neuronów. Rozwiązania nadal czekały, aby wyjść z cienia.
Wiosna AI
Prawdziwy przełom nastąpił dopiero w 2012 roku dzięki naukowcom z Uniwersytetu w Toronto. Zaprezentowali oni kontrariańskie podejście - sieć neuronową o nazwie AlexNet, która zdeklasowała konkurencję w konkursie ImageNet - zadanie było proste: stworzyć jak najlepszy algorytm, model do rozpoznawania obrazów.
Pomysłodawczynią i współtwórczynią ImageNet była Fei-Fei Li, profesor informatyki na Uniwersytecie Stanforda. ImageNet to gigantyczna baza danych obrazów, stworzona po to, by umożliwić trenowanie i testowanie algorytmów rozpoznawania obrazów. Zawiera ponad 14 milionów zdjęć, które zostały ręcznie opisane i przypisane do tysięcy kategorii – od zwierząt, przez narzędzia i pojazdy, aż po emocje na ludzkich twarzach.
AlexNet potrafił rozpoznawać zdjęcia z dokładnością niedostępną dla wcześniej wykorzystywanych algorytmów. Wydarzenie to uważa się za symboliczną datę początku "AI spring". Firmy technologiczne natychmiast zareagowały. Google już w 2013 roku wykupił startup założony przez twórców AlexNet, ściągając ich wiedzę pod swoje skrzydła i wykorzystując sieci neuronowe w produktach takich jak wyszukiwarka czy rozpoznawanie mowy.
Od tego momentu sztuczne sieci neuronowe szybko wkroczyły do głównego nurtu biznesu i życia codziennego. Deep Learning, czyli uczenie głębokie, napędza dziś rozwiązania, z których korzystamy na co dzień: systemy rozpoznawania twarzy, rekomendacje w sklepach internetowych, mediach społecznościowych, asystenci głosowi, jak np. Siri.
ChatGPT to również sieci neuronowe
Ale prawdziwy boom miał dopiero nadejść - 30 listopada OpenAI udostępnia pierwszą, publiczną wersję ChatGPT - produkt oparty właśnie na sztucznych sieciach neuronowych. Zaczęto od pojedynczego perceptronu, a jesteśmy na etapie sieci neuronowych, które składają z miliardów, bilionów parametrów. Rozwój sieci neuronowych od laboratoriów naukowych do potężnych narzędzi biznesowych zajął wiele dekad. Początkowo odkrycia te często wyprzedzały swoją epokę – brakowało mocy obliczeniowej lub od razu widocznych zastosowań komercyjnych, przez co wiele lat spędziły w akademickiej niszy.
Bez tego fundamentu położonego przez dociekliwych naukowców nie byłoby dzisiejszych przełomów. Z drugiej strony biznes okazał się niezbędny, aby te idee rozwinąć na masową skalę. Dziś trudno wskazać wyraźną granicę między pracą akademicką a innowacjami komercyjnymi – jedno napędza drugie. Biznes i nauka potrzebują siebie nawzajem, by pchać świat do przodu i tworzyć technologie.