Menu
Jest wolny
rejestracja
główny  /  Edukacja/ Sieci neuronowe: praktyczne zastosowanie. Czego sieci neuronowe uczą w rosji Sieci neuronowe w ekonomii i biznesie

Sieci neuronowe: zastosowanie praktyczne. Czego sieci neuronowe uczą w rosji Sieci neuronowe w ekonomii i biznesie

sztuczna inteligencja sieci neuronowych

Sieci neuronowe mogą być implementowane programowo lub sprzętowo.

Warianty sprzęt komputerowy implementacjami są neurokomputery, neuroboardy i neuro-LSI (duże układy scalone). Jednym z najprostszych i najtańszych neuroBISów jest model MD 1220 firmy Micro Devices, który implementuje sieć z 8 neuronami i 120 synapsami. Wśród obiecujących rozwiązań można wyróżnić modele Adaptive Solutions (USA) i Hitachi (Japonia). NeuroBIS, opracowany przez Adaptive Solutions, jest jednym z najszybszych: ogłoszona prędkość przetwarzania to 1,2 miliarda połączeń międzyneuronowych na sekundę (msec/s). Obwody produkowane przez Hitachi umożliwiają realizację sztucznych sieci neuronowych zawierających do 576 neuronów.

Większość nowoczesnych neurokomputerów to komputer osobisty lub stacja robocza z dodatkową neurokartą. Należą do nich np. komputery Fujitsu z serii FMR. Możliwości takich systemów są wystarczające do rozwiązywania dużej liczby stosowanych problemów przy użyciu metod neuromatematyki, a także do opracowywania nowych algorytmów. Największym zainteresowaniem cieszą się wyspecjalizowane neurokomputery, które realizują zasady architektury sieci neuronowych. Typowymi przedstawicielami takich systemów są komputery z rodziny Mark firmy TRW (pierwsza implementacja perceptronu opracowana przez F. Rosenblatta nosiła nazwę Mark I). TRW Mark III to stacja robocza zawierająca do 15 procesorów Motorola 68000 z koprocesorami matematycznymi. Wszystkie procesory są połączone magistralą VME. Architektura systemu, obsługująca do 65 000 wirtualnych elementów przetwarzania z ponad 1 milionem konfigurowalnych połączeń, może obsłużyć do 450 000 ms/s.

Innym przykładem jest neurokomputer NETSIM, stworzony przez Texas Instruments na podstawie osiągnięć Uniwersytetu Cambridge. Jej topologia to trójwymiarowa siatka standardowych węzłów obliczeniowych opartych na procesorach 80188. Komputer NETSIM służy do symulacji sieci Hopfielda-Kohonena. Jego wydajność sięga 450 milionów ms/s.

W przypadkach, gdy opracowanie lub wdrożenie sprzętowych implementacji sieci neuronowych jest zbyt kosztowne, stosuje się tańsze. wdrożenia oprogramowania. Jednym z najpopularniejszych produktów programowych jest rodzina programów BrainMaker przez CSS (California Scientific Software). Pakiet pierwotnie opracowany przez Loral Space Systems dla NASA i Johnson Space Center BrainMaker Ball został wkrótce przystosowany do zastosowań komercyjnych i dziś jest używany przez kilka tysięcy firm finansowych i przemysłowych, a także przez departamenty obrony USA do rozwiązywania problemów prognozowania, optymalizacji i symulacji sytuacji.

Cel opakowania BrainMaker- rozwiązywanie problemów, dla których nie znaleziono jeszcze formalnych metod i algorytmów, a dane wejściowe są niekompletne, zaszumione i sprzeczne. Zadania te obejmują m.in. prognozowanie kursów walut i akcji na giełdach, modelowanie sytuacji kryzysowych, rozpoznawanie wzorców i wiele innych. BrainMaker rozwiązuje problem za pomocą aparatu matematycznego teorii sieci neuronowych (dokładniej sieci Hopfielda z uczeniem metodą wstecznej propagacji błędów). W pamięci RAM wbudowany jest model wielowarstwowej sieci neuronowej, który ma właściwość uczenia się na wielu przykładach, optymalizując swoją wewnętrzną strukturę. Przy odpowiednim doborze struktury sieci po wytrenowaniu jej na odpowiednio dużej liczbie przykładów możliwe jest osiągnięcie wysokiej wiarygodności wyników (97% i więcej). Istnieją wersje BrainMaker dla MS DOS i MS Windows, a także dla Apple Macintosh. Oprócz podstawowej wersji pakietu rodzina BrainMaker zawiera następujące dodatki:

Uczeń BrainMakera- wersja pakietu dla uczelni. Jest szczególnie popularny wśród małych firm, które specjalizują się w tworzeniu aplikacji i niezbyt skomplikowanych zadaniach.

Opcja zestawu narzędzi- zestaw trzech dodatkowych programów zwiększających możliwości BrainMaker, Binarny, który tłumaczy informacje szkoleniowe na format binarny, aby przyspieszyć naukę; Trening hipersoniczny, gdzie używany jest algorytm szybkiego uczenia się; Konspiratorstwo, który wyświetla fakty, statystyki i inne dane w formie graficznej.

BrainMaker Profesjonalny- profesjonalna wersja pakietu BrainMaker z zaawansowaną funkcjonalnością. Zawiera wszystkie opcje Zestaw narzędzi.

Opcja treningu genetycznego(dla pakietu) BrainMaker Pro)- program do automatycznej optymalizacji sieci neuronowej do rozwiązywania danej klasy problemów, z wykorzystaniem algorytmów genetycznych do wyboru najlepszych rozwiązań.

Edytor kreatora danych- specjalistyczny edytor do automatyzacji przygotowania danych podczas konfigurowania i korzystania z sieci neuronowej.

Szkolenie danych finansowych- specjalistyczne zbiory danych do strojenia sieci neuronowej dla różnego rodzaju transakcji analitycznych, handlowych i finansowych, które obejmują rzeczywiste wartości wskaźników makroekonomicznych NYSE, NADDAW, ASE, OEX, DOW itp., wskaźniki inflacji, statystyki raportów giełdowych o różnych rodzajach produktów, a także informacje o kontraktach terminowych i wiele więcej.

Akcelerator BrainMakera- specjalizowana neuroboard akceleratorowa oparta na procesorach sygnałowych TMS320C25 firmy Texas Instruments. Podłączony do komputera osobistego, kilkakrotnie przyspiesza pakiet BrainMaker.

BrainMaker Accelerator Pro- profesjonalna wieloprocesorowa płytka neuronowa. Zawiera pięć procesorów sygnałowych TMS320C30 i 32 MB pamięci RAM.

Obecnie na rynku oprogramowania istnieje duża liczba różnych pakietów do budowy sieci neuronowych i rozwiązywania różnych problemów. Pakiet BrainMaker można nazwać weteranem rynku. Oprócz przedstawicieli tej rodziny, znane i szeroko rozpowszechnione narzędzia programowe obejmują: NeuroShell(Grupa WardSystem), Neuro Works(Neural Ware Inc.) i NeuroRozwiązania(NeuroDimension Inc.). Programy obiektowe środowiska rodziny NeuroRozwiązania mają na celu symulację sztucznej sieci neuronowej o dowolnej strukturze. Użytkownik systemu NeuroRozwiązania zapewniły możliwości prowadzenia badań i prowadzenia dialogu. Wszystkie dane w sieci są dostępne do przeglądania podczas szkolenia za pomocą różnych narzędzi wizualizacyjnych. Projektowanie sztucznej sieci neuronowej w systemie NeuroRozwiązania opiera się na zasadzie modułowej, która umożliwia symulację standardowych i nowych topologii. Niewątpliwą zaletą systemu jest dostępność specjalnych narzędzi pozwalających na symulację dynamicznych procesów w sztucznej sieci neuronowej.

Użycie technologii sieci neuronowych jest wskazane przy rozwiązywaniu problemów o następujących cechach:

Brak algorytmów rozwiązywania problemów w obecności wystarczająco dużej liczby parametrów;

Obecność dużej ilości informacji wejściowych charakteryzujących badany problem;

Zaszumiona, częściowa niespójność, niekompletność lub nadmiarowość oryginalnych danych.

Technologie sieci neuronowych znalazły szerokie zastosowanie w takich obszarach jak rozpoznawanie tekstu drukowanego, kontrola jakości produktów w produkcji, identyfikacja zdarzeń w akceleratorach cząstek, poszukiwanie ropy naftowej, kontrola leków, zastosowania medyczne i wojskowe, zarządzanie i optymalizacja, analiza finansowa, prognozowanie itp.

W dziedzinie ekonomii technologie sieci neuronowych mogą być wykorzystywane do klasyfikowania i analizowania szeregów czasowych poprzez aproksymację złożonych funkcji nieliniowych. Eksperymentalnie ustalono, że modele sieci neuronowych zapewniają większą dokładność w identyfikowaniu nieliniowych wzorców na giełdzie w porównaniu z modelami regresji.

Technologie sieci neuronowych są aktywnie wykorzystywane w marketingu do modelowania zachowań klientów i dystrybucji udziałów rynkowych. Technologie sieci neuronowych umożliwiają odnajdywanie ukrytych wzorców w marketingowych bazach danych.

Modelowanie zachowań klientów pozwala określić cechy osób, które odpowiednio zareagują na reklamę i dokonają zakupów na konkretny produkt lub usługę.

Segmentacja i modelowanie rynków w oparciu o technologie sieci neuronowych umożliwia budowanie elastycznych systemów klasyfikacji zdolnych do segmentacji rynków z uwzględnieniem różnorodności czynników i cech każdego klienta.

Technologie sztucznych sieci neuronowych mają dobre perspektywy rozwiązywania problemów imitacji i przewidywania cech behawioralnych menedżerów oraz problemów przewidywania ryzyka przy udzielaniu kredytów. Nie mniej istotne jest wykorzystanie sztucznych sieci neuronowych przy wyborze klientów do udzielania kredytów hipotecznych, przewidywaniu upadłości klientów banków, identyfikowaniu nieuczciwych transakcji przy użyciu kart kredytowych, sporządzaniu ocen klientów dla kredytów ze stałymi płatnościami itp.

Należy pamiętać, że wykorzystanie technologii sieci neuronowych nie zawsze jest możliwe i wiąże się z pewnymi problemami i wadami.

1. Potrzebujesz co najmniej 50, a najlepiej 100 obserwacji, aby stworzyć akceptowalny model. To dość duża ilość danych i nie zawsze jest dostępna. Na przykład przy wytwarzaniu produktu sezonowego historia poprzednich sezonów jest niewystarczająca do prognozowania bieżącego sezonu ze względu na zmiany stylu produktu, polityki sprzedaży itp. Nawet prognozując popyt na dość stabilny produkt na podstawie miesięcznych danych sprzedażowych, trudno jest zgromadzić dane historyczne z okresu od 50 do 100 miesięcy. W przypadku produktów sezonowych problem jest jeszcze bardziej złożony, ponieważ każda pora roku to właściwie jedna obserwacja. Przy braku informacji modele sztucznych sieci neuronowych budowane są w warunkach niekompletnych danych, a następnie są sekwencyjnie dopracowywane.

2. Budowa sieci neuronowych wymaga znacznych nakładów pracy i czasu, aby uzyskać satysfakcjonujący model. Należy mieć na uwadze, że zbyt duża dokładność uzyskana na próbce uczącej może skutkować niestabilnością wyników na próbce testowej – w tym przypadku sieć jest „przetrenowana”. Im lepiej system jest przystosowany do określonych warunków, tym mniej jest zdolny do uogólniania i ekstrapolacji oraz tym szybciej może okazać się niesprawny, gdy te warunki się zmienią. Zwiększenie objętości próbki treningowej pozwala na osiągnięcie większej stabilności, ale kosztem wydłużenia czasu treningu.

3. Podczas uczenia sieci neuronowych mogą powstać „pułapki” związane z popadaniem w lokalne minima. Algorytm deterministycznego uczenia się nie jest w stanie wykryć globalnego ekstremum ani pozostawić lokalnego minimum. Jedną z technik pozwalających ominąć „pułapki” jest poszerzenie wymiaru przestrzeni ciężarków poprzez zwiększenie ilości neuronów w warstwach ukrytych. Metody uczenia się stochastycznego otwierają pewne możliwości rozwiązania tego problemu. Modyfikując wagi sieciowe tylko na podstawie informacji o kierunku wektora gradientu funkcji celu w przestrzeni wag, możliwe jest osiągnięcie minimum lokalnego, ale nie można się z niego wydostać, gdyż przy punkt skrajny znika „siła napędowa” (gradient) i znika przyczyna ruchu. Aby opuścić ekstremum lokalne i przejść do poszukiwania ekstremum globalnego, konieczne jest stworzenie dodatkowej siły, która będzie zależeć nie od gradientu funkcji celu, ale od kilku innych czynników. Jedną z najprostszych metod jest po prostu stworzenie siły losowej i dodanie jej do siły deterministycznej.

4. Sigmoidalny charakter transmitancji neuronu powoduje, że jeśli podczas procesu uczenia kilka współczynników wagowych staje się zbyt dużych, to neuron spada na poziomy odcinek funkcji w obszarze nasycenia. Jednocześnie zmiany innych wag, nawet dość dużych, praktycznie nie mają wpływu na wartość sygnału wyjściowego takiego neuronu, a co za tym idzie na wartość funkcji celu.

5. Nieudana selekcja zakresu zmiennych wejściowych jest dość elementarnym, ale często popełnianym błędem. Jeżeli jest zmienną binarną o wartościach 0 i 1, to w około połowie przypadków będzie miała wartość zero: = 0. Ponieważ jest ona zawarta w wyrażeniu do modyfikacji wagi jako czynnik, efekt będzie tak samo jak w przypadku nasycenia: modyfikacja odpowiednich wag zostanie zablokowana. Prawidłowy zakres zmiennych wejściowych powinien być symetryczny, np. od +1 do -1.

6. Proces rozwiązywania problemów przez sieć neuronową jest dla użytkownika „nieprzezroczysty”, co może powodować nieufność użytkownika do predykcji sieci.

7. Zdolność predykcyjna sieci jest znacznie zmniejszona, jeśli fakty wejściowe (dane) znacznie różnią się od przykładów, na których sieć została przeszkolona. Ta wada jest wyraźnie widoczna przy rozwiązywaniu problemów prognozowania gospodarczego, w szczególności przy określaniu trendów notowań papierów wartościowych oraz wartości walut na rynkach akcji i finansowych.

8. Nie ma teoretycznie ugruntowanych zasad projektowania i efektywnego uczenia sieci neuronowych. Wada ta prowadzi w szczególności do utraty zdolności sieci neuronowych do uogólniania danych z badanego obszaru w stanach przetrenowania (przetrenowania).

Wysyłanie dobrej pracy do bazy wiedzy jest proste. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy, którzy wykorzystują bazę wiedzy w swoich studiach i pracy będą Ci bardzo wdzięczni.

  • Wstęp
  • Wniosek
  • Wstęp
  • Stworzenie metod równoległego przetwarzania informacji wpłynęło korzystnie na rozwój technologii sieci neuronowych.
  • Trzeba wyrazić wdzięczność wybitnemu chirurgowi, filozofowi i cybernetyce N.M. Amosov, który wraz ze swoimi studentami usystematyzował podejście do tworzenia sztucznej inteligencji (AI). To podejście jest następujące.
  • Strategie AI opierają się na koncepcji paradygmatu – poglądu (reprezentacji pojęciowej) na istotę problemu lub zadania oraz zasadę jego rozwiązania. Rozważ dwa paradygmaty sztucznej inteligencji.
  • 1. Paradygmat ekspercki zakłada następujące obiekty, a także etapy rozwoju i funkcjonowania systemu AI:
  • * formatowanie wiedzy – przekształcenie przez eksperta problematycznej wiedzy do postaci określonej przez wybrany model reprezentacji wiedzy;
  • * tworzenie bazy wiedzy<БЗ) - вложение формализованных знаний в программную систему;
  • * dedukcja - rozwiązanie problemu wnioskowania logicznego w oparciu o bazę wiedzy.
  • Ten paradygmat leży u podstaw wykorzystania systemów ekspertowych, logicznych systemów wnioskowania, w tym w logicznym języku programowania PROLOGUE. Uważa się, że systemy oparte na tym paradygmacie są bardziej zbadane.
  • 2. Paradygmat ucznia, na który składają się następujące postanowienia i kolejność działań:
  • * przetwarzanie obserwacji, badanie doświadczeń prywatnych przykładów – tworzenie bazy danych<БД>systemy sztucznej inteligencji;
  • * uczenie indukcyjne - przekształcenie bazy danych w bazę wiedzy opartą na uogólnieniu wiedzy zgromadzonej w bazie. oraz uzasadnienie procedury wydobywania wiedzy z bazy wiedzy. Oznacza to, że na podstawie danych wyciąga się wniosek o ogólności zależności między obserwowanymi obiektami. Główny nacisk kładziony jest tutaj na badanie aproksymacyjnych, probabilistycznych i logicznych mechanizmów wyciągania ogólnych wniosków z poszczególnych stwierdzeń. Wtedy możemy uzasadnić np. wystarczalność procedury uogólnionej interpolacji (ekstrapolacji) lub procedury wyszukiwania asocjacyjnego, za pomocą której spełnimy zapytania do bazy wiedzy;
  • * dedukcja - zgodnie z uzasadnioną lub założoną procedurą, na życzenie dobieramy informacje z bazy wiedzy (np. optymalną strategię sterowania dla wektora charakteryzującego aktualną sytuację).
  • Badania w ramach tego paradygmatu i jego rozwoju były dotychczas prowadzone słabo, choć leżą u podstaw budowy samouczących się systemów sterowania (poniżej wspaniały przykład samouczącego się systemu sterowania – zasady prowadzenia ognia w artylerii) .
  • Czym różni się baza wiedzy, wspólny i niezbędny element systemu AI od bazy danych? Możliwość logicznego wnioskowania!
  • Przejdźmy teraz do „naturalnej” inteligencji. Natura nie stworzyła nic lepszego niż ludzki mózg. Oznacza to, że mózg jest zarówno nośnikiem bazy wiedzy, jak i opartym na niej środkiem logicznego wnioskowania, niezależnie od tego, jaki paradygmat zorganizowaliśmy w naszym myśleniu, czyli w jaki sposób wypełniamy bazę wiedzy. - uczenie się!
  • TAK. Pospelov w niezwykłej, jedynej w swoim rodzaju pracy oświetla najwyższe sfery sztucznej inteligencji - logikę myślenia. Celem tej książki jest przynajmniej częściowe przeanalizowanie sieci neuronowej jako środka myślenia, a tym samym zwrócenie uwagi na dolne, początkowe ogniwo całego łańcucha metod sztucznej inteligencji.
  • Odrzucając mistycyzm, uznajemy, że mózg jest siecią neuronową, siecią neuronową - neuronami połączonymi ze sobą, z wieloma wejściami i jednym wyjściem. Neuron implementuje dość prostą funkcję transferu, która pozwala przeliczyć wzbudzenia na wejściach z uwzględnieniem wag wejść na wartość wzbudzenia na wyjściu neuronu. Funkcjonalnie kompletny fragment mózgu ma warstwę wejściową neuronów - receptorów wzbudzonych z zewnątrz i warstwę wyjściową, której neurony są wzbudzane w zależności od konfiguracji i wielkości wzbudzenia neuronów w warstwie wejściowej. Ma to być sieć neuronowa. naśladując pracę mózgu, przetwarza nie same dane, ale ich wiarygodność, czyli konwencjonalnie wagę, ocenę tych danych. W przypadku większości danych ciągłych lub dyskretnych ich przypisanie sprowadza się do wskazania prawdopodobieństwa zakresów, do których należą ich wartości. Dla dużej klasy danych dyskretnych - elementów zbiorów - wskazane jest sztywne mocowanie neuronów warstwy wejściowej.

1. Doświadczenie w wykorzystaniu sieci neuronowych w problemach ekonomicznych

Za pomocą sieci neuronowych rozwiązujemy problem opracowania algorytmów wyszukiwania analitycznego opisu prawidłowości funkcjonowania obiektów gospodarczych (przedsiębiorstwo, przemysł, region). Algorytmy te są stosowane do prognozowania niektórych wskaźników „wyjściowych” obiektów. Problem implementacji algorytmów sieci neuronowej jest rozwiązywany. Zastosowanie metod rozpoznawania wzorców lub odpowiadających im metod sieci neuronowych pozwala rozwiązać niektóre pilne problemy modelowania ekonomicznego i statystycznego, zwiększając adekwatność modeli matematycznych, przybliżając je do rzeczywistości gospodarczej. Wykorzystanie rozpoznawania wzorców w połączeniu z analizą regresji doprowadziło do powstania nowych typów modeli - klasyfikacji i odcinkowo liniowego. Znajdowanie ukrytych zależności w bazach danych to podstawa zadań modelowania i przetwarzania wiedzy, w tym dla obiektu z trudnymi do sformalizowania wzorcami.

Wybór najkorzystniejszego modelu z pewnego ich zbioru może być rozumiany albo jako problem rankingowy, albo jako problem wyboru oparty na zbiorze reguł. Praktyka pokazała, że ​​metody oparte na wykorzystaniu a priori wag czynników i poszukiwanie modelu odpowiadającego maksymalnej ważonej sumie czynników prowadzi do stronniczych wyników. Należy określić wagi i to jest wyzwanie. Ponadto zestawy wag mają charakter lokalny - każdy z nich jest odpowiedni tylko dla określonego zadania i danego obiektu (grupy obiektów).

Rozważmy bardziej szczegółowo problem wyboru wymaganego modelu. Załóżmy, że istnieje zbiór obiektów M, których aktywność ma na celu osiągnięcie określonego celu. Funkcjonowanie każdego obiektu charakteryzuje wartości n cech, czyli istnieje odwzorowanie φ: M -> Rn. Dlatego naszym punktem wyjścia jest wektor stanu obiektu gospodarczego: x =. Wskaźniki efektywności obiektu gospodarczego: f0 (x), f1 (x),…, fm (x). Wskaźniki te powinny mieścić się w pewnych granicach i staramy się, aby niektóre z nich były minimalne lub maksymalne.

Takie ogólne sformułowanie może być sprzeczne i konieczne jest zastosowanie aparatu do rozwiązywania sprzeczności i doprowadzenia sformułowania problemu do właściwej formy zgodnej z sensem ekonomicznym.

Porządkujemy przedmioty pod względem jakiejś funkcji kryterium, ale kryterium jest zwykle słabo zdefiniowane, niejasne i ewentualnie sprzeczne.

Rozważmy problem modelowania wzorców empirycznych w oparciu o ograniczoną liczbę danych eksperymentalnych i obserwowanych. Model matematyczny może być równaniem regresji, regułą diagnostyczną lub regułą predykcji. Przy małej próbce metody rozpoznawania są bardziej skuteczne. W tym przypadku uwzględnia się wpływ zarządzania czynnikami poprzez zróżnicowanie wartości czynników, gdy są one podstawiane do równania regularności lub do reguły decyzyjnej diagnozy i prognozowania. Dodatkowo stosujemy selekcję istotnych cech oraz generowanie cech użytecznych (parametry drugorzędne). Ten aparat matematyczny jest potrzebny do przewidywania i diagnozowania stanu obiektów gospodarczych.

Rozważmy sieć neuronową z punktu widzenia teorii konstrukcji komitetowych, jako kolektyw neuronów (jednostek. Sieć neuronowa jako mechanizm optymalizacji pracy neuronów w decyzjach zbiorowych jest sposobem uzgadniania indywidualnych opinii, w których opinia zbiorowa jest poprawną odpowiedzią na dane wejściowe, czyli konieczną zależnością empiryczną.

Stąd wynika, że ​​wykorzystanie struktur komitetowych w problemach selekcji i diagnostyki jest uzasadnione. Pomysł polega na szukaniu zbioru reguł decyzyjnych zamiast jednej reguły decyzyjnej, ta zbiorowość opracowuje zbiorową decyzję na mocy procedury, która przetwarza indywidualne decyzje członków zbioru. Modele wyboru i diagnostyka prowadzą zwykle do niespójnych układów nierówności, dla których zamiast rozwiązań należy szukać uogólnień koncepcji rozwiązania. To uogólnienie jest decyzją zbiorową.

Czyli np. komitet systemu nierówności jest takim zbiorem elementów, że każda nierówność jest zaspokajana przez większość elementów tego zbioru. Konstrukcje komitetowe są pewną klasą uogólnień koncepcji rozwiązania problemów, które mogą być zarówno kompatybilne, jak i niespójne. Jest to klasa przybliżeń dyskretnych dla problemów niespójnych, które mogą być również skorelowane z rozwiązaniami rozmytymi. Metoda komitetów wyznacza obecnie jeden z obszarów analizy i rozwiązywania problemów efektywnego doboru opcji, optymalizacji, diagnostyki i klasyfikacji. Podajmy na przykład definicję jednej z głównych konstrukcji komitetowych, a mianowicie: dla 0< p < 1: p - комитетом системы включений называется такой набор элементов, что каждому включению удовлетворяет более чем р - я часть этого набора.

Konstrukcje komitetowe mogą być postrzegane zarówno jako pewna klasa uogólnień koncepcji rozwiązania w przypadku niezgodnych układów równań, nierówności i wtrąceń, jak i jako środek zrównoleglenia w rozwiązywaniu problemów wyboru, diagnostyce i prognozowaniu. Uogólniając koncepcję rozwiązania problemu, konstrukcje komitetowe to zbiory elementów, które mają pewne (ale z reguły nie wszystkie) właściwości rozwiązania, jest to rodzaj rozwiązań nieostrych.

Jako środek zrównoleglenia, konstrukcje komitetowe pojawiają się bezpośrednio w wielowarstwowych sieciach neuronowych. Wykazaliśmy, że aby wytrenować sieć neuronową do dokładnego rozwiązania problemu klasyfikacji, możemy zastosować metodę budowy komitetu pewnego systemu nierówności afinicznych.

Na podstawie powyższego można stwierdzić, że metoda komitetów jest związana z jednym z ważnych obszarów badawczych i numerycznego rozwiązywania zarówno problemów diagnostycznych i wyboru opcji, jak i zadań tworzenia sieci neuronowych w celu uzyskania wymagana reakcja na wprowadzenie informacji o konkretnym problemie osoby otrzymującej rozwiązania.

W trakcie działania metody komitetowej ujawniono tak ważne właściwości dla stosowanych problemów, jak heurystyka, interpretowalność, elastyczność - możliwość dodatkowego douczenia i przeprogramowania, możliwość wykorzystania najbardziej naturalnej klasy funkcji - odcinkowo-afiniczna, a dla sformułowania problemu klasyfikacji, diagnostyki i prognozowania, wymagana jest jedynie poprawność, to znaczy, aby ten sam przedmiot nie był przypisany do różnych klas.

Druga strona zagadnienia struktur komitetowych wiąże się z koncepcją koalicji w rozwoju decyzji zbiorowych, podczas gdy w przypadku preferencji zbiorowych sytuacja jest bardzo zróżnicowana (istnieje wiele pułapek), a w przypadku reguł klasyfikacji zbiorowej, m.in. w tym przypadku procedury mogą być ściśle uzasadnione i mają szersze możliwości.... Dlatego ważne jest, aby móc sprowadzić problemy decyzyjne i prognostyczne do problemów klasyfikacyjnych.

2. Metoda tabelaryczna – podstawa sztucznej inteligencji

Ogólnie rzecz biorąc, zasady aktywności mózgu są znane i są aktywnie wykorzystywane. Używamy w naszej pamięci niewidzialnych stołów, na siłę i swobodnie zapełnionych przy biurku, za kierownicą, z ministerialną teczką i bez, odwracając głowę na hałaśliwej ulicy, przy książce, przy ławce i przy sztalugach. Uczymy się, studiujemy przez całe życie: zarówno uczeń, który spędza bezsenne noce przy ABC, jak i sprawny profesor. Bo z tymi samymi stołami kojarzymy nie tylko podejmowanie decyzji, ale także poruszanie się, chodzenie, granie w piłkę.

Jeśli przeciwstawimy obliczenia matematyczne myśleniu skojarzeniowemu, to jaki jest ich ciężar w życiu człowieka? Jak rozwinęła się osoba, która w ogóle nie umiała liczyć? Wykorzystując myślenie asocjacyjne, będąc w stanie interpolować i ekstrapolować, osoba gromadziła doświadczenie. (Nawiasem mówiąc, przypomnijmy sobie tezę D. Mendelejewa: Nauka zaczyna się, gdy zaczynają liczyć.) Możesz zapytać czytelnika: Ile razy policzyłeś dzisiaj? Prowadziłeś samochód, grałeś w tenisa, pognałeś do autobusu, planując swoje działania. Czy możesz sobie wyobrazić, ile musiałbyś obliczyć (i skąd wziąć algorytm?), aby podnieść nogę na chodniku, omijając krawężnik? Nie, nie liczymy niczego co minutę, a to chyba najważniejsza rzecz w naszym życiu intelektualnym, nawet w nauce i biznesie. Mechanizmy doznań, intuicji, automatyzmu, których nie potrafimy wyjaśnić, odnoszą się do myślenia podkorowego, są w rzeczywistości normalnymi mechanizmami myślenia skojarzeniowego z wykorzystaniem tabel bazy wiedzy.

A co najważniejsze, robimy to szybko! Jak nie myśleć, próbując zrozumieć i odtworzyć rozwój pamięci figuratywnej, produkt wzrostu w procesie Rozwoju. Wierzymy, że jest to całkowicie materialnie ucieleśnione, a zatem możliwe do zrealizowania sztucznie, z zastrzeżeniem modelowania i reprodukcji.

Sformułujmy teraz wystarczającą, dzisiejszą zasadę budowy sieci neuronowej jako elementu AI:

1. Należy przyznać, że podstawą imitacji neurostruktury mózgu jest metoda interpolacji tabelarycznej.

2. Tabele są wypełniane według znanych algorytmów obliczeniowych, eksperymentalnie lub przez ekspertów.

3. Sieć neuronowa zapewnia dużą szybkość przetwarzania tabel dzięki możliwości zrównoleglenia lawinowego.

4. Dodatkowo sieć neuronowa umożliwia wprowadzanie do tabeli niedokładnych i niepełnych danych, dostarczając przybliżoną odpowiedź w oparciu o zasadę maksymalnego lub średniego podobieństwa.

5. Zadaniem imitacji sieci neuronowych mózgu jest przekształcenie nie samej informacji początkowej, ale szacunków tej informacji, w zastępowaniu informacji wartościami pobudzenia receptorów, umiejętnie rozłożonymi między gatunki, typy, parametry , zakresy ich zmiany lub indywidualne wartości.

6. Neurony warstwy wyjściowej każdej podstruktury poprzez swoje wzbudzenie wskazują odpowiednie rozwiązania. Jednocześnie te sygnały wzbudzenia jako oryginalna informacja pośrednicząca mogą być wykorzystywane w następnym ogniwie łańcucha logicznego bez zewnętrznej ingerencji w tryb pracy.

3. Monitorowanie systemu bankowego

W artykule podano przykład genialnego zastosowania samoorganizujących się map Kohonena (SOM - Self-Organizing Map) do badania systemu bankowego Rosji w latach 1999-2000.

Monitoring opiera się na ocenie ratingowej opartej na automatycznym wykonaniu jednej procedury: wyświetla się na ekranie komputera zgodnie z wielowymiarowym wektorem parametrów banku. Zwraca się uwagę, że technologie sieci neuronowych umożliwiają konstruowanie funkcji wizualnych wielu zmiennych, niejako przekształcając przestrzeń wielowymiarową w jedno-, dwu- lub trójwymiarową. Dla każdego indywidualnego badania różnych czynników musisz zbudować własne SOM. Prognoza jest możliwa tylko na podstawie analizy szeregów czasowych szacunków SOM. Potrzebne są również nowe SOM, aby wydłużyć łańcuch wypłat, o połączenie danych z zewnątrz, np. o charakterze politycznym.

Takie podejście jest niewątpliwie skuteczne i wydajne. Wydaje się jednak, że w porównaniu z potencjałem neurostruktur mózgowych ogranicza zakres i odwagę myślenia, nie pozwala ciągnąć długich łańcuchów przesłanki-skutku, łączenia analizy z prognozą, szybkiego uwzględniania pojawiającej się sytuacji i wprowadzania nowych czynników i doświadczenie eksperckie. Należy zgodzić się, że to wszystko podlega mózgowi i ponownie zwracamy się do jego struktur, proponując projekt oprogramowania systemu monitoringu.

Struktura sieci neuronowej i metody treningowe. Funkcje logiczne leżące u podstaw monitoringu opierają się głównie na połączeniu logicznych wartości zmiennych, które odzwierciedlają zakresy zmian parametrów lub wskaźników banków.

Przedstawiono następujące wskaźniki:

* kapitał;

* aktywa zrównoważone;

* aktywa płynne;

* zobowiązania na żądanie;

* depozyty ludności;

* współczynnik płynności;

* środki budżetowe.

Tablicę wyników możesz rozwinąć:

* wielkość inwestycji w dobie rozkwitu gospodarki;

* wielkość zysku;

* poprzedni ranking i znaczenie migracji;

* odpisy na fundusz wsparcia nauki i oświaty;

* ulgi podatkowe;

* składki na fundusz emerytalny;

* odpisy na fundusz charytatywno-kulturalny;

* udział w programach UNESCO itp.

Tak prosta postać funkcji logicznej przy przechodzeniu do sfery zmiennych rzeczywistych wskazuje na wystarczalność jednowarstwowej sieci neuronowej zawierającej warstwę wejściową receptorów i warstwę wyjściową, na której tworzone są wyniki monitoringu.

Konstruując warstwę wejściową należy wziąć pod uwagę nie tylko aktualne wskaźniki, ale także dynamikę zmiany ratingu na przestrzeni minionych okresów. Warstwa wyjściowa powinna odzwierciedlać nie tylko ocenę, ale także rekomendacje ekspertów oraz inne decyzje i wnioski.

Najprostszy rodzaj szkolenia jest celowy – budowanie bazy wiedzy odpowiadającej koncepcji tworzenia sieci neuronowej dla zadania: bezpośrednie wprowadzenie połączeń przez operatora-badacza ręcznie – od receptorów do neuronów warstwy wyjściowej zgodnie z zależnościami przyczynowymi . W ten sposób sieć jest tworzona już przeszkolona.

Wtedy funkcja transferu będzie również najprostsza i oparta na sumowaniu wartości wzbudzenia na wejściu neuronu pomnożonych przez wagę połączenia:

Przypisanie wagi połączeń ha, w porównaniu z przybliżonym przypisaniem wszystkich wag równych jeden, jest bardziej celowe w związku z ewentualną chęcią operatora lub eksperta do uwzględnienia w różnym stopniu wpływu różnych wskaźników.

Próg h odcina oczywiście niedopuszczalne wnioski, upraszczając dalsze przetwarzanie (na przykład znalezienie średniej). Współczynnik redukcji do wynika z następujących rozważań.

Maksymalna wartość V może osiągnąć n. Aby wartość oceny znajdowała się w pewnym akceptowalnym zakresie, na przykład w, wartości wzbudzenia należy przekształcić, umieszczając k = Yn.

Powyższe założenia pozwalają na szybkie wprowadzanie zmian i doprecyzowań przez operatora – eksperta – użytkownika, rozwój sieci poprzez wprowadzanie nowych czynników i uwzględnianie doświadczeń. W tym celu wystarczy, że operator wybierze receptor, klikając myszką, a następnie nawiąże się neuron warstwy wyjściowej i połączenie! Pozostaje tylko w przybliżeniu przypisać wagę wprowadzonego połączenia z zakresu.

W tym miejscu należy zamieścić bardzo ważną uwagę (HIA) dotyczącą całego materiału książki i przeznaczoną dla bardzo uważnego czytelnika.

Wcześniej, rozważając szkolenie, jasno sklasyfikowaliśmy początkowe sytuacje odniesienia, przyjmując, że ufność każdego komponentu jest równa jedności. Kiedy następnie śledzimy i rozmieszczamy dynamiczne ścieżki wzbudzenia, ustawiamy również wagi wiązań na równe jeden (lub jakaś maksymalna stała wartość). Ale nauczyciel może od razu uzyskać dodatkowy stopień swobody, biorąc pod uwagę czynniki w zakresie i wagach, które wyznaczył! Załóżmy, że różne czynniki w różnym stopniu wpływają na wynik, a taki wpływ na siłę wywrzemy na etapie treningu.

Wiadomo na przykład, że w przededniu wojny ludność kupuje ogromne ilości mydła, zapałek i soli. Dlatego obserwując ten czynnik, można przewidzieć rychły początek wojny.

Tworząc sieć neuronową do analizy wydarzeń historycznych lub społecznych, należy zidentyfikować jeden lub więcej receptorów, których wzbudzenie odpowiada różnym poziomom zakupów mydła, soli i zapałek jednocześnie. Pobudzenie tych receptorów musi być przekazywane, wpływać (wraz z innymi czynnikami) na stopień pobudzenia neuronu warstwy wyjściowej, co odpowiada stwierdzeniu Wojna nadchodzi!

Niemniej intensywny zakup mydła, zapałek i soli jest warunkiem koniecznym, ale nie wystarczającym do wybuchu wojny. Może to wskazywać np. na gwałtowne ożywienie ruchu turystycznego w rejonie Pasma Głównego Kaukazu. Słowa tak naprawdę nie zawierają znaczenia logiki rozmytej, co pozwala na uwzględnienie nie niezmienności zdarzenia, nie zmiennej logicznej tak - nie, ale jakiegoś pośredniego, nieokreślonego, ważonego stanu typu "wpływa, ale nie tak bezpośrednio, że jest to konieczne ...". Dlatego powiązania (wszystkie lub niektóre) emanujące z danego receptora (danych) są ustawiane na pewną założoną wartość, mniejszą niż jeden, a następnie korygowane, co odzwierciedla wpływ wzbudzenia receptora na wyjście.

Tym samym jednoczesny zakup mydła, soli i zapałek liczony jest podwójnie: poziom zakupu będzie wyświetlany w stopniu pobudzenia odpowiednich receptorów, a także charakter wpływu zakupu na wycofanie.Wkrótce wojna! - używanie wag połączeń synaptycznych.

Zgadzam się, że przy budowaniu sieci jednopoziomowych takie podejście nasuwa się samo i jest wdrażane w bardzo prosty sposób.

Struktura ekranu receptora. Główną jego częścią jest przewijane okno, w którym można przeglądać i ustawiać stan warstwy receptorowej, która niewątpliwie nie mieści się na statycznym ekranie.

Przewijające się okno pokazuje wskaźniki i ich szacunkowe wartości w zakresie dla odpowiednich receptorów. Są to wartości probabilistyczne oparte na rzetelności, intuicji, eksperckiej ocenie. Szacunki zakładają pokrycie wielu receptorów. Na przykład oszacowanie, że kapitał własny wynosi albo 24, albo 34, albo 42 tys. To znaczy, ale raczej wszystkie te same 24, mogą prowadzić do przybliżonego oszacowania ustalonych wartości wzbudzenia 0,6, 0,2 i 0,2 receptorów odpowiadających zakresom (20 - 25], (30 - 35], (40 - 45]. Na ekranie wyświetlane są statycznie ustawione wartości, takie jak ocena w wyniku wcześniejszych pomiarów, wybrane wcześniej znalezione wskaźniki, a także wskaźniki sytuacji politycznej, społecznej i ekonomicznej (ich obfitość i rozwój może nadal wymagać przewijania).

Powinieneś także wyświetlić elementy sterujące przewijaniem i główne menu akcji:

* przejście do ekranu warstwy wyjściowej;

* przetwarzanie statystyczne wyników (zakłada przejście do ekranu wyjściowego);

* wprowadzenie nowego połączenia;

* wprowadzenie nowego receptora;

* wprowadzenie nowego neuronu warstwy wyjściowej (zakłada przełączanie ekranów);

* wprowadzenie nowego wskaźnika itp.

Struktura ekranu warstwy wyjściowej. Ekran warstwy wyjściowej (rysunek 8.3) wyświetla system koncentrycznych (zagnieżdżonych) prostokątów lub innych płaskich kształtów, które reprezentują malejący rozrzut oceny. Na środku ekranu jasne kropki oznaczają najbardziej udane banki lub rzekome idealne obrazy. Każdy element ekranu jest sztywno powiązany z neuronem warstwy wyjściowej. W wyniku monitorowania neuron odpowiadający wzorcowi może być maksymalnie wzbudzony, jednak najprawdopodobniej zostanie wyświetlony punkt na ekranie, który nie pokrywa się z żadnym wzorcem, który jest pośredni lub uśredniony.

Ryż. - 8.3. Ekran warstwy wyjściowej

Niewątpliwie należy zapewnić menu do obsługi średniej oceny ocen, wykazania kategorii sukcesu, wydawania sygnałów ostrzegawczych, tekstów wniosków, zalecanych strategii rozwoju, zapisywania danych do dalszego rozwoju itp.

Trening sieci neuronowych. Aby szkolić sieć neuronową w oparciu o oceny eksperckie, konieczne jest ustalenie zakresów dopuszczalnych parametrów, które pozwalają uznać bank za idealnie udany z maksymalną oceną. Ustalając kilka punktów, których współrzędne (zestawy wartości parametrów) spełniają dopuszczalne wartości ratingu dla znanych lub zakładanych (biorąc pod uwagę możliwe opcje) banków, można uzyskać kilku idealnych przedstawicieli. Odpowiednie neurony, tj. elementy ekranu warstwy wyjściowej są wybierane losowo, rozrzucone po obszarze ekranu. Pożądane jest, aby standardy o wyższej ocenie znajdowały się bliżej centrum.

Następnie przejdź do podobnego wypełnienia otaczającego prostokąta, w oparciu o następną kategorię oceny itp. zewnętrznym bankom.

Aby wykonać taką pracę, eksperci wstępnie tworzą tabelę (tabela 1).

Neurony wyświetlające banki na ekranie odpowiadają wielkości ich wzbudzenia - ocenom.

Metodologia monitorowania. Przeszkolony system, który jest do dyspozycji użytkownika po wysoko wykwalifikowanej wiedzy ekonomistów i polityków, jest gotowy do użycia w ramach technologii CASE CASE - Computer Aided Software Engineering.

Tabela 1 — Szacunki ekspertów dotyczące uczenia sieci neuronowej

W takim przypadku użytkownik korzysta z prawa do dodatkowego szkolenia, wyjaśnienia (na przykład wag połączeń, wzmocnienia lub osłabienia wpływu niektórych wskaźników na podstawie własnego doświadczenia), wprowadzenia dodatkowych wskaźników do eksperymentu na własne ryzyko itp.

Załóżmy, że użytkownik bada sytuację wokół banku Inwestuj tam i z powrotem. Naturalnie nie ma satysfakcjonujących informacji o słuszności własnych inwestycji, dlatego rozpoczyna skrupulatne zbieranie danych, w wyniku czego otrzymuje przybliżone, prawdopodobne, sprzeczne cechy do modelowania.

Za pomocą ekranu receptorów użytkownik ustawia wartości swojego wzbudzenia na podstawie dość wiarygodnych danych, ale czasami z uwzględnieniem opcji albo - albo (częściowo wzbudzanie różnych receptorów), czasami dla kaprysu, czasami po prostu z pominięciem wskaźniki. Wskaźniki takie jak ranking w przeszłości i migracja są nadal nieznane, ale oczekuje się, że wynik zostanie wykorzystany w przyszłości.

Po wprowadzeniu danych na ekranie warstwy wyjściowej, jasna kropka w pobliżu obszaru outsidera wymownie świadczy o ochronie prawa cywilnego bez użycia przemocy wyboru decyzji o celowości lokowania słusznie zgromadzonego kapitału.

Współrzędne tego punktu na ekranie są określone przez dobrze znany wzór na znalezienie średniej współrzędnych emitowanych neuronów tych banków, które są blisko kontrolowanego banku, oraz przez wielkość ich wzbudzenia. Ale według tych samych wzorów, na podstawie ocen wyróżnionych banków, znajduje się rating badanego banku!

Użytkownik może zdecydować się na uzupełnienie bazy wiedzy, a co za tym idzie sieci neuronowej o informacje o nowym banku, co jest wskazane, jeśli porada eksperta znacząco skrytykowała wynikowy wynik i tym samym wskazuje na błąd w sieci neuronowej. Wystarczy skorzystać z opcji. Dodaj, w wyniku którego zainicjowany zostanie dialog pomiędzy komputerem a użytkownikiem:

- Chcesz zmienić ocenę - Tak.

- Nowa wartość oceny --...

- Ratować!

Następnie neuron warstwy wyjściowej ze znalezionymi współrzędnymi zostaje przypisany do nowego banku. Jego połączenia powstają z tymi receptorami, które zostały przekazane z podekscytowaniem podczas wprowadzania informacji o banku. Przyjmuje się, że waga każdego połączenia jest równa wartości wzbudzenia odpowiedniego neuron-receptora wprowadzonej przez użytkownika. Teraz baza wiedzy została uzupełniona w taki sam sposób, jak lista instalacji na bateriach artyleryjskich po trafieniu w kolejny cel.

Jednak istotna wymuszona zmiana ratingu może wymagać przeniesienia podświetlonego punktu w obszar banków z odpowiednim poziomem ratingu, tj. konieczne jest przypisanie do tego banku kolejnego neuronu warstwy wyjściowej, w innym obszarze ekranu. Jest również instalowany w wyniku dialogu komputer-użytkownik.

Korekta i rozwój. Powyżej wspomnieliśmy już o potrzebie i możliwości ciągłego udoskonalania i rozwoju sieci neuronowej. Możesz zmienić ideę zaawansowania banku benchmarku (rzeczywistego lub idealnego) i uzupełnić bazę wiedzy, czyli m.in. tę sieć neuronową. Możesz dostosować wagi linków jako miarę wpływu poszczególnych wskaźników na wynik.

Możesz wprowadzić nowe wskaźniki z ich wagami, rozważyć nowe rozwiązania i ustalić stopień wpływu na nie tych samych lub nowych wskaźników. Możliwe jest dostosowanie sieci neuronowej do rozwiązywania problemów z tym związanych, z uwzględnieniem wpływu poszczególnych wskaźników na migrację banków (przejście z jednego poziomu ratingu na drugi) itp.

Wreszcie, kupując to oprogramowanie z przyjaznym interfejsem i doskonałą obsługą, z rozbudowanym zestawem funkcji do przekształcania sieci neuronowej, możesz je przerobić na zupełnie inne zadanie, na przykład na ekscytującą grę w ruletkę kolejową, którą my zamierzam skoncentrować się na poniższych.

Podsumowując, zauważamy, że w gospodarce i biznesie, a także w zarządzaniu złożonymi obiektami przeważają systemy decyzyjne, w których każda sytuacja kształtowana jest na podstawie niezmiennej liczby czynników. Każdy czynnik jest reprezentowany przez wariant lub wartość z wyczerpującego zbioru, tj. każda sytuacja jest reprezentowana przez koniunkcję, w której koniecznie biorą udział stwierdzenia dotyczące wszystkich czynników, za pomocą których powstaje sieć neuronowa. Wtedy wszystkie spójniki (sytuacje) mają taką samą liczbę zdań. Jeśli w tym przypadku dwie różne sytuacje prowadzą do różnych decyzji, odpowiednia sieć neuronowa jest idealna. Atrakcyjność takich sieci neuronowych polega na ich redukowalności do sieci jednowarstwowych. Jeśli przeprowadzimy mnożenie rozwiązań (patrz rozdział 5.2), to otrzymamy idealną sieć neuronową (bez sprzężeń zwrotnych).

Zadanie tego odcinka można sprowadzić do budowy doskonałej sieci neuronowej, podsekcji. 6.2, a także np. zadanie oceny ryzyka kraju itp.

Wniosek

Rozkład wartości wzbudzeń neuronów w warstwie wyjściowej, a najczęściej neuronu o maksymalnej wartości wzbudzenia, pozwala ustalić zgodność między kombinacją a wartościami wzbudzeń na warstwie wejściowej (obraz na siatkówki) i otrzymanej odpowiedzi (co to jest). Zależność ta determinuje zatem możliwość logicznego zawarcia formy „jeśli - to”. Sterowanie, tworzenie tej zależności odbywa się za pomocą wag połączeń synaptycznych neuronów, które wpływają na kierunki propagacji wzbudzenia neuronów w sieci, prowadzące na etapie uczenia do „niezbędnych” neuronów warstwy wyjściowej, czyli służą do łączenia i zapamiętywania relacji „przesłanka – efekt”. Połączenie podstruktur sieci neuronowej umożliwia uzyskanie „długie” łańcuchy logiczne oparte na takich relacjach.

Wynika z tego, że sieć działa w dwóch trybach: w trybie uczenia oraz w trybie rozpoznawania (tryb pracy).

W trybie uczącym tworzone są łańcuchy logiczne.

W trybie rozpoznawania sieć neuronowa na podstawie prezentowanego obrazu określa z dużą pewnością do jakiego typu należy, jakie działania należy podjąć itp.

Uważa się, że w ludzkim mózgu znajduje się do 100 miliardów neuronów. Ale teraz nie interesuje nas, jak działa neuron, w którym zachodzi aż 240 reakcji chemicznych. Interesuje nas, jak neuron działa na poziomie logicznym, jak wykonuje funkcje logiczne. Realizacja tylko tych funkcji powinna stać się podstawą i środkiem sztucznej inteligencji. Wcielając te funkcje logiczne, jesteśmy gotowi naruszyć podstawowe prawa fizyki, na przykład prawo zachowania energii. W końcu nie opieramy się na modelowaniu fizycznym, ale na dostępnym, uniwersalnym - komputerze.

Skupiamy się więc na „(bezpośrednim” wykorzystaniu sieci neuronowych w zadaniach sztucznej inteligencji. Jednak ich zastosowanie rozciąga się na rozwiązanie innych zadań. W tym celu budowane są modele sieci neuronowych o strukturze zorientowanej na to zadanie), użyj specjalny układ połączeń elementów neuronopodobnych, pewna transmitancja widłowa (często stosuje się tzw. połączenia sigmoil oparte na udziale wykładniczym w tworzeniu transmitancji), specjalnie dobrane i dynamicznie aktualizowane wagi. W tym przypadku wykorzystuje się właściwości zbieżności wartości wzbudzenia neuronów, samooptymalizację. Gdy wektor wejściowy wzbudzeń jest dostarczany po określonej liczbie cykli zegara sieci neuronowej, wartości wzbudzeń neuronów warstwy wyjściowej (w niektórych modelach wszystkie neurony warstwy wejściowej są neuronami warstwy wyjściowej a inne nie) zbiegają się z pewnymi wartościami. Mogą na przykład wskazać, które odniesienie jest bardziej zbliżone do „zaszumionego”. nieprawidłowy obraz wejściowy lub coś takiego. jak znaleźć rozwiązanie problemu. Na przykład słynna sieć Hopfield. choć ograniczony, może rozwiązać problem komiwojażera - problem złożoności wykładniczej. Sieć Hamming z powodzeniem implementuje pamięć asocjacyjną. Sieci Kohonena (mapy Kohonena), dodano 27.06.2011

Zadanie analizy działalności gospodarczej, czynniki wpływające na podejmowanie decyzji. Nowoczesne technologie informacyjne i sieci neuronowe: zasady ich działania. Badanie wykorzystania sieci neuronowych w zadaniach prognozowania sytuacji finansowej i podejmowania decyzji.

praca dyplomowa, dodana 11.06.2011

Opis procesu technologicznego napełniania papieru. Projektowanie maszyn papierniczych. Uzasadnienie wykorzystania sieci neuronowych w kontroli powstawania wstęgi papieru. Model matematyczny neuronu. Modelowanie dwóch struktur sieci neuronowych.

praca semestralna, dodana 15.10.2012

Sposoby wykorzystania technologii sieci neuronowych w systemach wykrywania włamań. Systemy eksperckie do wykrywania ataków sieciowych. Sztuczne sieci, algorytmy genetyczne. Zalety i wady systemów wykrywania włamań opartych na sieciach neuronowych.

test, dodany 30.11.2015

Pojęcie sztucznej inteligencji jako właściwości systemów automatycznych do przejmowania poszczególnych funkcji inteligencji człowieka. Systemy eksperckie w dziedzinie medycyny. Różne podejścia do budowy systemów sztucznej inteligencji. Tworzenie sieci neuronowych.

prezentacja dodana 28.05.2015

Badanie problemu i perspektyw wykorzystania sieci neuronowych na funkcjach radialnych do przewidywania głównych wskaźników ekonomicznych: produktu krajowego brutto, dochodu narodowego Ukrainy i wskaźnika cen konsumpcyjnych. Ocena wyników.

praca semestralna dodana 14.12.2014

Pojęcie i właściwości sztucznych sieci neuronowych, ich funkcjonalne podobieństwo do ludzkiego mózgu, zasada ich działania, obszary zastosowania. System ekspertowy i niezawodność sieci neuronowych. Model sztucznego neuronu z funkcją aktywacji.

streszczenie, dodane 16.03.2011

Istota i funkcje sztucznych sieci neuronowych (SSN), ich klasyfikacja. Elementy strukturalne sztucznego neuronu. Różnice między maszynami o architekturze ANN i von Neumann. Budowa i szkolenie tych sieci, obszary i perspektywy ich zastosowania.

prezentacja dodana 14.10.2013

Wykorzystanie neurokomputerów na rosyjskim rynku finansowym. Prognozowanie szeregów czasowych w oparciu o metody przetwarzania sieci neuronowych. Wyznaczanie oprocentowania obligacji i akcji przedsiębiorstw. Zastosowanie sieci neuronowych do problemów analizy aktywności giełdowej.

praca semestralna, dodana 28.05.2009

Historia powstania i główne kierunki modelowania sztucznej inteligencji. Problemy w nauce percepcji wzrokowej i rozpoznawania. Rozwój elementów inteligencji robotów. Badania z zakresu sieci neuronowych. Zasada sprzężenia zwrotnego Wienera.

UKD 004.38.032.26

O. V. KONYUKHOVA, K. S. LAPOCZKINA

O. V. KONUKHOVA, K. S. LAPOCZKINA

ZASTOSOWANIE SIECI NEURONOWYCH W GOSPODARCE I ZNACZENIE ICH WYKORZYSTANIA W TWORZENIU KRÓTKOTERMINOWEJ PROGNOZY BUDŻETOWEJ

ZASTOSOWANIE SIECI NEURONOWYCH W GOSPODARCE I PILNOŚĆ ICH WYKORZYSTANIA PRZEZ SPORZĄDZENIE KRÓTKOTERMINOWEJ PROGNOZY BUDŻETU

W artykule opisano zastosowanie sieci neuronowych w ekonomii. Rozważany jest proces prognozowania budżetu Federacji Rosyjskiej oraz zasadność wykorzystania sieci neuronowych do sporządzania budżetu krótkoterminowego.

Słowa kluczowe: gospodarka, budżet Federacji Rosyjskiej, prognozowanie budżetowe, sieci neuronowe, algorytmy genetyczne.

W artykule opisano zastosowanie sieci neuronowych w gospodarce. Rozważa się proces prognozowania budżetu Federacji Rosyjskiej i pilność zastosowania sieci neuronowych do sporządzania budżetu krótkoterminowego.

Słowa kluczowe: gospodarka, budżet Federacji Rosyjskiej, prognozowanie budżetowe, sieci neuronowe, algorytmy genetyczne.

4) automatyczne grupowanie obiektów.

Jedną z ciekawszych prób stworzenia mechanizmu racjonalnego zarządzania gospodarką w depresji należy do angielskiej cybernetyki Stafford Beer. Zaproponował zasady postępowania, które stały się powszechnie znane, oparte na mechanizmach neurofizjologicznych. Modele systemów produkcyjnych były przez niego postrzegane jako bardzo złożona relacja między wejściami (przepływami zasobów) wewnętrznymi, niewidocznymi elementami a wynikami (wynikami). Nakłady modeli były raczej uogólnionymi wskaźnikami, z których główne szybko odzwierciedlały produkcję danej produkcji, odczuwane zapotrzebowanie na zasoby i produktywność. Zaproponowane rozwiązania dla efektywnego funkcjonowania takich systemów zostały opracowane po znalezieniu i omówieniu wszystkich możliwych opcji w tej sytuacji. Najlepsza decyzja została podjęta większością głosów menedżerów i ekspertów biorących udział w dyskusji. W tym celu w systemie przewidziano pomieszczenie sytuacyjne wyposażone w odpowiednie środki techniczne. Zaproponowane przez S. Beera podejście do stworzenia systemu zarządzania okazało się skuteczne w zarządzaniu nie tylko dużymi stowarzyszeniami przemysłowymi, takimi jak koncern stalowy, ale także chilijską gospodarką lat 70-tych.

Podobne zasady zastosował w metodzie grupowego rozliczania argumentów (MGHA) ukraiński cybernetyk do modelowania gospodarki zamożnej Anglii. Wspólnie z ekonomistami (Parks i in.), który zaproponował ponad dwieście zmiennych niezależnych wpływających na dochód brutto, zidentyfikował kilka (pięciu do sześciu) głównych czynników, które z dużą dokładnością określają wartość zmiennej wyjściowej. Na podstawie tych modeli opracowano różne opcje oddziaływania na gospodarkę w celu zwiększenia wzrostu gospodarczego przy różnych stopach oszczędności, inflacji i stopie bezrobocia.

Zaproponowana metoda grupowego rozpatrywania argumentów opiera się na zasadzie samoorganizacji modeli złożonych, w szczególności ekonomicznych systemów, i pozwala na wyznaczenie złożonych ukrytych zależności w danych, które nie są wykrywane standardowymi metodami statystycznymi. Metodę tę z powodzeniem zastosowali A. I Iwachnenko do oceny stanu gospodarki i prognozowania jej rozwoju w takich krajach jak Stany Zjednoczone, Wielka Brytania, Bułgaria i Niemcy. wykorzystali dużą liczbę zmiennych niezależnych (od pięćdziesięciu do dwustu) opisujących stan gospodarki i wpływających na dochód brutto w badanych krajach. Na podstawie analizy tych zmiennych metodą grupowego rozliczania argumentów zidentyfikowano główne, istotne czynniki, które z dużą dokładnością określają wartość zmiennej wyjściowej (dochód brutto).

Badania w tym kierunku miały stymulujący wpływ na rozwój metod sieci neuronowych, które są ostatnio intensywnie wykorzystywane ze względu na zdolność wydobywania doświadczenia i wiedzy z małej sklasyfikowanej sekwencji. Po przeszkoleniu w takich sekwencjach sieci neuronowe są w stanie rozwiązywać złożone problemy nieformalizowane w taki sam sposób, jak robią to eksperci na podstawie swojej wiedzy i intuicji. Zalety te nabierają szczególnego znaczenia w warunkach gospodarki przejściowej, która charakteryzuje się nierównomiernym tempem rozwoju, różną stopą inflacji, krótkim czasem trwania oraz niekompletnością i niespójnością wiedzy o zachodzących zjawiskach gospodarczych.

Powszechnie wiadomo, że z powodzeniem zastosował zasady samoorganizacji modeli złożonych systemów gospodarczych do budowy sieci neuronowej w rozwiązywaniu problemów analizy i modelowania rozwoju gospodarczego w Mordowii i regionie Penza.

Typowym przykładem udanego zastosowania obliczeń neuronowych w sektorze finansowym jest zarządzanie ryzykiem kredytowym. Jak wiadomo, przed udzieleniem pożyczki banki przeprowadzają złożone obliczenia statystyczne dotyczące wiarygodności finansowej pożyczkobiorcy w celu oceny prawdopodobieństwa własnych strat z powodu nieterminowego zwrotu środków. Takie wyliczenia opierają się zwykle na ocenie historii kredytowej, dynamiki rozwoju firmy, stabilności jej głównych wskaźników finansowych i wielu innych czynnikach. Jeden ze znanych amerykańskich banków przetestował metodę obliczeń neuronowych i doszedł do wniosku, że ten sam problem rozwiązuje się szybciej i dokładniej przy użyciu tego rodzaju obliczeń, które zostały już wykonane. Na przykład w jednym z przypadków oceny 100 tys. rachunków bankowych nowy system oparty na obliczeniach neuronowych zidentyfikował ponad 90% potencjalnych osób niewypłacalnych.

Kolejnym bardzo ważnym obszarem zastosowania obliczeń neuronowych w dziedzinie finansów jest przewidywanie sytuacji na giełdzie. Standardowe podejście do tego problemu opiera się na sztywno ustalonym zbiorze „reguł gry”, które ostatecznie tracą swoją skuteczność na skutek zmian warunków handlu na giełdzie. Dodatkowo systemy zbudowane w oparciu o to podejście okazują się zbyt wolne dla sytuacji wymagających natychmiastowego podejmowania decyzji. Dlatego główne japońskie firmy działające na rynku papierów wartościowych zdecydowały się na zastosowanie metody obliczeń neuronowych. W typowym systemie opartym na sieci neuronowej wprowadzono informacje o łącznym wolumenie 33 lat działalności kilku organizacji, w tym obroty, poprzednie ceny akcji, poziomy dochodów itp. Samouczenie się na rzeczywistych przykładach, system sieci neuronowej wykazał większą dokładność prognoz i lepszą wydajność: w porównaniu z podejściem statystycznym dał ogólną poprawę wydajności o 19%.

Jedną z najbardziej zaawansowanych technik obliczeń neuronowych są algorytmy genetyczne, które naśladują ewolucję żywych organizmów. Dzięki temu mogą służyć jako optymalizator parametrów sieci neuronowych. Podobny system przewidywania wyników długoterminowych kontraktów papierów wartościowych o wysokim poziomie bezpieczeństwa został opracowany i zainstalowany na stacji roboczej Sun w Hill Samuel Investment Management. Podczas symulacji kilku strategii handlowych osiągnął dokładność 57% w przewidywaniu kierunku ruchu rynku. Firma ubezpieczeniowa TSB General Insurance w Newport stosuje podobną metodologię do przewidywania poziomu ryzyka w ubezpieczeniach pożyczek prywatnych. Ta sieć neuronowa jest samoucząca się na podstawie danych statystycznych o stanie bezrobocia w kraju.

Pomimo tego, że rynek finansowy w Rosji nie ustabilizował się jeszcze i argumentując z matematycznego punktu widzenia zmienia się jego model, co wiąże się z jednej strony z oczekiwaniem stopniowego załamania się rynku papierów wartościowych i wzrost udziału giełdy związany z przepływem inwestycji, zarówno kapitału krajowego, jak i zagranicznego, az drugiej strony z niestabilnością kursu politycznego można jednak zauważyć pojawianie się firm, które muszą stosować różne metody statystyczne od tradycyjnych, a także pojawienie się na rynku oprogramowania i sprzętu komputerowego pakietów neuronowych do emulacji sieci neuronowych na komputerach z serii IBM, a nawet specjalizowanych neuro-płytek opartych na wykonywanych na zamówienie neurochipach.

W szczególności jeden z pierwszych potężnych neurokomputerów do użytku finansowego, CNAPS PC/128, oparty na 4 neuroBISach firmy Alaptive Solutions, już z powodzeniem działa w Rosji. Według firmy Tora-Center wśród organizacji wykorzystujących sieci neuronowe do rozwiązywania swoich problemów znalazł się już Bank Centralny, Ministerstwo Sytuacji Nadzwyczajnych, Inspekcja Podatkowa, ponad 30 banków i ponad 60 firm finansowych. Niektóre z tych organizacji opublikowały już wyniki swoich działań w zakresie wykorzystania neurokomputerów.

Z powyższego wynika, że ​​w chwili obecnej wykorzystanie sieci neuronowych w prognozowaniu budżetu krótkookresowego jest pilnym tematem badań.

Podsumowując, należy zauważyć, że wykorzystanie sieci neuronowych we wszystkich obszarach działalności człowieka, w tym w obszarze zastosowań finansowych, wzrasta, częściowo z konieczności, a dla jednych ze względu na szerokie możliwości, dla innych ze względu na prestiż. oraz z powodu ciekawych aplikacji dla osób trzecich.

BIBLIOGRAFIA

1. Ustawa federalna Federacji Rosyjskiej z dnia 01.01.2001 (zmieniona 01.01.2001) „O prognozach państwowych i programach rozwoju społeczno-gospodarczego Federacji Rosyjskiej” [Tekst]

2. Piwo S. Brain firmy [Tekst] / S. Beer. - M .: Radio i komunikacja, 1993 .-- 524 s.

3. Galushkin, neurokomputery w działalności finansowej [Tekst] /. - Nowosybirsk: Nauka, 2002 .-- 215p.

4., Modele predykcyjne Mullera [Tekst] /, - Kijów: Technics, 1985. - 225 s.

5. Kleshchinsky, metody prognozowania w procesie budżetowym [Tekst] / // Czasopismo elektroniczne Corporate finance, 2011. - № 3 (19) - s. 71 - 78.

6. Rutkovskaya M., Plinsky L. Sieci neuronowe, algorytmy genetyczne i systemy rozmyte: Per. z języka polskiego [Tekst] / M. Rutkovskaya, L. Plinsky -: Gorąca linia - Telekomunikacja, lata 20.

7., Rozwiązania Kostyunina dotyczące sieci neuronowych o optymalnej złożoności [Tekst] /, // Automatyzacja i nowoczesne technologie, 1998. - nr 4. - P. 38-43.

Federalna Państwowa Instytucja Edukacyjna Wyższego Szkolnictwa Zawodowego „Państwowy Uniwersytet - Kompleks edukacyjny, naukowy i przemysłowy”, Orel

Kandydat nauk technicznych, profesor nadzwyczajny, profesor nadzwyczajny Katedry Systemów Informacyjnych Information

E-mail: ***** @ *** ru

Lapoczkin Krystyna Siergiejewna

Federalna Państwowa Instytucja Edukacyjna Wyższego Szkolnictwa Zawodowego „Państwowy Uniwersytet - Kompleks edukacyjny, naukowy i przemysłowy”, Orel

Uczeń grupy 11-PI (m)

Ale także do rozwiązywania ważniejszych zadań - na przykład szukania nowych leków. The Village zwrócił się do ekspertów, aby dowiedzieć się, jaka jest ta technologia i jak wykorzystują ją krajowe firmy i uczelnie.

Czym są sieci neuronowe?

Aby zrozumieć miejsce sieci neuronowych w świecie sztucznej inteligencji i ich związek z innymi technologiami tworzenia inteligentnych systemów, zacznijmy od definicji.

Sieci neuronowe- jedna z metod uczenia maszynowego, której fundamenty powstały w 1943 roku, jeszcze przed pojawieniem się terminu "sztuczna inteligencja". Stanowią model matematyczny, który niejasno przypomina pracę układu nerwowego zwierząt.

Według Stanisława Protasowa, starszego naukowca z Uniwersytetu w Innopolis, najbliższym odpowiednikiem ludzkiego mózgu są splotowe sieci neuronowe, wynalezione przez matematyka Jana Lekuna. „Są w sercu wielu aplikacji, które twierdzą, że są sztuczną inteligencją, takich jak FindFace czy Prisma” – zauważa.

Nauczanie maszynowe- podrozdział sztucznej inteligencji na styku matematyki i informatyki. Zajmuje się badaniem metod budowy modeli i algorytmów opartych na zasadzie uczenia się. Maszyna analizuje podane jej przykłady, identyfikuje wzorce, uogólnia je i buduje reguły, za pomocą których rozwiązywane są różne zadania – na przykład przewidując dalszy rozwój zdarzeń czy rozpoznawanie i generowanie obrazów, tekstu i mowy. Oprócz sieci neuronowych wykorzystuje również metody regresji liniowej, drzewa decyzyjne i inne podejścia.

Sztuczna inteligencja- sekcja informatyki dotycząca tworzenia środków technologicznych do wykonywania zadań przez maszyny, które wcześniej uważano wyłącznie za przywilej osoby, a także wyznaczanie takich rozwiązań. Kierunek został oficjalnie utworzony w 1956 roku.

Aleksander Krainow

To, co można nazwać sztuczną inteligencją, a co nie, to kwestia umów. Ogólnie rzecz biorąc, ludzkość nie doszła do jednoznacznego sformułowania, czym jest inteligencja w ogóle, a co dopiero sztuczna. Ale jeśli uogólnimy to, co się dzieje, możemy powiedzieć, że sztuczna inteligencja to głębokie sieci neuronowe, które rozwiązują złożone problemy na poziomie zbliżonym do poziomu człowieka i w takim czy innym stopniu uczą się samoczynnie. W tym przypadku samouczenie oznacza tutaj możliwość samodzielnego wyodrębnienia użytecznego sygnału z surowych danych.

Jaki jest obecny stan branży?

Według agencji analitycznej Gartner uczenie maszynowe znajduje się obecnie na szczycie rozdmuchanych oczekiwań. Charakterystyczne dla tego etapu podekscytowanie nową technologią prowadzi do nadmiernego entuzjazmu, który przeradza się w nieudane próby wykorzystania jej wszędzie. Szacuje się, że pozbycie się złudzeń branży zajmie od dwóch do pięciu lat. Według rosyjskich ekspertów sieci neuronowe wkrótce będą musiały przejść test wytrzymałości.

Siergiej Niegodiajew

Portfolio Manager Funduszu Rozwoju Inicjatyw Internetowych

Chociaż naukowcy formalizują i rozwijają sieci neuronowe od 70 lat, istnieją dwa punkty zwrotne w rozwoju tej technologii. Pierwszy miał miejsce w 2007 roku, kiedy University of Toronto stworzył algorytmy głębokiego uczenia dla wielowarstwowych sieci neuronowych. Drugim momentem, który wywołał dzisiejszy boom, jest rok 2012, kiedy badacze z tej samej uczelni zastosowali głębokie sieci neuronowe i wygrali konkurs ImageNet, ucząc się rozpoznawania obiektów na zdjęciach i filmach z minimalną liczbą błędów.

W dzisiejszych czasach jest wystarczająca moc komputera, aby rozwiązać, jeśli nie w ogóle, to zdecydowaną większość zadań opartych na sieciach neuronowych. Teraz główną przeszkodą jest brak oznakowanych danych. Relatywnie mówiąc, aby system nauczył się rozpoznawać zachód słońca na wideo lub zdjęciach, musi przesłać milion obrazów zachodu słońca, wskazując dokładnie, gdzie się znajduje w kadrze. Na przykład, gdy prześlesz zdjęcie na Facebooka, Twoi znajomi rozpoznają kota w promieniach zachodzącego słońca, a sieć społecznościowa zobaczy w nim zestaw tagów: „zwierzę”, „kot”, „drewniany”, „ podłoga”, „wieczór”, „Pomarańczowy”. Kto ma więcej danych do treningu, sieć neuronowa będzie mądrzejsza.

Andriej Kalinin

Kierownik wyszukiwania Mail.Ru

Aplikacje rozrywkowe oparte na sieciach neuronowych – na przykład nasz Artisto czy Vinci – to tylko wierzchołek góry lodowej, a jednocześnie świetny sposób na zademonstrowanie swoich możliwości szerokiemu gronu odbiorców. W rzeczywistości sieci neuronowe są w stanie rozwiązać wiele złożonych problemów. Najgorętszymi obszarami są teraz autopiloty, asystenci głosowi, boty czatowe i medycyna.

Aleksander Krainow

Kierownik Działu Usług Wizji Komputerowych Yandex

Można powiedzieć, że boom na sieci neuronowe już nadszedł, ale nie osiągnął jeszcze swojego szczytu. Dalej będzie tylko ciekawiej. Najbardziej obiecującymi obszarami są dziś być może wizja komputerowa, systemy dialogowe, analiza tekstu, robotyka, bezzałogowe pojazdy i generowanie treści - tekstów, obrazów, muzyki.

Obiecujące obszary do wdrożenia sieci neuronowych

Transport

Robotyka

Biotechnologia

Rolnictwo

Internet przedmiotów

Media i rozrywka

Językoznawstwo

Bezpieczeństwo

Wład Szerszulski

Dyrektor Programów Współpracy Technologicznej Microsoft w Rosji

Rewolucja neuronowa już się dzisiaj dokonała. Czasami nawet trudno odróżnić fantazję od rzeczywistości. Wyobraź sobie zautomatyzowany kombajn z wieloma kamerami. Robi 5 tys. zdjęć na minutę i poprzez sieć neuronową analizuje, czy przed nim chwast, czy zarażona szkodnikami roślina, a następnie decyduje, co dalej. Fantastyczny? Już nie całkiem.

Boris Wolfson

Dyrektor ds. Rozwoju HeadHunter

Istnieje pewien szum wokół sieci neuronowych i, moim zdaniem, nieco przeszacowane oczekiwania. Jeszcze trochę przejdziemy przez fazę frustracji, zanim nauczymy się, jak skutecznie z nich korzystać. Wiele przełomowych wyników badań nie ma jeszcze zastosowania w biznesie. W praktyce często rozsądniej jest zastosować inne metody uczenia maszynowego – na przykład różne algorytmy oparte na drzewach decyzyjnych. Prawdopodobnie nie wygląda to tak ekscytująco i futurystycznie, ale takie podejścia są bardzo powszechne.

Czego uczą sieci neuronowe w Rosji?

Uczestnicy rynku są zgodni co do tego, że wiele z osiągnięć sieci neuronowych ma nadal zastosowanie tylko na polu akademickim. Poza tym technologia wykorzystywana jest przede wszystkim w aplikacjach rozrywkowych, które podsycają zainteresowanie tematem. Niemniej jednak rosyjscy programiści uczą sieci neuronowych i rozwiązywania problemów istotnych społecznie i biznesowych. Przyjrzyjmy się bardziej szczegółowo niektórym obszarom.

Nauka i medycyna

Yandex School of Data Analysis uczestniczy w eksperymencie CRAYFIS wraz z przedstawicielami Skolkovo, MIPT, HSE oraz amerykańskich uniwersytetów UCI i NYU. Jego istotą jest poszukiwanie ultra wysokoenergetycznych cząstek kosmicznych za pomocą smartfonów. Dane z kamer są przesyłane do przyspieszonych sieci neuronowych zdolnych do przechwytywania na obrazach śladów słabo oddziałujących cząstek.

To nie jedyny międzynarodowy eksperyment, w który zaangażowani są rosyjscy specjaliści. Naukowcy z Innopolis University Manuel Mazzara i Leonard Yohard uczestniczą w projekcie BioDynaMo. Przy wsparciu Intela i CERN chcą stworzyć prototyp, który będzie w stanie odtworzyć pełnowymiarową symulację kory mózgowej. Z jego pomocą planowane jest zwiększenie wydajności i ekonomii eksperymentów wymagających obecności żywego ludzkiego mózgu.

Profesor z Innopolis Jarosław Chołodow brał udział w opracowaniu modelu komputerowego, który może przewidywać tworzenie się wiązań białkowych dziesięć razy szybciej. Ten algorytm może przyspieszyć rozwój szczepionek i leków. Deweloperzy z Mail.Ru Group, Insilico Medicine i Moskiewskiego Instytutu Fizyki i Technologii zauważyli w tym samym obszarze. Wykorzystali generatywne sieci przeciwników wyszkolonych do tworzenia struktur molekularnych w celu poszukiwania substancji, które mogłyby być przydatne w chorobach, od raka po choroby sercowo-naczyniowe.

zdrowie i piękno

W 2015 roku rosyjska firma Youth Laboratories uruchomiła pierwszy międzynarodowy konkurs piękności Beauty.AI. Zdjęcia jej uczestników zostały ocenione przez sieci neuronowe. Przy ustalaniu zwycięzców brali pod uwagę płeć, wiek, narodowość, kolor skóry, symetrię twarzy oraz obecność lub brak zmarszczek u użytkowników. Ten ostatni czynnik skłonił również organizatorów do stworzenia serwisu RYNKL, który pozwala śledzić, jak starzenie się wpływa na skórę i jak walczą z nim różne leki.

Również w telemedycynie wykorzystywane są sieci neuronowe. Rosyjska firma Mobile Medical Technologies, która zarządza projektami Online Doctor i Pediatrician 24/7, testuje bota diagnostycznego, który przyda się zarówno pacjentom, jak i lekarzom. Pierwszemu powie ci, z którym specjalistą skontaktować się z pewnymi objawami, a drugiemu pomoże ustalić, na co dokładnie choruje gość.

Optymalizacja procesów biznesowych i reklamy

Rosyjskiemu startupowi Leadza udało się wykorzystać sieci neuronowe do efektywniejszego przydzielania budżetów reklamowych na Facebooku i Instagramie. Algorytm analizuje wyniki przeszłych kampanii, buduje prognozę kluczowych wskaźników i na ich podstawie automatycznie realokuje koszty, aby sklepy internetowe mogły pozyskać więcej klientów niższym kosztem.

Zespół GuaranaCam wykorzystał technologie uczenia maszynowego do oceny skuteczności umieszczania towarów i materiałów reklamowych w trybie offline. System działa w oparciu o chmurę Microsoft Azure i analizuje zachowania konsumentów za pomocą kamer CCTV. Właściciele firm otrzymują raport o stanie handlu w czasie rzeczywistym. Projekt jest już realizowany w centrum handlowym Mega Belaya Dacha.

Na tym nie kończą się udane krajowe przykłady wykorzystania sieci neuronowych w biznesie. LogistiX, który od 2006 roku eksperymentuje z technologiami sztucznej inteligencji, opracował system optymalizacji magazynu. Opiera się na uczącej się sieci neuronowej, która analizuje dane o pracownikach otrzymane z monitorów fitness i redystrybuuje obciążenie między nimi. Teraz zespół uczy sieć neuronową, jak rozróżniać małżeństwo.

Holding Belfingrupp poszedł jeszcze dalej. Jej spółka zależna BFG-soft stworzyła platformę chmurową BFG-IS, która umożliwia zarządzanie przedsiębiorstwem z wykorzystaniem jego modelu wirtualnego. Ta ostatnia jest budowana automatycznie na podstawie danych produkcyjnych gromadzonych przez system i nie tylko pokazuje, jak najlepiej zorganizować procesy z uwzględnieniem założonych celów, ale także przewiduje konsekwencje wszelkich zmian – od wymiany sprzętu po wprowadzenie dodatkowych zmian. Pod koniec 2016 roku Fundusz Rozwoju Inicjatyw Internetowych postanowił zainwestować w spółkę 125 mln rubli.

Rekrutacja i zarządzanie personelem

Agregator rosyjskich rekruterów Stafory kończy szkolić cykliczną sieć neuronową, która jest w stanie nie tylko udzielać jednosylabowych odpowiedzi na pytania kandydatów, ale także prowadzić z nimi pełnoprawną rozmowę na temat wakatu zainteresowania. A zespół portalu SuperJob testuje usługę, która przewiduje, które z setek podobnych CV będzie poszukiwane przez konkretnego pracodawcę.

Transport

Rosyjski twórca inteligentnych systemów Cognitive Technologies wykorzystuje sieci neuronowe do rozpoznawania pojazdów, pieszych, znaków drogowych, sygnalizacji świetlnej i innych obiektów w kadrze. Firma zbiera również dane do trenowania sieci neuronowej dla pojazdu bezzałogowego. Mówimy o dziesiątkach tysięcy odcinków opisujących reakcję kierowców na pewne krytyczne sytuacje na drodze. W rezultacie system musi sformułować optymalne scenariusze zachowania autorobota. Te same technologie są wykorzystywane do tworzenia inteligentnego transportu rolniczego.

Ponadto sieci neuronowe mogą być wykorzystywane w transporcie i na inne sposoby. Latem 2016 roku Yandex dodał do swojej tablicy ogłoszeń Auto.ru funkcję automatycznego wykrywania modelu samochodu na jego zdjęciu. W tym czasie system znał 100 znaków.

Psychologia i bezpieczeństwo

Rosyjski startup NTechLab, który pokonał Google w międzynarodowym konkursie na algorytmy rozpoznawania twarzy The MegaFace Benchmark, wykorzystał technologie uczenia maszynowego w aplikacji FindFace. Pozwala znaleźć osobę w sieciach społecznościowych za pomocą zdjęcia. Często użytkownicy zwracają się do serwisu w celu zidentyfikowania podróbek, ale może to być również przydatne dla funkcjonariuszy organów ścigania. Z jego pomocą zidentyfikowano już kilku przestępców, w tym porywacza Citibank w Moskwie. Biznesowa wersja FindFace.Pro jest przeznaczona dla firm zainteresowanych identyfikacją klienta. Teraz system uczy się określania płci, wieku i emocji innych, co może być przydatne nie tylko w komunikacji z klientami, ale także przy zarządzaniu personelem.

Podobnie z sieci neuronowych korzysta inna rosyjska firma VisionLabs. Wykorzystuje technologie rozpoznawania twarzy, aby zapewnić bankom bezpieczeństwo i tworzyć specjalne oferty dla najbardziej lojalnych klientów różnych placówek detalicznych.

W podobnym kierunku działa startup „Emotian”. Finalizuje system określania stanu emocjonalnego miast. Do tej pory sieć neuronowa oblicza najszczęśliwsze obszary na podstawie publikacji w sieciach społecznościowych, ale w przyszłości firma uwzględni dane biometryczne z kamer.

Media i kreatywność

Yandex jest jednym z głównych graczy na rosyjskim rynku sieci neuronowych. Firma wykorzystuje uczenie maszynowe nie tylko w swoich wyszukiwarkach, ale także w innych produktach. W 2015 roku uruchomiła system rekomendacji Zen, który generuje kanał wiadomości, artykułów, zdjęć i filmów na podstawie zainteresowań konkretnego użytkownika. Im częściej odwołuje się do materiałów wybranych przez algorytm, tym dokładniej sieć neuronowa określa, co jeszcze może mu się spodobać.

Ponadto Yandex eksperymentuje z kreatywnością. Pracownicy firmy zdążyli już zastosować podejście sieci neuronowej do poezji, a następnie

Moskiewski Departament Edukacji

Gimnazjum GBOU №1503

"SIECI NEURONOWE. ICH ZASTOSOWANIE, ROLA I ZNACZENIE

WE WSPÓŁCZESNEJ I PRZYSZŁEJ GOSPODARCE”

(Praca badawcza)
Zakończony

uczeń klasy 10

Dmitrij Brazhenko

Kierownik:

Kuprikov Aleksander Wasiliewicz

Moskwa

rok 2013

Sieci neuronowe. Ich zastosowanie, rola i znaczenie we współczesnej i przyszłej gospodarce
Plan:


Wstęp …………………………………………………………………………………………

Cele i zadania………………………………………………………………………………………………


  1. Pojęcie sieci neuronowych, ich znaczenie ………………………………………………………

    1. Najprostsza technologia analityczna ……………………………………………

    2. Problem nieliniowy ………………………………………………………………………… ..

    3. Korzyści z wykorzystania sieci neuronowych ………………………………………

    4. Zasada działania sieci neuronowych …………………………………………………………

  2. Wdrożenia oprogramowania …………………………………………………………………

  3. Zastosowanie sieci neuronowych …………………………………………………………………

    1. Prognozowanie zmian notowań ………………………………………………

    2. Zarządzanie ceną i produkcją ………………………………………………

    3. Badanie czynników popytu ……………………………………………………… ..

    4. Wycena nieruchomości………………………………………………………………….

    5. Analiza rynku konsumenckiego ………………………………………………………

    6. Zwalczania nadużyć Finansowych ………………………………………………………………

    7. Rozpoznawanie tekstu…………………………………………………………………………

  4. Część empiryczna …………………………………………………………………………

    1. Prognozowanie zmian kursu USD/RUR …………………………………………

    2. Wycena nieruchomości …………………………………………………… ..

  5. Wady korzystania z sieci neuronowych ………………………………………………
Wniosek ………………………………………………………………………………………

Bibliografia………………………………………………………………………………

Załączniki …………………………………………………………………………… …… ...


3

Niebezpieczeństwo nie polega na tym, że pewnego dnia komputer zacznie myśleć jak człowiek, ale na tym, że pewnego dnia człowiek zacznie myśleć jak komputer.

(Sydney J. Harris)

Wstęp

We współczesnym świecie kalkulacje ekonomiczne muszą być bardzo dokładne, oparte na wcześniejszych doświadczeniach. Tradycyjne metody, takie jak prognozowanie popytu na nowe produkty za pomocą ankiety publicznej, ręczna analiza uzyskanych danych, analiza jakości produktu poprzez badanie poszczególnych próbek oraz zarządzanie potencjalnym ryzykiem w sposób standardowy, powoli schodzą na dalszy plan ze względu na stosunkowo niska dokładność.

Sieci neuronowe stanowią nową i bardzo obiecującą technologię obliczeniową, która zapewnia zupełnie nowe podejście do badania dynamicznych problemów w dziedzinie gospodarki. Początkowo sieci neuronowe otworzyły nowe możliwości w dziedzinie rozpoznawania wzorców, następnie dodano statystyczną i opartą na metodzie poszukiwania złożonych relacji (sztuczną inteligencję) wsparcie w podejmowaniu decyzji i rozwiązywaniu problemów w dziedzinie ekonomii.

Umiejętność modelowania procesów nieliniowych, praca z zaszumionymi danymi i adaptacyjność pozwala na wykorzystanie sieci neuronowych do rozwiązywania szerokiej klasy problemów, które obejmują szeroki zakres obszarów zainteresowania. Rozpoznawanie wzorców, przetwarzanie danych zaszumionych lub niepełnych, wyszukiwanie asocjacyjne, klasyfikacja, optymalizacja, prognoza, diagnostyka, sterowanie procesami, segmentacja danych, kompresja informacji, złożone wyświetlacze, modelowanie procesów niestandardowych, rozpoznawanie mowy.

W ciągu ostatnich kilku lat w oparciu o sieci neuronowe powstało wiele systemów oprogramowania do wykorzystania w takich zagadnieniach jak operacje na rynku towarowym, ocena prawdopodobieństwa upadłości banku, ocena zdolności kredytowej, kontrola inwestycji, udzielanie kredytów.

Celem wykorzystania sieci neuronowych w ekonomii wcale nie jest wypieranie tradycyjnych metod czy odkrywanie koła na nowo, ale jest to kolejne możliwe narzędzie do rozwiązywania problemów.

Stworzenie metod równoległego przetwarzania informacji wpłynęło korzystnie na rozwój technologii sieci neuronowych.

Postawiono hipotezę, że sieci neuronowe są uważane za narzędzie zdolne do identyfikacji najbardziej złożonych zależności. W swojej pracy chcę to przetestować.

Praktyczne znaczenie moich badań wiąże się z faktem, że obecnie niewiele firm wykorzystuje sieci neuronowe jako główne narzędzie. Dlatego w „normalnych” obliczeniach mogą popełniać błędy, które można zidentyfikować za pomocą podejścia „sieci neuronowej”.

Swoją pracę podzieliłem na 5 rozdziałów. W pierwszym rozdziale ujawniam ogólne pojęcia sieci neuronowych, ich znaczenie. W drugim rozdziale zajmuję się wdrożeniami oprogramowania, tj. programy przeznaczone do pracy z sieciami neuronowymi. W rozdziale 3 przedstawiam szczegółowe przykłady wykorzystania sieci neuronowych w praktyce. W rozdziale czwartym wybieram dwa przykłady i wykorzystując technologię sieci neuronowych prowadzę badania, których wyniki opisuję w swojej pracy.

Cel napisania pracy:


  • Ujawnij potrzebę wykorzystania sieci neuronowych w ekonomii
Zadania:

  1. Zrozum system sieci neuronowych, zrozum, czym one są

  2. Zdefiniuj problemy ekonomiczne, które można rozwiązać za pomocą sieci neuronowych

  3. Symuluj sieć neuronową za pomocą oprogramowania neuronowego i użyj go do stworzenia praktycznego przykładu

  4. Ocena efektywności wykorzystania sieci neuronowych w problemach ekonomicznych.

1. Pojęcie sieci neuronowych, ich znaczenie.

Sieci neuronowe to adaptacyjne systemy przetwarzania i analizy danych, które są strukturą matematyczną, która imituje niektóre aspekty ludzkiego mózgu i demonstruje jego możliwości, takie jak zdolność do uczenia się pozaformalnego, zdolność do generalizowania i grupowania niesklasyfikowanych informacji, zdolność do samodzielne dokonywanie predykcji na podstawie już przedstawionych szeregów czasowych, umiejętność znajdowania złożonych zależności analitycznych.

Ich główna różnica w stosunku do innych metod, na przykład systemów eksperckich, polega na tym, że sieci neuronowe nie potrzebują z góry określonego modelu, ale tworzą go na podstawie informacji wejściowych. Dlatego sieci neuronowe i algorytmy genetyczne znalazły zastosowanie wszędzie tam, gdzie konieczne jest rozwiązywanie problemów prognozowania, klasyfikacji, sterowania – innymi słowy w dziedzinie działalności człowieka, gdzie występują problemy słabo algorytmiczne, do rozwiązania których albo Wymagana jest stała praca grupy wykwalifikowanych ekspertów lub adaptacyjne systemy automatyki, które są sieciami neuronowymi. Zatem sieci neuronowe można uznać za złożoną technologię analityczną, tj. technika, która na podstawie znanych algorytmów pozwala na wyprowadzenie wartości nieznanych parametrów z podanych danych.

1.1. Najprostsza technologia analityczna

Aby było to jaśniejsze, podam klasyczny przykład najprostszej technologii analitycznej: twierdzenie Pitagorasa, które pozwala określić długość przeciwprostokątnej na podstawie długości nóg.

c 2 = a 2 + b 2.

Znając parametry a i b, nie jest wcale trudno obliczyć c [hipotezę].

1.2. "Problem nieliniowy"

Zupełnie inną odmianą technologii analitycznej jest sposób przetwarzania informacji przez ludzki mózg. Przykładami takiej technologii analitycznej są rozpoznawanie znanych nam twarzy w tłumie lub efektywne zarządzanie wieloma mięśniami w sporcie. Te zadania, które nawet mózg dziecka może rozwiązać, nie są jeszcze przedmiotem nowoczesnych komputerów.

Wyjątkowość ludzkiego mózgu polega na tym, że potrafi nauczyć się rozwiązywać nowe problemy, np. prowadzić samochód, uczyć się języków obcych itp. Mimo to mózg nie jest przystosowany do przetwarzania dużych ilości informacji - człowiek nie może obliczyć nawet pierwiastka kwadratowego z dużej liczby w swojej głowie bez użycia papieru lub kalkulatora. W praktyce bardzo często napotyka się problemy liczbowe, które są znacznie bardziej złożone niż ekstrakcja korzeni. Aby rozwiązać takie problemy, potrzebne są dodatkowe narzędzia.

Sieć neuronowa pobiera informacje wejściowe i analizuje je w sposób podobny do tego, którego używa nasz mózg. Sieć jest zdolna do uczenia się. Kolejne wyniki wydawane są na podstawie wcześniejszych doświadczeń.

Głównym zadaniem specjalisty, który wykorzystuje sieci neuronowe do rozwiązania określonego problemu, jest konieczność wyboru najwydajniejszej architektury sieci neuronowej, tj. wybrać odpowiedni typ sieci neuronowej, algorytm jej uczenia, liczbę neuronów oraz rodzaje połączeń między nimi. Niestety praca ta nie ma rygorystycznego algorytmu, wymaga dogłębnego zrozumienia różnych typów architektur sieci neuronowych, wymaga wielu badań i może zająć dużo czasu.

Korzystanie z sieci neuronowych jest wskazane, jeśli:

Zebrano wystarczającą ilość danych na temat poprzedniego zachowania systemu

Nie ma tradycyjnych metod ani algorytmów, które w zadowalający sposób rozwiążą problem

Dane są częściowo zniekształcone, niekompletne lub niespójne, w wyniku czego tradycyjne metody dają niezadowalający wynik

Sieci neuronowe działają najlepiej, gdy istnieje duża ilość danych wejściowych, między którymi istnieją niejawne relacje i wzorce. W takim przypadku sieci neuronowe pomogą automatycznie uwzględnić różne nieliniowe zależności ukryte w danych. Jest to szczególnie ważne w systemach wspomagania decyzji i systemach prognozowania.

1.3. Korzyści z korzystania z sieci neuronowych

Sieci neuronowe są niezbędne w analizie danych, na przykład do wstępnej analizy lub selekcji, do wykrywania poważnych błędów ludzkich. Wskazane jest stosowanie metod sieci neuronowych w problemach z niepełną informacją, w problemach, w których rozwiązanie można znaleźć intuicyjnie, a jednocześnie tradycyjne modele matematyczne nie dają pożądanego rezultatu.

Metody sieci neuronowych są doskonałym uzupełnieniem tradycyjnych metod analizy statystycznej, z których większość wiąże się z budowaniem modeli w oparciu o pewne założenia i wnioski teoretyczne (na przykład, że pożądana zależność jest liniowa lub że jakaś zmienna ma rozkład normalny). Podejście sieci neuronowych nie jest związane z takimi założeniami - jest równie odpowiednie dla liniowych i złożonych nieliniowych zależności, ale jest szczególnie skuteczne w eksploracyjnej analizie danych, gdy celem jest stwierdzenie, czy istnieją zależności między zmiennymi. Jednocześnie dane mogą być niekompletne, sprzeczne, a nawet świadomie zniekształcone. Jeśli istnieje jakiś rodzaj połączenia między danymi wejściowymi i wyjściowymi, którego nie wykryją nawet tradycyjne metody korelacyjne, to sieć neuronowa jest w stanie automatycznie się do niego dostroić z określonym stopniem dokładności. Ponadto nowoczesne sieci neuronowe mają dodatkowe możliwości: pozwalają ocenić względną wagę różnego rodzaju informacji wejściowych, zmniejszyć ich objętość bez utraty istotnych danych, rozpoznać symptomy zbliżających się sytuacji krytycznych itp.

1.4. Jak działają sieci neuronowe

Szybkość nowoczesnych komputerów wynosi około 100 Mflops (10^8 flopów) (flops to zmiennoprzecinkowa jednostka szybkości komputera).Mózg zawiera około 10^11 neuronów. Czas przejścia jednego impulsu nerwowego wynosi 1 ms, uważa się, że wydajność jednego neuronu jest rzędu 10 flopów. Równoważna prędkość mózgu to 10^11*10 = 10^12 flopów. Jeśli weźmiemy pod uwagę problemy rozwiązywane przez mózg i obliczymy wymaganą liczbę operacji do ich rozwiązania na zwykłych komputerach, otrzymamy szacunkową prędkość do 10^12 flopów. Różnica w wydajności między zwykłym komputerem a mózgiem wynosi 4 rzędy wielkości! Ten zysk jest w dużej mierze spowodowany równoległym przetwarzaniem informacji w mózgu. W konsekwencji, aby poprawić wydajność komputera, konieczne jest przejście od zasad von Neumanna do równoległego przetwarzania informacji. Jednak komputery równoległe nie są jeszcze szeroko rozpowszechnione z kilku powodów, które są spowodowane trudnościami technicznymi implementacji.

Sztuczna sieć neuronowa to znacznie uproszczony model biologicznej sieci neuronowej, tj. element układu nerwowego. Podstawowe idee i zasady są zapożyczone z biologii:


  • Neuron to przełącznik, który odbiera i przekazuje impulsy lub sygnały. Jeśli neuron otrzyma wystarczająco silny impuls, mówią, że neuron jest aktywowany, to znaczy przekazuje impulsy do neuronów z nim związanych. Nieaktywowany neuron pozostaje w spoczynku i nie przekazuje impulsu.

  • Neuron składa się z kilku elementów: synaps, które łączą neuron z innymi neuronami i odbierają impulsy z sąsiednich neuronów, aksonu przesyłającego impulsy do innych neuronów oraz dendrytu odbierającego sygnały z różnych źródeł, m.in. z synaps.

  • Gdy neuron otrzyma impuls przekraczający określony próg, przekazuje impuls do kolejnych neuronów (uruchamia impuls).

  • Synapsa składa się z dwóch części: presynaptycznej, połączonej z aksonem komórki przenoszącej impulsy i postsynaptycznej, połączonej z dendrytem komórki odbierającej impulsy. Obie części synapsy są połączone szczeliną synaptyczną.
Sygnał z neuronu do innych neuronów jest przekazywany przez akson, który nie jest bezpośrednio połączony z neuronami odbierającymi. Impuls zmienia się kilkakrotnie w synapsie: przed wysłaniem - w części presynaptycznej i po odbiorze - w części postsynaptycznej.

Impuls do transmisji powstaje w neuronie w zależności od jednego lub więcej otrzymanych impulsów. W przypadku kilku impulsów neuron akumuluje je. To, czy przekaże impuls, czy nie, zależy od charakteru otrzymanych impulsów, przez kogo zostały przekazane itp. Tak więc zależność między wysyłanymi i odbieranymi impulsami jest nieliniowa. Jeśli neuron przekaże impuls, jest on aktywowany.

Model matematyczny neuronu zbudowany jest w następujący sposób:

Ryż. 1. Model sztucznego neuronu


  • Wejście modelu neuronowego X jest wektorem składającym się z dużej liczby (N) składowych. Każdy ze składowych wektora wejściowego Xi jest jednym z impulsów odbieranych przez neuron.

  • Wynikiem modelu neuronowego jest jedna liczba X *. Oznacza to, że w modelu wektor wejściowy musi zostać przekształcony i zagregowany do postaci skalarnej. W przyszłości impuls ten zostanie przekazany do innych neuronów.

  • Wiadomo, że gdy odbierany jest impuls, zmienia go synapsa neuronu. Matematycznie ten proces zmiany można opisać następująco: dla każdego ze składowych wejścia Xi ustalana jest waga. Impuls przechodzący przez synapsę przybiera postać WiXi. Należy zauważyć, że wagi mogą być przypisywane podczas inicjalizacji modelu lub mogą być zmienne i mierzone podczas obliczeń. Wagi to wewnętrzne parametry sieci, które zostały omówione powyżej. Kiedy mówimy o treningu sieciowym, mamy na myśli znajdowanie wag synaps.

  • Dodanie odebranych impulsów. Agregacja odebranych impulsów to obliczenie ich sumy ∑WiXi.

Ryż. 2. Przykład sieci neuronowej z jedną warstwą ukrytą.

Zwykle neurony znajdują się w sieci na poziomach. Ilustracja przedstawia przykład trójwarstwowej sieci neuronowej:


  1. Na pierwszym poziomie znajdują się neurony wejściowe (zaznaczone na niebiesko), które odbierają dane z zewnątrz i przekazują impulsy do neuronów na kolejnym poziomie poprzez synapsy.

  2. Neurony na poziomie ukrytym (drugi, czerwony) przetwarzają odebrane impulsy i przekazują je do neuronów na poziomie wyjściowym (trzecim, zielonym).

  3. Nerony na poziomie wyjściowym tworzą ostateczną analizę i dane wyjściowe.
Oczywiście architektura sieci może być bardziej złożona, np. z dużą liczbą warstw ukrytych lub z różną liczbą neuronów. Modele sieci neuronowych są klasyfikowane według trzech głównych wymiarów:

  • Rodzaj połączenia między poziomami neuronów w sieci

  • Typ funkcji transferu;

  • Zastosowany algorytm uczenia sieci
Ponadto najważniejszym etapem jest trenowanie sieci neuronowej. Po przeszkoleniu sieci możemy założyć, że jest gotowa do użycia.

Ryż. 3. Proces uczenia się sieci neuronowej