Menu
Jest wolny
rejestracja
Dom  /  Oprogramowanie układowe/ Oznacza peer to peer. Technologie peer-to-peer — od Kopciuszka do księżniczki

Oznacza peer to peer. Technologie peer-to-peer — od Kopciuszka do księżniczki

Cel pracy: poznanie zasad funkcjonowania sieci P2P, analiza istniejących topologii sieci, algorytmów pracy, protokołów i programów klienckich, głównych możliwości oferowanych przez sieci P2P, identyfikacja zalet i wad.

Część teoretyczna:

1. Ogólny opis sieci P2P. Zasada działania. Opis istniejących topologii. Sfery zastosowania. Zalety i wady sieci P2P.

2. Wymiana plików, przetwarzanie rozproszone. Cechy budowania sieci P2P w zależności od dziedziny działalności, w której są wykorzystywane. Funkcjonujące algorytmy.

Oprogramowanie:

1. Przegląd popularnych protokołów wymiany plików. Analiza porównawcza.

2. Przegląd popularnych programów klienckich do wymiany plików. Analiza porównawcza.

Część praktyczna:

1. Instalacja i konfiguracja trackera bitTorrent.

Część teoretyczna

Sieci P2P

Technologie P2P obejmują technologie, które zapewniają komputerom w sieci równe możliwości wymiany różnych zasobów (w tym obliczeniowych). Klasyczna architektura to rodzaj sieci, w której wszystkie stacje robocze mają równe szanse i prawa. Aby rozwiązać ten problem, tworzone jest środowisko komputerowe peer-to-peer, które pozwala: poszczególne elementy sieci do interakcji bez pomocy serwerów. Każdy uczestniczący komputer wnosi swój wkład w postaci plików, miejsca na dysku, czasu procesora. " P2P to technologia budowy sieci rozproszonej, w której każdy węzeł może jednocześnie działać zarówno jako klient (odbiorca informacji), jak i serwer (dostawca informacji)”. Sieć P2P (z angielskiego peer-to-peer, zdecentralizowana lub peer-to-peer) składa się z peerów, z których każdy jest powiązany z podzbiorem węzłów sieci.

Informacje między węzłami w sieci, które są włączone ten moment nie mogą być bezpośrednio ze sobą połączone, są przesyłane na zasadzie podobnej do swego rodzaju wyścigu sztafetowego - od jednego węzła do drugiego, a przekazywanie informacji może nastąpić w wyniku ustanowienia tymczasowego bezpośredniego połączenia między węzłami. Wszystkie informacje o routingu i autoryzacji wiadomości przesyłanych z węzła do węzła są przechowywane na tych samych oddzielnych węzłach, a nie na pojedynczym serwerze dedykowanym. Taka organizacja, w przeciwieństwie do klient-serwer, pozwala na działanie sieci z dowolną liczbą węzłów i ich kombinacją.

Sieci „klient-serwer” i P2P.

Scentralizowana architektura klient-serwer oznacza, że ​​sieć opiera się na węzłach centralnych (serwerach), aby zapewnić niezbędne usługi terminalom (tj. klientom) podłączonym do sieci. W tej architekturze kluczową rolę odgrywają serwery, które definiują sieć niezależnie od obecności klientów. Oczywistym jest, że wzrost liczby klientów sieci „klient-serwer” prowadzi do wzrostu obciążenia po stronie serwera. Tym samym na pewnym poziomie rozwoju sieci może być przeciążona. Główną zaletą takiego systemu jest jego prostota. Jednak stabilność i niezawodność takich sieci jest znacznie niższa niż sieci peer-to-peer.

Systemy zdecentralizowane, „czyste sieci P2P”, takie jak sieć Gnutella, są dokładnym przeciwieństwem systemów scentralizowanych.

Topologia hybrydowa: zdecentralizowana + scentralizowana (częściowo zdecentralizowana) – w sieciach tego typu znajdują się serwery, których głównym zadaniem jest koordynacja pracy, wyszukiwanie i dostarczanie informacji o istniejących maszynach w sieci i ich stanie. Częściowo zdecentralizowane sieci łączą w sobie cechy sieci scentralizowanych i niezawodność zdecentralizowanych (np. sieć nie traci wydajności w przypadku problemów z jednym lub kilkoma serwerami). Przykładami hybrydowych sieci udostępniania plików są sieci EDonkey i BitTorrent.

Rys. 1 Topologia sieci

Zalety sieci peer-to-peer:

· Szybkość wymiany informacji;

· Odporność sieci na różne awarie, w tym odporność na zakłócenia nietechnologiczne;

  • rozciągliwość – prawie nieograniczone możliwości rozbudowy zasoby informacji systemy;

· Skalowalność.

Wady sieci peer-to-peer:

  • niekontrolowalność;
  • obawy dotyczące bezpieczeństwa;
  • niespójność informacji, nierzetelność informacji.

Standaryzacja P2P

P2P to nie tylko sieć, ale także protokół sieciowy, który umożliwia tworzenie i interakcję w sieci peer-to-peer. Wiele węzłów połączonych w ujednolicony system i współdziałając zgodnie z protokołem P2P, tworzą sieć peer-to-peer. Do implementacji protokołu P2P wykorzystywane są programy klienckie, które zapewniają funkcjonowanie zarówno poszczególnych węzłów, jak i całej sieci peer-to-peer.
P2P odnosi się do warstwy aplikacji protokołów sieciowych i jest siecią nakładkową, która wykorzystuje protokoły transportowe stosu TCP/IP - TCP lub UDP. Kilka podstawowych dokumentów w Internecie poświęconych jest protokołowi P2P - RFC (w szczególności ostatni pochodzi z 2008 r. - RFC 5128 State of Peer-to-Peer (P2P) Communication over Network Address Translators).
Obecnie przy wdrażaniu sieci peer-to-peer stosuje się różne metodologie i podejścia. W szczególności firma Microsoft opracowała protokoły Scribe i Pastry P2P. Dodano obsługę protokołu PNRP (Peer Name Resolution Protocol), również związanego z systemami P2P, do Windows Vista.
Jedna z udanych prób standaryzacji protokołów P2P została wykonana przez Sun Microsystems w ramach projektu Jxta. Projekt ten jest realizowany w celu ujednoliconego tworzenia sieci P2P dla różnych platform. Celem projektu Jxta jest opracowanie typowych rozwiązań infrastrukturalnych i sposobu ich wykorzystania do tworzenia aplikacji P2P do pracy w środowiskach heterogenicznych.
Projekt Jxta zidentyfikował sześć protokołów, z których można budować stosowane systemy:

Protokół wykrywania równorzędnego (PDP). Węzły używają tego protokołu do znajdowania wszystkich otwartych zasobów Jxta. PDP niskiego poziomu obsługuje podstawowe mechanizmy wyszukiwania. Każdy system aplikacji może zawierać własne mechanizmy wyszukiwania wysokiego poziomu, które są zaimplementowane w protokole PDP.

Protokół Peer Resolver (PRP). Protokół ten standaryzuje format żądań dostępu do zasobów i usług. Implementując ten protokół, można wysłać żądanie z węzła i otrzymać na nie odpowiedź.

Protokół informacji równorzędnej (PIP). Protokół ten jest używany do określenia stanu węzła w sieci Jxta. Węzeł odbierający komunikat PIP może wysłać pełną lub skróconą odpowiedź dotyczącą statusu albo zignorować komunikat.

Protokół członkostwa równorzędnego (PMP). Hosty używają tego protokołu do łączenia się i opuszczania grupy.

Protokół wiązania potoków (PBP). W Jxta węzeł uzyskuje dostęp do usługi przez potok. Za pomocą PBP węzeł może utworzyć nowy kanał dostępu do usługi lub pracować za pośrednictwem już istniejącego.

Protokół routingu punktu końcowego (ERP). Korzystając z tego protokołu, węzeł może przekazywać żądania do routerów innych węzłów w celu określenia tras podczas wysyłania wiadomości.

Obszary zastosowania

Najczęstsze obszary zastosowań technologii P2P to następujące obszary:

· Wymiana plików - tzw. sieci wymiany plików. Sieci wymiany plików P2P są alternatywą dla przestarzałych archiwów FTP, które nie pasują nowoczesne wymagania... Sieci udostępniania plików są omówione bardziej szczegółowo poniżej.

· Obliczenia rozproszone. Jeden z najbardziej obiecujących obszarów rozwoju, ponieważ Wykorzystanie technologii P2P pozwala na stosunkowo krótki czas rozwiązywanie takich problemów, których obliczenie na superkomputerach zajęłoby dziesiątki, jeśli nie setki lat. Ten obszar zastosowania technologii P2P został również bardziej szczegółowo opisany poniżej.

· Wymiana wiadomości . Jabbera, ICQ.

Telefonia P2P. Skype.

· Sieci pracy grupowej. Groove Network (bezpieczna przestrzeń komunikacyjna), OpenCola (pobieranie informacji i wymiana łączy).

· Programowanie równoległe.

· Utworzyć kopię zapasową dane.

· Telewizja P2P. Przykładem jest projekt P2P-Next, który rozwija telewizję peer-to-peer nadającą się do nadawania programów telewizyjnych.

Sieci udostępniania plików P2P.

Sieć udostępniania plików jest jedną z najpopularniejszych sieci P2P do udostępniania plików. Technologia P2P opiera się na zasadzie decentralizacji. Rozproszona koncepcja peer-to-peer jest alternatywą dla podejścia klient-serwer.

peer-to-peer, P2P (z angielskiego równy równy) - wariant architektury systemu, który opiera się na sieci peerów.

Sieci komputerowe typu peer-to-peer (lub P2P) opierają się na zasadzie równości uczestników i charakteryzują się tym, że ich elementy mogą się ze sobą komunikować, w przeciwieństwie do tradycyjnej architektury, gdy tylko pewna kategoria uczestników, które nazywane są serwerami, mogą świadczyć pewne usługi innym.

Wyrażenie „peer-to-peer” zostało po raz pierwszy użyte w 1984 roku przez Parbawella Yohnuhuitsmana do opracowania architektury IBM Advanced Peer to Peer Networking.

W czystej sieci peer-to-peer nie ma koncepcji klientów lub serwerów, tylko peery, które działają jednocześnie jako klienci i serwery w stosunku do innych węzłów w sieci. Ten model sieci różni się od architektury klient-serwer, w której komunikacja odbywa się tylko między klientami a serwerem centralnym.Taka organizacja pozwala na utrzymanie operacyjności sieci przy dowolnej konfiguracji jej dostępnych uczestników.Praktykuje się jednak stosowanie sieci P2P, które nadal mają serwery, ale ich rola nie jest już do świadczenia usług, ale do utrzymywania informacji o usługach przez klientów sieci...

W systemie P2P węzły autonomiczne współdziałają z innymi węzłami autonomicznymi. Węzły są autonomiczne w tym sensie, że nie ma ogólnej mocy, która mogłaby je kontrolować. W wyniku autonomii węzłów nie mogą sobie ufać i polegać na zachowaniu innych węzłów, więc kwestie skalowania i redundancji stają się ważniejsze niż w przypadku tradycyjnej architektury.

Nowoczesne sieci P2P rozwinęły się dzięki pomysłom związanym z wymianą informacji, które ukształtowały się w głównym nurcie tego, że każdy węzeł może dostarczać i odbierać zasoby dostarczane przez dowolnych innych uczestników. W przypadku sieci Napster była to wymiana muzyki, w innych przypadkach mogło to być zapewnienie czasu procesora na poszukiwanie obcych cywilizacji (SETI@home) lub lekarstwo na raka (Folding@home).

Historia

P2P nie jest nowy. Termin ten jest oczywiście nowym wynalazkiem, ale sama technologia istnieje od czasu pojawienia się USENET i FidoNet - dwóch bardzo udanych, całkowicie zdecentralizowanych sieci. Obliczenia rozproszone pojawiły się jeszcze wcześniej, ale te dwa przykłady wystarczą, aby pokazać erę P2P.

Urodzony w 1979 roku USENET jest siecią rozproszoną, która umożliwia komunikację w grupach dyskusyjnych. Na początku była to praca dwóch studentów, Toma Truscotta i Jima Ellisa. W tamtym czasie Internet, jaki znamy teraz, jeszcze nie istniał. Pliki były wymieniane przez linie telefoniczne, zwykle z dnia na dzień, bo było taniej. Więc nie było efektywny sposób scentralizować usługę taką jak USENET.

Kolejnym znaczącym sukcesem P2P był FidoNet. FidoNet, podobnie jak USENET, jest zdecentralizowaną, rozproszoną siecią przesyłania wiadomości. FidoNet został stworzony w 1984 roku przez Toma Jenningsa jako środek wymiany wiadomości między użytkownikami różnych BBS-ów. Był potrzebny, więc szybko się rozrósł i podobnie jak USENET istnieje do dziś.

Pierwsza generacja sieci P2P

Pierwsza generacja sieci peer-to-peer charakteryzuje się obecnością dedykowanych serwerów centralnych, które mogą obsługiwać np. bazy danych i koordynować wyszukiwanie. Jednak architektura takich sieci umożliwia komunikację i przekazywanie informacji bezpośrednio między dowolnymi jej uczestnikami.

Popularyzacja i obecna era peer-to-peer rozpoczęła się wraz z utworzeniem sieci Napster. W maju 1999 r. Napster umożliwił użytkownikom końcowym dystrybucję i udostępnianie ulubionej muzyki bezpośrednio innym użytkownikom końcowym. Sieć wykorzystywała serwer centralny, w szczególności do celów wyszukiwania. Napster miał 26,4 miliona użytkowników w lutym 2001 roku.

Niemal natychmiast Napster zaczął mieć problemy z prawem. Sieć miała dedykowany serwer centralny i, jak argumentowano, chociaż sam system nie narusza bezpośrednio prawa, to jego istnienie się do tego przyczynia. Obecnie pojawiło się wiele klonów Napstera. Większość była wynikiem analizy klienta i protokołu w celu zachowania zgodności, inni mieli ten sam pomysł, „tylko lepiej”. Wszystkie miały tę samą architekturę: jeden centralny serwer z duża ilość klientów. Centralny serwer ułatwiał komunikację i wyszukiwanie klientów. Po znalezieniu żądanego utworu serwer zapewnił bezpośrednie łącze między dwoma klientami, aby mogli przesyłać pliki.

Krótko po pojawieniu się Napstera powstała sieć EDonkey2000. Kluczową przewagą eDonkey nad Napsterem było to, że sieć umożliwiała pobieranie różnych części tego samego pliku jednocześnie od różnych uczestników sieci, którzy go dostarczają. Kolejną zaletą eDonkey było to, że oprogramowanie serwera otrzymało następnie funkcjonalność komunikacji po stronie serwera, co umożliwiło wyszukiwanie informacji o uczestnikach sieci podłączonych do różnych serwerów. Pomimo wymienionych zalet, dzięki wykorzystaniu serwerów, sieć ta nie była czystą siecią peer-to-peer.

Sieci P2P drugiej generacji

Druga generacja sieci peer-to-peer charakteryzuje się brakiem serwerów centralnych, a jednocześnie podstawową zdolnością wyszukiwania wśród uczestników sieci. Jednak algorytmy wyszukiwania w sieciach drugiej generacji miały charakter „falowego” rozkładu zapytań i nie były zbyt wydajne.

Justin Frankel zdecydował się stworzyć sieć bez centralnego serwera indeksującego, czego efektem była Gnutella. Pomysł Gnutelli dotyczący równości wszystkich węzłów szybko umarł z powodu posiadania wąskie gardła jak sieć wyrosła z poprzednich użytkowników Napstera. FastTrack rozwiązał ten problem dzięki temu, że niektóre węzły są gładsze niż inne. Wybierając niektóre potężne węzły do ​​indeksowania węzłów o mniejszej pojemności, FastTrack umożliwił stworzenie sieci, która może być skalowana do znacznie większych rozmiarów. Gnutella szybko przyjęła ten model, a większość obecnych sieci ma ten projekt, ponieważ pozwala na budowanie dużych i wydajnych sieci bez serwerów centralnych.

Najlepszymi przykładami są Gnutella, Kazaa czy Emule z Kademlia, z których tylko Kazaa ma nadal centralny serwer rejestracji. eDonkey2000 / Overnet, Gnutella, FastTrack i Ares Galaxy mają około 10,3 miliona użytkowników (stan na kwiecień 2006, według slyck.com).

Sieci P2P trzeciej generacji

Trzecia generacja sieci P2P charakteryzuje się zdecentralizowaną strukturą i całkowicie nowymi algorytmami wyszukiwania opartymi na kluczowej koncepcji rozproszonej tablicy mieszającej, która jest obsługiwana przez uczestników sieci.

Rozproszone tablice skrótów (DHT) pomagają rozwiązać problem skalowania, wybierając różne węzły do ​​indeksowania określonych wartości skrótów (służących do identyfikacji plików), umożliwiając szybkie i wydajne przeszukiwanie dowolnego pliku w sieci.

Począwszy od wersji 4.2.0 oficjalnego klienta BitTorrent, implementuje funkcję pracy bez śledzenia w oparciu o protokół Kademlia. W takich systemach tracker dostępny jest w sposób zdecentralizowany, u klientów uczestniczących w sieci, w postaci rozproszonej tablicy haszującej.

Anonimowe sieci peer-to-peer

Przykładami anonimowych sieci są Freenet, I2P, ANts P2P, RShare, GNUnet i Entropy. Przykładem zdecentralizowanej sieci jest również anonimowy system cyfrowej waluty Bitcoin.

Pewien stopień anonimowości uzyskuje się poprzez routing danych przez inne węzły. Utrudnia to określenie, kto pobiera lub kto oferuje pliki. Większość z tych programów ma również wbudowane szyfrowanie.

Obecne wdrożenia tego typu sieci wymagają dużej ilości zasobów, aby zapewnić anonimowość, co powoduje, że ich użytkowanie jest powolne lub trudne. Jednak w krajach o bardzo szybkim dostępie do Internetu w domu, takich jak Japonia, dużą popularność zyskały już liczne anonimowe sieci wymiany plików.

Korzyści P2P

Alokacja / redukcja wartości. Scentralizowane systemy, które obsługują wielu klientów, zwykle stanowią większość kosztów systemu. Gdy ten koszt staje się zbyt wysoki, architektura P2P może pomóc w rozłożeniu kosztów między użytkowników. Na przykład pośród systemów udostępniania plików Napster pozwolił na rozłożenie kosztów przechowywania plików i mógł utrzymywać indeks wymagany do udostępniania. Oszczędności są realizowane poprzez wykorzystanie i łączenie zasobów, które nie są w inny sposób wykorzystywane (np. SETI@home). Ponieważ węzły są zwykle samowystarczalne, ważne jest sprawiedliwe rozłożenie kosztów.

Łączenie zasobów. Podejście zdecentralizowane prowadzi do łączenia zasobów. Każdy węzeł w systemie P2P zapewnia na przykład określone zasoby moc obliczeniowa lub pamięć. W programach wymagających duża ilość te zasoby, na przykład intensywne modelowanie lub rozproszone systemy plików naturalne jest wykorzystanie P2P do przyciągnięcia tych zasobów. Systemy przetwarzania rozproszonego, takie jak SETI @ Home, rozproszone.net i Endeavours są oczywistymi przykładami tego podejścia. Łącząc zasoby tysięcy węzłów, mogą wykonywać ciężkie obliczeniowo funkcje. Systemy Filebminni, takie jak Napster, Gnutella itp., również łączą zasoby. W takich przypadkach jest to miejsce na dysku do przechowywania danych i przepustowość do ich przesyłania.

Poprawiona skalowalność/niezawodność. Bez silnej władzy centralnej nad węzłami autonomicznymi poprawa skalowalności i niezawodności jest ważnym celem. Skalowalność i niezawodność są zdefiniowane w tradycyjnym systemy rozproszone sens, np. wykorzystanie przepustowości - ile węzłów można osiągnąć z jednego węzła, ile węzłów może być obsługiwanych, ilu użytkowników może być obsługiwanych. Rozproszona natura sieci peer-to-peer zwiększa również łaskę awarii poprzez duplikację danych z wielu węzłów oraz - w czystych systemach P2P - pozwalając węzłowi na znalezienie danych niezależnie od pojedynczego scentralizowanego serwera indeksu. W tym drugim przypadku w systemie nie ma jednego punktu krytycznego.

Zwiększona autonomia. W wielu przypadkach użytkownicy systemów rozproszonych nie chcą polegać na żadnym scentralizowanym dostawcy usług. Zamiast tego wolą, aby wszystkie dane i prace do tego przeznaczone były wykonywane lokalnie. Systemy P2P zachowują ten poziom autonomii, ponieważ wymagają, aby każdy węzeł wykonał niezbędną część pracy.

Anonimowość / poufność. Z autonomią wiąże się pojęcie anonimowości i poufności. Użytkownik może nie chcieć, aby ktokolwiek lub jakikolwiek dostawca usług wiedział o nim lub jego roli w systemie. W przypadku serwera centralnego trudno jest zagwarantować anonimowość, ponieważ serwer zazwyczaj będzie w stanie zidentyfikować klienta, przynajmniej poprzez jego adres internetowy. Korzystając ze struktury P2P, w której działania są wykonywane lokalnie, użytkownicy mogą uniknąć konieczności przekazywania jakichkolwiek informacji o sobie komuś innemu. FreeNet - żywy przykład jak anonimowość można wbudować w aplikację P2P. Przekazuje wiadomości przez inne węzły, aby uniemożliwić wyśledzenie oryginalnego autora. Zwiększa to anonimowość dzięki wykorzystaniu algorytmów probabilistycznych w taki sposób, że pochodzenie nie może być łatwo wyśledzone poprzez analizę ruchu w sieci.

Dynamizm. Systemy P2P zakładają, że środowisko jest niezwykle dynamiczne. Oznacza to, że zasoby, takie jak węzły, pojawiają się i znikają z systemu w sposób ciągły. W przypadkach komunikacji, takich jak sieci wiadomości, tak zwana „lista kontaktów” jest używana do informowania użytkowników, kiedy ich znajomi są dostępni. Bez tego użytkownicy musieliby „odpytywać” partnerów, wysyłając okresowe wiadomości. W przypadku przetwarzania rozproszonego, takiego jak rozproszony.net i SETI@home, system musi uwzględniać zamienniki. Dlatego muszą ponownie przekazać zadania obliczeniowe innym uczestnikom, aby zapewnić, że żadna praca nie zostanie utracona, jeśli poprzedni uczestnicy spadną z sieci podczas wykonywania kroku obliczeniowego.

Klasyfikacja systemów P2P

Według funkcji:

Obliczenia rozproszone. Problem obliczeniowy jest podzielony na małe niezależne części. Przetwarzanie każdej części odbywa się na indywidualnym komputerze, a wyniki są gromadzone na centralnym serwerze. Ten centralny serwer jest odpowiedzialny za dystrybucję elementów pracy do poszczególnych komputerów w Internecie. Każdy z zarejestrowanych użytkowników ma klienta oprogramowanie... Wykorzystuje okresy nieaktywności komputera (często charakteryzujące się czasami aktywacji wygaszaczy ekranu) do wykonywania niektórych obliczeń dostarczanych przez serwer. Po zakończeniu obliczeń wynik jest odsyłany z powrotem na serwer, a nowa praca jest przesyłana do klienta.

Udostępnianie plików. Przechowywanie i udostępnianie danych to jeden z obszarów, w którym technologia P2P odniosła sukces. Na przykład dane multimedialne wymagają duże pliki... Napster i Gnutella są wykorzystywane przez użytkowników do omijania ograniczeń przepustowości, które uniemożliwiają przesyłanie dużych plików.

Współpraca. Charakter technologii P2P sprawia, że ​​doskonale nadaje się do współpracy między użytkownikami. To może być wiadomość, Gry online współpraca przy dokumentach w biznesie, edukacji i domu. Na notatce: Darmowe gry online Scooby Doo.

Według stopnia centralizacji:

Czyste systemy peer-to-peer. Węzły są równe, łącząc role serwera i klienta. Nie ma centralnego serwera obsługującego sieć. Przykładami takich systemów są Gnutella i Freenet.

Hybrydowe systemy peer-to-peer. Mieć centralny serwer, który przechowuje informacje o węzłach i odpowiada na prośby o te informacje. Węzły zajmują się udostępnianiem zasobów (ponieważ serwer centralny ich nie posiada), informując serwer o dostępności tych zasobów, inne węzły chcą z nich korzystać.

W zależności od tego, jak węzły łączą się ze sobą, sieci można podzielić na strukturalne i niestrukturalne:

Nieustrukturyzowana sieć P2P powstaje, gdy połączenia są ustanawiane losowo. Takie sieci można łatwo zbudować, ponieważ nowy węzeł, który chce dołączyć do sieci, może skopiować istniejące połączenia innego węzła, a następnie zacząć tworzyć własne. W nieustrukturyzowanej sieci P2P, jeśli węzeł chce znaleźć określone dane w sieci, żądanie będzie musiało przejść przez prawie całą sieć, aby dotrzeć do jak największej liczby węzłów. Główną wadą takich sieci jest to, że żądania nie zawsze mogą zostać rozwiązane. Najprawdopodobniej popularne dane będą dostępne w wielu witrynach i wyszukiwanie szybko uzna je za konieczne, ale jeśli witryna szuka rzadkich danych dostępnych tylko w kilku innych witrynach, jest bardzo mało prawdopodobne, że wyszukiwanie zakończy się sukcesem. Ponieważ nie ma korelacji między węzłami a przechowywanymi przez nie danymi, nie ma gwarancji, że zapytanie znajdzie węzeł, który zawiera żądane dane.

Sieć strukturalna P2P wykorzystuje pojedynczy algorytm, aby zapewnić, że każdy węzeł może skutecznie przekazać żądanie do innego węzła, który ma żądany plik, nawet jeśli plik jest najrzadszy. Taka gwarancja wymaga zorganizowanego systemu połączeń. Obecnie najpopularniejszym typem sieci strukturalnej P2P są rozproszone tablice haszujące, w których haszowanie służy do ustanowienia połączenia między danymi a określonym węzłem, który za to odpowiada.

Praca z poszczególnymi kamerami i całymi systemami monitoringu wideo za pośrednictwem Internetu zyskała dużą popularność ze względu na szereg funkcji analitycznych oraz dostęp online do urządzeń.

Z reguły większość technologii, które są do tego wykorzystywane, wymaga przypisania drogiego białego adresu IP do kamery lub DVR, złożonej procedury konfiguracyjnej z wykorzystaniem usług UPnPct i DDNS. Alternatywą do tego jest wykorzystanie technologii P2P.

P2P (peer-to-peer) to protokół komunikacji peer-to-peer, który bardziej się różni efektywne wykorzystanie przepustowość kanału transmisji sygnału i wysokie współczynniki odporności.

Po raz pierwszy termin peer-to-peer (Advanced Peer to Peer Networking) - rozszerzone sieci peer-to-peer został użyty przez IBM w sieciach o klasycznej architekturze peer-to-peer i stacjach roboczych peer-to-peer . Był używany w dynamicznym procesie routingu bez użycia serwera, gdzie każdy komputer służył zarówno jako klient, jak i serwer. Teraz bardziej darmowa wersja tłumaczenia skrótu brzmi jak „równy równy”.

Głównym obszarem zastosowania jest zdalny nadzór wideo różnych obiektów, np.:

  • otwarty magazyn lub plac budowy;
  • sklep lub zakład produkcyjny;
  • osobista działka lub domek.

Kamery CCTV z technologią transmisji obrazu P2P znajdują zastosowanie głównie w domowych małych i średnich prywatnych systemach dozoru wizyjnego, pełniąc niektóre funkcje systemów bezpieczeństwa i alarmowych.

Identyfikacja kamery w Internecie odbywa się za pomocą unikalnego kodu ID, który jest przypisywany urządzeniu przez producenta. Wyszukiwanie i użytkowanie odbywa się za pomocą specjalnego oprogramowania i usług w chmurze.

ZALETY NADZORU WIDEO P2P

Łatwy w konfiguracji sprzęt sieciowy- główna przewaga technologii P2P nad innymi metodami transmisji sygnału. W rzeczywistości bez głębokiej wiedzy o protokoły sieciowe, procedury połączenia i konfiguracji, każdy użytkownik z podstawowymi umiejętnościami korzystania z Internetu może samodzielnie organizować zdalny nadzór wideo.

Nie ma powiązania ze statycznym adresem IP. Uzyskanie i utrzymanie statycznego adresu IP może być problemem dla przeciętnego użytkownika. Większość dostawców świadczy usługi połączeń internetowych w oparciu o dynamicznie zmieniające się adresy IP z określonej tablicy.

Za każdym razem, gdy użytkownik loguje się do sieci, adres ten może się zmienić dla użytkownika, co będzie wymagało systematycznego dostosowywania kamer systemu monitoringu wideo. Dostawca zapewnia płatny biały statyczny adres IP, a ta usługa nie jest tania.

Nie ma zależności od odległości. Transmisja wideo może odbywać się w dowolnym miejscu na świecie, gdzie istnieje sieć internetowa. Jakość obrazu zależy tylko od szerokości kanału i stabilnej pracy połączenia.

Możliwość użycia różne urządzenia obejrzeć film. Do monitorowania monitoringu można wykorzystać zarówno stacjonarny komputer stacjonarny lub laptop, jak i urządzenia mobilne: tablety, smartfony.

Przystępny koszt. Cena kamer CCTV wykorzystujących technologię P2P nie odbiega znacząco od ceny konwencjonalnych kamer IP o porównywalnych parametrach technicznych i eksploatacyjnych.

KAMERY CCTV P2P

Poniżej znajdują się główni producenci kamer P2P i niektóre z ich modeli.

Sokole oko- firma produkująca sprzęt do monitoringu wizyjnego i systemów bezpieczeństwa. Specjalizuje się w systemy bezprzewodowe Alarmy bezpieczeństwa GSM. Od 2005 roku posiada oficjalne przedstawicielstwo w Rosji. wszystkie produkty producenta sprzedawane w naszym kraju są certyfikowane i przystosowane do pracy w trudnych warunkach atmosferycznych. Zgodny z międzynarodową normą ISO - 90001.

Oferta kamer do monitoringu wideo P2P obejmuje:

  • Falcon Eye FE-MTR 1300;
  • Falcon Eye FE-MTR 300 P2P;
  • Falcon Eye FE-ITR 1300.

Wszystkie kamery zapewniają obraz w wysoka rozdzielczość 1280x720, może pracować przy oświetleniu 0,1 luksa i mieć interfejs transmisji sygnału LAN i Wi-Fi (tylko Falcon Eye FE-ITR 1300 Lan). Dodatkowo są wyposażone w czujnik ruchu i mogą aktywować proces nagrywania wideo alarmowego.

Nagrywanie może odbywać się na magnetowidach, w serwisie w chmurze lub na karcie pamięci. Obecność mikrofonu i głośnika zamienia kamerę w interaktywne urządzenie do dwukierunkowych rozmów.

Foscam- firma powstała w 2002 roku. Specjalizuje się w produkcji urządzeń i kamer IP do monitoringu GSM. Produkty zostały certyfikowane zgodnie z międzynarodową normą ISO 9001 oraz krajowym GOST. Urządzenia wyposażone są w czujnik ruchu, gniazda kart pamięci oraz interfejs RJ 45 (połączenie sieciowe typu skrętka).

Najpopularniejsze modele:

  • Foscam FI9821P;
  • Foscam FI9853EP;
  • Foscam FI9803EP.

Zodiak- firma oferuje urządzenia do domowych i profesjonalnych systemów monitoringu wizyjnego. Wszystkie kamery P2P są wyposażone w system oświetlenia podczerwienią, który umożliwia filmowanie w nocy.

Popularne modele na rynku:

  • Zodiak 909W;
  • Zodiak 911;
  • Zodiac 808 wykonany jest w wersji ulicznej w obudowie IP65.

KONFIGURACJA NADZORU P2P

Konfiguracja kamery wideo P2P zajmuje nie więcej niż 5 minut i nie wymaga głębokiej znajomości protokołów komunikacyjnych ani skomplikowanych ustawień programu. Niezależnie od używanej kamery lub wybranej usługi w chmurze, algorytm konfiguracji wygląda następująco:

1. Ze strony wybranej usługi w chmurze pobierane i instalowane jest oprogramowanie zgodne z systemem operacyjnym urządzenia do przeglądania.

2. Kamera jest zainstalowana, zasilanie jest do niej dostarczane.

3. Kamera jest podłączona do Internetu przez lokalną sieć przewodową lub przez środki bezprzewodowe przesyłanie informacji - WiFi, GSM itp.

4. Wcześniej zainstalowane oprogramowanie jest uruchamiane na urządzeniu w celu przeglądania. Kod ID wpisuje się w specjalnym polu wyszukiwania. Można go znaleźć na korpusie aparatu lub w dokumentacji technicznej. Większość modeli posiada również na obudowie kod QR, który można zeskanować za pomocą smartfona lub tabletu.

5. Aby uzyskać dostęp do kamery, należy wprowadzić standardowe hasło, które należy później zmienić. Każdy producent lub model ma swój własny, jest wskazany na pudełku lub w paszporcie urządzenia.

System nadzoru wideo P2P można zainstalować bez użycia kamer ze zintegrowaną technologią P2P. Wystarczy w systemy konwencjonalne CCTV używa rejestratora z tą funkcją. Następnie podczas konfiguracji należy określić ID rejestratora, a poprzez jego interfejs można uzyskać dostęp do kamer.

Algorytm konfiguracji DVR nie różni się od konfiguracji kamery. Przykładem takiego urządzenia jest hybrydowy rejestrator wideo SPYMAX RL-2508H Light.

USŁUGI W CHMURZE WSPIERAJĄCE TECHNOLOGIĘ P2P

Usługa P2P w chmurze to zbiór serwerów, które zapewniają dostęp do urządzeń obsługujących odpowiednią funkcję. Takich zasobów jest wiele. Są dwojakiego rodzaju. Usługi opracowane przez firmy produkujące sprzęt.

Z reguły obsługiwane jest tylko działanie kamer P2P firmy deweloperskiej. Oraz usługi uniwersalne opracowane przez strony trzecie, które są kompatybilne z większością urządzeń korzystających z P2P.

Na przykład usługi Proto-X i RVi są akceptowane tylko przez kamery i rejestratory wideo odpowiednich programistów. Presety dla szybki montaż zarejestrowane w fabryce podczas produkcji.

Uniwersalna usługa P2P w chmurze - Easy4ip jest kompatybilny z najpopularniejszymi kamerami.

Aby pracować z kamerami P2P, potrzebujesz oprogramowania zainstalowanego na urządzeniu do oglądania:

  • PSS dla system operacyjny Windows i iOS;
  • iDMSS dla urządzeń mobilnych Apple;
  • gDMSS dla urządzeń z systemem Android.

Wykorzystanie kamer z technologią P2P sprawia, że ​​jest to możliwe szybka instalacja oraz stworzenie skutecznego systemu nadzoru wideo bez angażowania drogich specjalistów. Różny usługi w chmurze zapewnić użytkownikowi szeroki funkcjonalność, podobne do tych stosowanych w złożonych stacjonarnych systemach monitoringu wizyjnego.

© 2010-2019 Wszelkie prawa zastrzeżone.
Materiały prezentowane na stronie służą wyłącznie celom informacyjnym i nie mogą być wykorzystywane jako dokumenty przewodnie

Odejdźmy od zakazów w różnych krajach, nie myślmy, że P2P jest mechanizmem blokującym obejście.

Proponuję alternatywną opinię na temat P2P - jakie problemy przyszłości i teraźniejszości może rozwiązać ta architektura sieci informacyjnych.

Czym jest prawdziwe P2P?

Przedstawmy koncepcję - prawdziwe P2P.

Prawdziwe P2P to peer-to-peer sieć, w której absolutnie wszystkie węzły sieci wykonują te same funkcje lub mogą automatycznie zmieniać swój zestaw funkcji w zależności od warunków otoczenia.

Zmiana funkcji to nic innego jak dostarczenie tych funkcji, które mogą nie działać w niektórych węzłach sieci peer-to-peer z powodu ograniczeń:
1) Za NAT
2) Urządzenia mobilne

Obie klasy urządzeń albo nie mogą mieć bezpośredniego dostępu do sieci (NAT), albo mogą, ale jest to zdecydowanie odradzane - (Urządzenia mobilne) ze względu na zwiększone zużycie energii przy ogromnej liczbie połączeń.

Aby wyeliminować ten problem, wykorzystywane są technologie takie jak TCP Relay (ponieważ większość systemów P2P korzysta z UDP, przy ogromnej liczbie jednoczesnych połączeń możesz wybrać dla siebie węzeł, który będzie wykonywał funkcje odbierania żądań z sieci przez UDP i wysyłania do urządzenia końcowego przez TCP przez to samo połączenie ) Przypominam, że podobny mechanizm był już zaimplementowany w Skype bardzo długo, zanim został wykupiony przez MS, te funkcje działały, później - koncepcja " super węzły” w Skype zniknęły i zostały zastąpione przez serwery MS.

Bardzo ważne jest, aby nie pomylić sieci P2P i Mesh. P2P to interakcja peer-to-peer w warstwie 3 i wyższej, zgodnie z modelem OSI, Mesh - odpowiednio w warstwie 3 i niższej.

Jakie problemy rozwiązują sieci P2P i jakie technologie odejdą wraz z powszechnym przyjęciem P2P?

Buforowanie
W chwili obecnej niektórzy dostawcy i prawie wszyscy operatorzy komórkowy ruch w pamięci podręcznej. W ten sposób oszczędzane są zasoby i łącza uplink, aby nie kierować tego samego ruchu przez szkielety.

Ale po co nam buforowanie, jeśli zawartość, która dostała się do sieci operatora, prawdopodobnie zostanie zażądana z sieci operatora, gdy zostanie ponownie zażądana?
Jednocześnie w ogóle nie ma potrzeby budowania nowej infrastruktury.

CDN
System dostarczania treści służy głównie do dostarczania „ciężkich” treści, muzyki, wideo, gier (parowych), w celu zmniejszenia obciążenia serwera głównego i skrócenia czasu odpowiedzi - w różne kraje i/lub regiony są ustalane przez serwery CDN, które pełnią funkcję równoważenia obciążenia.

Dane serwerowe trzeba obsłużyć, poświęcając roboczogodzinę na ich konfigurację i nie będą w stanie dynamicznie zwiększać swoich wydajność lub powiedzmy:
W Niżnym Nowogrodzie od zawsze popularna była usługa Giwi.get, która umożliwia oglądanie legalnych treści on-line, serwer CDN w regionie może jednocześnie zapewnić możliwość oglądania filmów i seriali tylko dla 100 000 użytkowników. Ale nagle pojawia się usługa Nowa treść(serial telewizyjny) Według prognoz, które powstały na podstawie badań, serial ten nie powinien mieć zainteresowanych osób z tego regionu.

Ale z jakiegoś powodu był zainteresowany i wszyscy postanowili go obejrzeć - oczywiście CDN sobie nie poradzi, w najlepszym razie treść będzie w stanie przetworzyć sąsiedni CDN, ale nie fakt, że sąsiedni CDN jest gotowy na takie Załaduj.

Brak kanałów komunikacji
Dostawcy ostatniej mili są gotowi dostarczyć kanały 1 Gigabit/s i nawet sieć w mieście będzie w stanie takie obciążenie pompować, ale pech jest główny kanał z miasta, który nie jest przeznaczony do takiego obciążenie, a ekspansja kanału to miliony (zastąp wybraną walutę).

Naturalnie, dany problem Ponownie decydują usługi P2P, wystarczy, że w mieście jest co najmniej 1 źródło treści (wstępnie pobierane przez autostradę) - każdy będzie miał dostęp do treści z maksymalną prędkością lokalna sieć (intracytowość)

Wzmocnienie dystrybucji Internetu
W dzisiejszym świecie Uplink to wszystko, w miastach istnieją punkty wymiany ruchu, ale dostawca woli kupić kilka gigabitów więcej w sieci szkieletowej niż rozszerzać kanały do ​​punktu wymiany ruchu lub łączyć się z sąsiednimi dostawcami.
Zmniejszenie obciążenia uplinków
Przy korzystaniu z P2P jest całkiem logiczne, że dla dostawcy ważniejsze będzie posiadanie szerszych kanałów wewnętrznych niż zewnętrznych i po co płacić za drogi uplink, jeśli wymagane treści najprawdopodobniej znajdą się w sieci sąsiedniego dostawca.

Nawiasem mówiąc, dostawcy również będą zadowoleni, nawet teraz dostawca zapewnia takie taryfy, że jego uplink nie jest równy całkowitej liczbie wszystkich użytkowników.
Innymi słowy, jeśli wszyscy użytkownicy zaczną korzystać ze swojej taryfy na 100%, uplink dostawcy zakończy się bardzo szybko.

Oczywiście rozwiązania P2P umożliwiają dostawcy usług internetowych stwierdzenie, że dają dostęp do: sieć przy prędkości co najmniej 1 TB\s treści w sieci bardzo rzadko są unikalne, dostawca (który ma kolczykowanie z sąsiadami od dostawców z miasta) najprawdopodobniej będzie w stanie zapewnić dostęp do treści z prędkością taryfową.

Brak dodatkowych serwerów w sieci
Teraz sieć dostawcy zwykle ma takie serwery, jak: Google CDN (/ Youtube), Yandex CDN / peering, DPI, + inne specyficzne serwery CDN / buforowanie, które są używane w tym regionie.

Oczywiście możliwe jest wyeliminowanie wszystkich serwerów CDN i niepotrzebnego peeringu (z usługami, nie z dostawcami), DPI w takiej sytuacji również nie będzie potrzebne, ponieważ nie będzie tak nagłych skoków obciążenia w godzinach CNN. Czemu?

CHNN – Zapomnij o tym akronimie
CHNN - Godzina największego obciążenia, tradycyjnie są to godziny poranne i wieczorne, a kilka szczytów CHNN jest zawsze zauważalnych, w zależności od rodzaju zatrudnienia osób:

Szczyty wieczoru CHNN:
1) Powrót uczniów ze szkoły
2) Powrót studentów z uczelni
3) Powrót pracowników, którzy pracują według harmonogramu 5/2

Możesz zobaczyć te szczyty na dowolnym sprzęcie, który analizuje obciążenie sieci na kanale.

P2P rozwiązuje również ten problem, ponieważ istnieje duże prawdopodobieństwo, że treści interesujące dla uczniów mogą zainteresować zarówno uczniów, jak i pracowników - w związku z tym istnieje już w sieci dostawcy - w związku z tym na autostradzie nie będzie CHNN .

Daleka przyszłość

Wysyłamy nasz statek kosmiczny na Księżyc i na Marsa, od dawna istnieje połączenie internetowe z ISS.

Oczywiste jest, że w dalszy rozwój technologie umożliwią wykonywanie lotów w kosmos i długi pobyt osoby na innych planetach.

One też muszą być połączone w wspólna sieć, jeśli weźmiemy pod uwagę klasyczny system Client-Server, a serwery znajdują się na ziemi, a klienci, powiedzmy, na Marsie - Ping zabije każdą interakcję.

A jeśli założymy, że nasza kolonia będzie rosła na innej planecie, to podobnie jak na ziemi będą korzystać z internetu, jasne jest, że będą potrzebować tych samych narzędzi co my:
1) Posłaniec
2) Sieci społecznościowe
A to jest minimalna wymagana liczba usług, które pozwalają na wymianę informacji.

Logiczne jest, że treści, które będą generowane na Marsie, będą interesujące i popularne na Marsie, a nie na Ziemi, a co z sieciami społecznościowymi?
Zainstalować serwery, które będą działać autonomicznie i po chwili zsynchronizować się z ziemią?

Sieci P2P też rozwiązują ten problem – na Marsie źródło treści ma własnych subskrybentów, na ziemi – własne, ale sieć społecznościowa jest taka sama, ale jeśli mieszkaniec Marsa ma subskrybenta z ziemi, nie ma problemu, jeśli istnieje kanał, zawartość poleci na inną planetę.

Należy pamiętać, że nie będzie desynchronizacji, która może mieć miejsce w tradycyjnych sieciach, nie ma potrzeby instalowania dodatkowych serwerów. tam a nawet dostosować coś. System P2P zadba o zachowanie aktualności samej treści.

Przerwa w kanale

Wróćmy do naszego eksperymentu myślowego – ludzie żyją na Marsie, ludzie na ziemi – wszyscy wymieniają się treściami, ale w pewnym momencie dochodzi do katastrofy i związek między planetami znika.

Dzięki tradycyjnym systemom klient-serwer możemy uzyskać całkowicie niedziałającą sieć społecznościową lub inną usługę.
Pamiętaj, że każda usługa posiada centrum autoryzacji. Kto dokona autoryzacji, gdy kanał nie będzie działać?
A marsjańscy nastolatkowie również chcą publikować zdjęcia swoich marsjańskich potraw na MarsaGram.

Sieci P2P, gdy kanał jest zepsuty, łatwo przełączyć się na tryb offline- w którym będzie istnieć całkowicie autonomicznie i bez interakcji.
A gdy tylko pojawi się połączenie, wszystkie usługi są automatycznie synchronizowane.

Ale Mars jest daleko, nawet na ziemi mogą być problemy z przerwaniem kanału komunikacyjnego.

Pomyśl o najnowszych głośnych projektach Google / Facebook obejmujących nowe terytoria z Internetem.
Niektóre części naszej planety nadal nie są podłączone do sieci. Połączenie może być zbyt drogie lub nieopłacalne ekonomicznie.

Jeśli w takich regionach założysz własną sieć (intranet), a następnie podłączysz ją do globalnej bardzo wąskim kanałem - satelitą, to rozwiązania P2P pozwalają na początkowym etapie wykorzystać wszystkie funkcje jak w przypadku globalna łączność sieciowa. A później - jak powiedzieliśmy powyżej - pozwala pompować całą niezbędną treść przez wąski kanał.

Przetrwanie sieci

Jeśli polegamy na scentralizowanej infrastrukturze, mamy bardzo konkretną liczbę punktów awarii, tak, są też kopie zapasowe i zapasowe centra danych, ale musisz zrozumieć, że jeśli główny DC zostanie uszkodzony z powodu żywiołów, dostęp do treści zostanie znacznie spowolniony, jeśli w ogóle nie zostanie zatrzymany.

Przypominamy sobie sytuację z Marsem, wszystkie urządzenia przybywają na Marsa z ziemi i pewnego pięknego dnia zepsuł się serwer firmy Uandex lub LCQ – przepalił się kontroler RAID lub inna awaria – i wszyscy Marsjanie, znowu bez MarsiGrama, a nawet gorzej - nie będę mógł wymieniać prostych wiadomości ze znajomym. Nowy serwer lub jego komponenty nie pojawią się wkrótce z ziemi.

Przy rozwiązaniu P2P awaria jednego uczestnika sieci w żaden sposób nie wpływa na działanie sieci.

I - nie wyobrażam sobie przyszłości, w której nasze systemy pozostaną klientem-serwerem, wygeneruje to ogromną ilość niepotrzebnych kul w infrastrukturze, skomplikuje wsparcie, doda punkty awarii, nie pozwoli na skalowanie wtedy, gdy jest to potrzebne, podejmie ogromny wysiłek, jeśli chcemy, aby rozwiązania serwerowe naszych klientów działały nie tylko na naszej planecie.

Tak więc przyszłość to zdecydowanie P2P, jak zmienił się świat P2P można zobaczyć teraz:
Skype - mała firma nie wydawała pieniędzy na serwery i była w stanie urosnąć do wielkiego giganta
Bittorrent - Projekty OpenSource mogą przesyłać pliki bez przeciążania swoich serwerów

To tylko dwaj wybitni przedstawiciele rewolucji informacyjnej. Na drodze jest wiele innych programów, które zmienią świat.

A kiedy siedzimy tutaj i zastanawiamy się, gdzie umieścić naszą reklamę, w Palo Alto dzieje się coś dziwnego. Tam pracownicy małego sklepu Hassett Ace Hardware, sprzedającego sprzęt AGD, pokazują, jak starożytna mądrość, że „ludzie nie są stworzeni do gromadzenia, ale do wymiany”, może stać się życiem.

Nazywa się to „Naprawą kawiarni”. W każdy weekend obok sklepu otwiera się platforma, na której każdy może naprawić wszystko za darmo. Ale jednocześnie będzie musiał przyczynić się do tego, co dzieje się na tej stronie. Podczas gdy kierownik sklepu zajmuje się regularną sprzedażą, pięciu innych pracowników organizuje tłumy ludzi, którzy chcą „naprawiać” ludzi, przyciągając ich do innych napraw.

Wszyscy dzielą się wiedzą, radą i dobrym nastrojem. Sprzedaż idzie w górę (do napraw często potrzebujesz części, które musisz kupić w sklepie). W kwietniu dzielnica naprawiła około 130 „elementów wyposażenia”, w tym gigantyczną ogrodową fontannę lawy i 200-letnią maszynę do szycia. Każdy, kto odnawia w Hassett Ace Hardware, otrzymuje flagę rowerową z logo firmy. I chętnie to przyjmują, bo świetna obsługa to cholernie przyjemna i niezapomniana rzecz.

Ta ekonomia, w której wszyscy wygrywają, została nazwana peer-to-peer w marżach marketingowych. Jest zbudowana nie tylko na pieniądzach, ale także na wysokim stopniu satysfakcji emocjonalnej, a w przypadku małych sklepów, takich jak Hassett Ace Hardware, także na budowaniu niemal intymnej relacji z klientem. Plotka głosi, że giganci, tacy jak Pepsi, Chevrolet i Unilever, już wąchają technologię.

„Nauczyliśmy się ciekawej rzeczy: młodzi nabywcy, zanim przyjdą do salonu po samochód, szukaj portale społecznościowe stron naszych sprzedawców, aby zbadać ich zainteresowania i znaleźć osobę bliską duchem. Znajdują go i konsultują się z nim, ponieważ wiedzą, że pomoc będzie bardziej przyjazna niż menedżerska ”- mówi Christy Landy, kierownik ds. Marketingu w General Motors. Nawet opinia eksperta może być przedmiotem obopólnie korzystnej wymiany.