Menu
Jest wolny
rejestracja
Dom  /  Rada/ Jakie są techniczne sposoby przetwarzania informacji. Techniczne sposoby przetwarzania danych

Jakie są techniczne sposoby przetwarzania informacji. Techniczne sposoby przetwarzania danych

Główne cechy modułów PC

Komputery osobiste zazwyczaj składają się z następujących podstawowych modułów:

  1. Jednostka systemowa
    1. Zasilacz
    2. Płyta główna
    3. procesor
    4. Pamięć
  2. urządzenia wyjściowe informacji (monitor)
  3. urządzenia wejściowe (klawiatura, mysz)
  4. nośniki

Rozważmy te moduły bardziej szczegółowo.

Jednostka systemowa (obudowa).

Obudowa komputera chroni wewnętrzne elementy komputera przed wpływami zewnętrznymi.

Walizka zawiera: Zasilacz, kable połączeniowe płyta główna, dodatkowe wentylatory.

Liczba pól jest ważna dla możliwości rozbudowy systemu.

Rodzaje obudów.

Nazwa Wymiary, wysokość / szerokość / długość (cm) Zasilacz, W Liczba przegródek dodatkowe cechy
5,25 3,5
Smukły 7*35*45 1-2 1-2 Ograniczone opcje rozbudowy i aktualizacji
Pulpit 20*45*45 200-250 2-3 1-2 Zajmuje dużo miejsca
Mini wieża 45*20*45 200-250
Wieża Midi 50*20*45 200-250 Najczęściej
Duża wieża 63*20*45 250-350
Serwer plików 73*35*55 350-400 Najdroższy

Zasilacz.

Zasilacz generuje różne napięcia dla urządzeń wewnętrznych i płyty głównej. Żywotność zasilacza wynosi 4-7 lat i można ją wydłużyć poprzez rzadsze włączanie i wyłączanie komputera.

Istnieją trzy czynniki (typy) zasilaczy i odpowiednio płyt głównych.

  • AT - łączy się z dwoma złączami na płycie głównej. Używany w starszych typach komputerów. Załączanie i wyłączanie w nich zasilania odbywa się za pomocą konwencjonalnego wyłącznika sieciowego, który jest pod napięciem sieciowym.
  • ATX - 1 złącze. Dołączone na polecenie z maty. deski. Zasilacze ATX działają zgodnie z następującym schematem: przy t 0 do 35 0 С wentylator obraca się z minimalną prędkością i jest praktycznie niesłyszalny. Gdy t 0 osiąga 50 0 С, prędkość wentylatora wzrasta do wartości maksymalnej i nie zmniejsza się, dopóki temperatura nie spadnie.

Płyty główne ATX generalnie nie są kompatybilne z zasilaczami AT.Konieczne jest, aby obudowa i płyta główna były tego samego typu.

  • BTX - posiada 2 wymagane komponenty:
    • Moduł balansu termicznego, który kieruje świeże powietrze bezpośrednio do radiatora procesora.
    • Moduł wsparcia, na którym zainstalowana jest płyta główna. Moduł wsparcia został zaprojektowany, aby kompensować wstrząsy i wstrząsy systemu, aby zmniejszyć zagięcia płyty głównej. Dzięki niemu udało się zwiększyć maksymalną dopuszczalną wagę radiatora procesora z 450 do 900 gramów. Ponadto znacząco zmieniono konfigurację płyty głównej i jednostki systemowej. Najgorętsze podzespoły komputera PC są teraz umieszczone na ścieżce przepływu powietrza, co zwiększa wydajność chłodziarek do obudów.

Niekompatybilność "-" z ATX, pomimo mechanicznej i elektrycznej kompatybilności zasilaczy (400 W, wentylator 120 mm).

Jakie jest zagrożenie komputera? niewystarczająca moc BP.

W przypadku nadmiernego przeciążenia zasilacza obwód zabezpieczający zadziała, a zasilacz po prostu nie uruchomi się. W najgorszym przypadku konsekwencje mogą być bardzo różne, na przykład bardzo smutne dla dysków twardych. Spadek napięcia zasilania dysku twardego jest traktowany jako sygnał wyłączenia i dysk zaczyna parkować głowice odczytu. Po przywróceniu poziomu napięcia płyta ponownie się włącza i zaczyna się obracać.

Mogą również występować niejasne awarie programu. Słabej jakości zasilacz w sytuacji awaryjnej może spowodować wyłączenie maty. płyta i karta graficzna.

Płyta główna

@ Płyta główna (systemowa) jest centralną częścią każdego komputera, który ogólnie jest hostem procesor, koprocesor, kontrolerzy zapewnienie komunikacji pomiędzy procesorem centralnym a urządzeniami peryferyjnymi, Baran , pamięć podręczna, Pozycja BIOS(Podstawowy System Wejścia Wyscia), bateria akumulatorowa, generator zegara kryształowego oraz sloty(złącza) dla podłącz inne urządzenia... Wszystkie te moduły są ze sobą połączone za pomocą magistrali systemowej, która jak już się dowiedzieliśmy znajduje się na płycie głównej.

Ogólna wydajność płyty głównej zależy nie tylko od częstotliwość zegara, ale również Ilość(bitowość) danych, obrobiony na jednostkę czasu jednostka centralna, oraz szerokość bitowa magistrali wymiany danych między różnymi urządzeniami płyta główna.

Architektura płyt głównych jest stale ulepszana: wzrasta ich nasycenie funkcjonalne, wzrasta wydajność. Standardem stało się, że płyta główna ma takie wbudowane urządzenia, jak dwukanałowy kontroler E-IDE HDD ( dyski twarde), kontroler dysków FDD (floppy), zaawansowane porty równoległe (LPT) i szeregowe (COM) oraz szeregowy port podczerwieni.

@ Port - wielobitowe wejście lub wyjście w urządzeniu.

COM1, COM2- porty szeregowe, które przekazują impulsy elektryczne (informacje) sekwencyjnie jeden po drugim (skaner, mysz). Sprzęt zaimplementowany za pomocą złączy 25-pinowych i 9-pinowych, które są wyświetlane na tylny panel Jednostka systemowa.

LPT- port równoległy ma większą prędkość, ponieważ jednocześnie przesyła 8 impulsów elektrycznych (podłącz drukarkę). Sprzęt jest zaimplementowany w postaci 25-stykowego złącza na tylnym panelu jednostki systemowej.

USB- (uniwersalna magistrala szeregowa) zapewnia szybkie połączenie z komputerem kilku urządzeń peryferyjnych jednocześnie (podłączanie pamięci flash, kamer internetowych, zewnętrznych modemów, dysków twardych itp.). Ten port jest uniwersalny i może zastąpić wszystkie inne porty.

^ PS / 2- dedykowany port dla klawiatury i myszy.

AGP- przyspieszony port graficzny do podłączenia monitora.

Wydajność różnych komponentów komputera (procesora, pamięci RAM i kontrolerów peryferyjnych) może się znacznie różnić.

^ Uzgodnić wydajność na płycie głównej zainstalowane są specjalne mikroukłady(chipsety), w tym kontroler pamięci RAM (tzw most Północny) i kontroler peryferyjny ( most południowy).

Mostek północny zapewnia wymianę informacji między procesorem a pamięcią główną za pośrednictwem szkieletu systemu.

Procesor wykorzystuje wewnętrzne mnożenie częstotliwości, więc częstotliwość procesora jest kilkakrotnie wyższa niż częstotliwość magistrali systemowej. W nowoczesnych komputerach częstotliwość procesora może nawet 10 razy przekraczać częstotliwość magistrali systemowej (na przykład częstotliwość procesora to 1 GHz, a częstotliwość magistrali to 100 MHz).

Schemat logiczny płyty głównej

Magistrala PCI (Peripherial Component Interconnect bus) jest połączona z mostkiem północnym, który zapewnia wymianę informacji z kontrolerami peryferyjnymi. (Częstotliwość kontrolerów jest mniejsza niż częstotliwość magistrali systemowej, na przykład jeśli częstotliwość magistrali systemowej wynosi 100 MHz, to częstotliwość magistrali PCI jest zwykle trzykrotnie mniejsza - 33 MHz.) Kontrolery peryferyjne ( karta dźwiękowa, karta sieciowa, kontroler SCSI, modem wewnętrzny) są zainstalowane w gniazdach rozszerzeń karty systemowej .

Do podłączenia karty graficznej używana jest specjalna magistrala AGP(Accelerated Graphic Port), połączony z mostkiem północnym i mający częstotliwość kilkakrotnie wyższą niż magistrala PCI.

procesor

Ogólnie@ podwykonawca jest rozumiany urządzenie, które wykonuje zestaw operacji na danych przedstawionych w postaci cyfrowej (kod binarny).

Stosowany do komputerów @ procesor oznacza jednostka centralna (CPU), która ma możliwość wybierania, dekodowania i wykonywania instrukcji, a także przesyłania i odbierania informacji z innych urządzeń.

Liczba firm projektujących i produkujących procesory PC jest niewielka. Obecnie znane: Intel, Cyrix, AMD, NexGen, Texas Instrument.

Struktura i funkcje procesora:

Strukturę procesora można przedstawić za pomocą poniższego diagramu:

1 ) JJ - kontroluje cały przebieg procesu obliczeniowego i logicznego w komputerze. Jest to „mózg” komputera, który kontroluje wszystkie jego działania. Zadaniem centrali jest odczytanie kolejnego polecenia, rozpoznanie go, a następnie podłączenie niezbędnych obwodów elektronicznych i urządzeń do jego realizacji.

2) ALU- wykonuje bezpośrednie przetwarzanie danych w kodzie binarnym. ALU jest w stanie wykonać tylko pewien zestaw najprostszych operacji:

  • Działania arytmetyczne (+, -, *, /);
  • Operacje logiczne(porównanie, kontrola stanu);
  • Operacje spedycyjne(z jednego obszaru pamięci RAM do drugiego).

3) Generator zegara- ustala rytm wszystkich operacji w procesorze wysyłając jeden impuls w regularnych odstępach czasu (zegar). Synchronizuje pracę urządzeń PC.

@Takt Jest odstępem czasu między początkiem dwóch kolejnych impulsów generatora częstotliwości zegara. GTC synchronizuje pracę węzłów PC.

^ 4) Koprocesor- pozwala znacznie przyspieszyć działanie komputera z liczbami zmiennoprzecinkowymi (mowa o liczby rzeczywiste na przykład 1,233 * 10 -5). Podczas pracy z tekstami koprocesor nie jest używany.

5) Nowoczesny procesor ma tak wysoką wydajność, że informacje z pamięci RAM nie mają czasu, aby dotrzeć do niej w odpowiednim czasie, a procesor jest bezczynny. Aby temu zapobiec, w procesorze wbudowany jest specjalny mikroukład. pamięć podręczna .

@ Pamięć podręczna - superszybka pamięć przeznaczona do przechowywania pośrednich wyników obliczeń. Ma objętość 128-1024 Kb.

Oprócz określonej bazy elementów procesor zawiera specjalne rejestry, które są bezpośrednio zaangażowane w przetwarzanie poleceń.

6) Rejestry- pamięć procesora, czyli szereg specjalnych komórek pamięci.

Rejestry służą dwóm celom:

  • krótkotrwałe przechowywanie numeru lub polecenia;
  • wykonywanie na nich pewnych operacji.

Najważniejsze rejestry procesora to:

  1. licznik poleceń - służy do automatycznego wyboru poleceń programu z sekwencyjnych komórek pamięci, przechowuje adres wykonywanego polecenia;
  2. rejestr poleceń i stanów - służy do przechowywania kodu komendy.

Wykonanie polecenia przez procesor dzieli się na następujące etapy:

  1. polecenie jest wybierane z komórki pamięci, której adres jest przechowywany w liczniku poleceń, do pamięci RAM (zwiększa się zawartość licznika poleceń);
  2. z OP polecenie jest przekazywane do jednostki sterującej (do rejestru poleceń);
  3. urządzenie sterujące odszyfrowuje pole adresu polecenia;
  4. przez sygnały z urządzenia sterującego operandy są pobierane z pamięci w ALU (w rejestrach operandów);
  5. UU odszyfrowuje kod operacji i wydaje sygnał ALU w celu wykonania operacji, która jest wykonywana w sumatorze;
  6. wynik operacji pozostaje w procesorze lub jest zwracany do pamięci RAM.

Pamięć

^ Klasyfikacja elementów pamięci.

System plików

Kolejność przechowywania plików na dysku jest określona przez używany system plików, co bezpośrednio oznacza tablicę alokacji plików, która jest przechowywana w 2 instancjach w obszarze systemowym dysku.

Na poziomie dysku fizycznego plik jest sekwencją bajtów. Jednak ponieważ najmniejszą jednostką na dysku jest sektor wtedy plik może być rozumiany jako pewna sekwencja sektorów. Ale plik jest w rzeczywistości połączoną sekwencją klastrów.

@ Grupa Jest zbiorem kilku sąsiadujących ze sobą sektorów dysku (od 1 do kilkudziesięciu).

Tradycyjnie uważa się, że klaster i sektor to jedno i to samo, ale to różne rzeczy. Rozmiar klastra może się różnić w zależności od pojemności dysku. Im większa pojemność dysku, tym większy rozmiar klastra. Rozmiar klastra może wahać się od 512 bajtów do 64 KB.

^ Klastry są potrzebne do zmniejszenia rozmiaru tabeli alokacji plików.

Jeśli tablica alokacji plików jest w jakikolwiek sposób uszkodzona, to pomimo tego, że dane znajdują się na dysku, będą niedostępne. W związku z tym na dysku przechowywane są 2 takie tabele.

Klastry zmniejszają rozmiar stołu. Ale tu pojawia się kolejny problem. ^ Zmarnowane miejsce na dysku.

Podczas zapisywania pliku na dysk zawsze zajęta będzie całkowita liczba klastrów.

Na przykład plik ma rozmiar 1792 bajtów, a rozmiar klastra to 512 bajtów. Do zapisania pliku potrzebujemy 2 pełne sektory + 256 bajtów z trzeciego sektora. Tak więc w trzecim sektorze 256 bajtów pozostanie wolnych. (1792 = 3 * 512 +256); (512 * 4 = 2048)

^ Pozostałe bajty w czwartym klastrze nie mogą być użyte... Uważa się, że średnio na plik przypada 0,5 klastra zmarnowanej przestrzeni, co jest prowadzi do utraty nawet 15% miejsca na dysku... To znaczy od 2 GB zajęte miejsce- Utracono 300 MB. Gdy pliki są usuwane, wracają do trybu online.

Tablica alokacji plików została po raz pierwszy użyta w systemie operacyjnym MS-DOS i została nazwana tablicą FAT (File Allocation Table).

^ Istnieje kilka typów tabel alokacji plików (FAT).

Ogólna struktura FAT

DO

Początkowy 34. klaster przechowuje adres 35. klastra, 35. adres 36., 36. adres 53. itd. 55. klaster przechowuje znak końca pliku.

System plików NTFS.

System plików NTFS został oparty na system plików rodziny systemów operacyjnych UNIX.

Tutaj element file ma dwie części: nazwę pliku i i-węzeł.

Plik jest zapisywany na dysku w następujący sposób:

Istnieje 13 bloków, w których można zapisać adresy bloków danych znajdujących się na dysku, z których:

11 - Wskazuje blok adresowania pośredniego składający się z 256 bloków danych. Stosuje się go w przypadkach, gdy pierwsze 10 bloków nie wystarczyło do zapisania adresów bloków danych, tj. plik jest duży.

12 - oznacza brak bloku podwójnego adresowania pośredniego (256 * 256), jest używany, gdy brakuje miejsca na zapisanie adresów bloków danych.

13 - adres potrójnej jednostki adresującej (256 * 256 * 256).

Zatem, maksymalny rozmiar pliku może do 16 GB.

Ten mechanizm zapewnia kolosalne bezpieczeństwo danych. Jeśli w FAT możesz po prostu zepsuć tabele, w NTFS będziesz musiał długo wędrować między blokami.

NTFS może przemieszczać, a nawet fragmentować na dysku, wszystkie jego obszary usługowe, omijając wszelkie błędy powierzchniowe — z wyjątkiem pierwszych 16 elementów MFT. Druga kopia pierwszych trzech rekordów jest przechowywana dokładnie na środku dysku.

NTFS to system odporny na błędy, który może doprowadzić się do prawidłowego stanu w przypadku niemal każdej rzeczywistej awarii. Każdy nowoczesny system plików opiera się na takiej koncepcji, jak transakcja - czynność wykonana w całości i poprawnie lub w ogóle nie wykonana.

Przykład 1: dane są zapisywane na dysku. Nagle okazuje się, że nie mogliśmy napisać do miejsca, w którym właśnie postanowiliśmy zapisać kolejną porcję danych - fizyczne uszkodzenie powierzchni. Zachowanie NTFS w tym przypadku jest dość logiczne: cała transakcja zapisu jest wycofywana - system zdaje sobie sprawę, że zapis nie został wykonany. Lokalizacja jest oznaczona jako zła, a dane są zapisywane w innej lokalizacji - rozpoczyna się nowa transakcja.

Przykład 2: bardziej skomplikowany przypadek - dane są zapisywane na dysku. Nagle wyłącza się zasilanie i system uruchamia się ponownie. Na jakiej fazie zatrzymało się nagrywanie, gdzie są dane? Z pomocą przychodzi inny mechanizm systemu - dziennik transakcji, który wyznacza początek i koniec każdej transakcji. Faktem jest, że system, zdając sobie sprawę z chęci zapisu na dysk, zaznaczył swój stan w metapliku. Podczas ponownego uruchamiania plik ten jest sprawdzany pod kątem obecności niekompletnych transakcji, które zostały przerwane przez wypadek i których wynik jest nieprzewidywalny - wszystkie te transakcje są anulowane: miejsce do którego dokonano zapisu jest ponownie oznaczane jako wolne, indeksy i MFT elementy zostają doprowadzone do stanu, w jakim znajdowały się przed awarią, a system jako całość pozostaje stabilny.

^ Ważne jest jednak, aby zrozumieć, że system odzyskiwania NTFS gwarantuje poprawność systemu plików,nie Twoje dane.

W systemie NTFS każdy dysk jest podzielony na woluminy. Każdy wolumen zawiera własną tabelę MFT (tablicę plików), która może znajdować się w dowolnym miejscu na dysku w obrębie wolumenu.

Zawartość dysku

1. Dysk magnetyczny to okrągła płyta wykonana z aluminium (w rzadkich przypadkach ze specjalnego szkła), której powierzchnia jest obrabiana z najwyższą klasą dokładności. Takich dysków magnetycznych może być kilka od 1 do 4. Aby płyty były magnetyczne, ich powierzchnia pokryta jest stopem na bazie chromu, kobaltu lub ferromagnesu. Ta powłoka ma wysoką twardość... Każda strona płyty jest ponumerowana.

^ 2. Aby obrócić dyski, specjalny silnik elektryczny , których konstrukcja obejmuje specjalne łożyska, które mogą być zarówno konwencjonalną kulką, jak i cieczą (zamiast kulek stosuje się specjalny olej amortyzujący obciążenia udarowe, co zwiększa trwałość silnika). Łożyska płynne mają niższy poziom hałasu i prawie nie generują ciepła podczas pracy.

Ponadto niektóre nowoczesne dyski twarde mają silnik całkowicie zanurzony w szczelnym pojemniku z olejem, co pomaga skutecznie odprowadzać ciepło z uzwojeń.

3. Każdy dysk odpowiada parze głowic odczytująco-zapisujących. Odstęp między główkami a powierzchnią krążków wynosi 0,1 mikrona, czyli 500 razy mniej niż grubość ludzkiego włosa. Głowica magnetyczna to złożona konstrukcja składająca się z kilkudziesięciu części. (Te części są tak małe, że wykonuje się je metodą fotolitografii w taki sam sposób jak nowoczesne mikroukłady, czyli wypala się je laserem z dużą precyzją) Powierzchnia robocza korpusu głowicy ceramicznej jest polerowana z taką samą precyzją jak krążek .

4. Uruchamiacz to płaska cewka elektromagnesu wykonana z drutu miedzianego, umieszczona pomiędzy biegunami magnesu trwałego i zamocowana na końcu dźwigni obracającej się na łożysku. Na drugim końcu jest łatwa strzałka z głowicami magnetycznymi.

Cewka może poruszać się w polu magnetycznym pod wpływem przepływającego przez nią prądu, jednocześnie przesuwając wszystkie głowice w kierunku promieniowym. Aby zapobiec zwisaniu cewki z głowicami na boki, gdy nie działa, zastosowano zatrzask magnetyczny, który utrzymuje głowice wyłączonego dysku twardego na miejscu. W stanie niesprawnym napędu głowice znajdują się blisko środka tarcz, w „strefie parkowania” i są dociskane do boków płyt przez lekkie sprężyny. To jedyny moment, w którym głowice dotykają powierzchni dysku. Ale gdy tylko tarcze zaczynają się obracać, strumień powietrza unosi głowice nad ich powierzchnię, pokonując siłę sprężyn. Główki „pływają” i od tego momentu znajdują się nad płytą w ogóle jej nie dotykając. Ponieważ nie ma mechanicznego kontaktu między głowicą a dyskiem, nie dochodzi do zużycia dysków i głowic.

5. Również wewnątrz HDA jest wzmacniacz sygnału umieszczone bliżej głowic, aby zmniejszyć odbiór z zewnętrznych zakłóceń. Jest połączony z głowicami elastycznym przewodem taśmowym. Ten sam kabel służy do zasilania cewki ruchomej głowicy napędowej, a czasem do silnika. Wszystkie te komponenty są połączone z płytą kontrolera za pomocą małego złącza.

W procesie formatowania dysków może się okazać, że na powierzchni talerzy znajduje się jeden lub kilka niewielkich fragmentów, do których odczytu lub zapisu towarzyszą błędy (tzw. złe sektory, czyli uszkodzone bloki).

Sektory, których czytaniu lub pisaniu towarzyszą błędy, nazywamy @ złe sektory .

ale dzięki temu płyta nie jest wyrzucana i nie uważaj go za zepsuty, ale tylko zaznaczaj tylko te sektory w specjalny sposób i są one dalej ignorowane... Aby uniemożliwić użytkownikowi zobaczenie tej hańby, dysk twardy zawiera pewną liczbę zapasowych ścieżek, którymi elektronika napędu „w locie” zastępuje uszkodzone obszary powierzchni, dzięki czemu są całkowicie przezroczyste dla system operacyjny.

Ponadto nie cały obszar płyty jest zarezerwowany do zapisu danych. Część powierzchni informacyjnej jest wykorzystywana przez napęd na własne potrzeby. Jest to obszar usług, jak to się czasem nazywa, informacja inżynierska.

Struktura dysk optyczny

V Zgodnie z przyjętymi normami powierzchnia tarczy podzielona jest na trzy obszary:

1. Katalog wejściowy - obszar w kształcie pierścienia najbliżej środka tarczy (szerokość 4 mm). Odczytywanie informacji z płyty zaczyna się dokładnie od katalogu wejściowego, który zawiera spis treści, adresy nagrań, liczbę tytułów, objętość płyty, nazwę płyty;

2. Obszar danych ;

3. Katalog wyjściowy - posiada oznaczenie końca płyty.

Typy dysków optycznych:

  1. CD-ROM... Informacje są przemysłowo zapisywane na płycie CD-ROM i nie można ich przepisać. Najczęściej używane są 5-calowe dyski CD-ROM o pojemności 670 MB. Pod względem swoich cech są całkowicie identyczne ze zwykłymi płytami muzycznymi. Dane na dysku są zapisane w spirali.
  2. CD-R... Skrót CD-R (CD-Recordable) oznacza technologię optycznego jednokrotnego zapisu, która może być wykorzystywana do archiwizacji danych, prototypowania dysków do masowej produkcji oraz niewielkich wydań na płytach CD, nagrywania dźwięku i wideo. Zadaniem urządzenia CD-R jest zapisywanie danych na płytach CD-R CD, które można następnie odczytywać na napędach CD-ROM i CD-RW.
  3. CD-RW... Stare dane można usunąć, a nowe nadpisać. Pojemność nośników CD-RW wynosi 650 MB i jest równa pojemności dysków CD-ROM i CD-R.
  4. ^ DVD-ROM, DVD-R, DVD-RW... Podobny do wcześniej omawianych typów dysków optycznych, ale o dużej pojemności.
  5. Jest rozwijana HVD(Holografic Versatile Dosc) o pojemności 1 TB.

Technologia DVD pozwala na 4 rodzaje płyt:

  • jednostronny, jednowarstwowy - 4,7 GB
  • jednostronny, dwuwarstwowy - 8,5 GB
  • dwustronna, jednowarstwowa - 9,4 GB
  • dwustronna, dwuwarstwowa - 17 GB

W płytach dwuwarstwowych stosowana jest warstwa wzmacniająca, na której zapisywane są informacje. Podczas odczytu informacji z pierwszej warstwy znajdującej się w głębi dysku laser przechodzi przez przezroczystą folię drugiej warstwy. Podczas odczytu informacji z drugiej warstwy sterownik napędu wysyła sygnał do skupienia wiązki laserowej na drugiej warstwie i z niej dokonywany jest odczyt. Przy tym wszystkim średnica tarczy wynosi 120 mm, a jej grubość to 1,2 mm.

Jak już wspomniano, na przykład dwustronna dwuwarstwowa płyta DVD może pomieścić do 17 GB informacji, co stanowi około 8 godzin wysokiej jakości wideo, 26 godzin muzyki lub, co najwidoczniej, 1,4-kilometrowy stos papieru pisanego po obu stronach!

^ Formaty DVD

  1. DVD-R. może być tylko jednowarstwowy, ale możliwe jest tworzenie płyt dwustronnych. Zasada, według której jest wykonana Nagrywanie DVD-R dokładnie tak samo jak CD-R. Warstwa refleksyjna zmienia swoje właściwości pod wpływem wiązki laserowej o dużej mocy. DVD-R nie jest niczym nowym, technicznie to ten sam CD-R, przeznaczony tylko do cieńszych utworów. Na Tworzenie DVD-R największą uwagę przywiązuje się do kompatybilności z istniejącymi napędami DVD-ROM. Długość lasera nagrywającego 635 Nm + zabezpieczenie przed kopiowaniem płyt nagrywalnych.
  2. DVD + R... Zasady, na których zbudowano DVD + R, są identyczne z tymi stosowanymi w DVD-R. Różnica między nimi polega na używanym formacie nagrywania. Na przykład płyty DVD+R obsługują nagrywanie w kilku etapach. Długość lasera rejestrującego to 650 Nm + większa powierzchnia odbijająca.

^ Istnieją dwie główne klasy płyt CD: CD i DVD.

Napędy ZIP.

Dyski magnetooptyczne.

Wykonane są ze stopu aluminium i zamknięte w plastikowej osłonie. Pojemność 25-50 GB.

Odczyt odbywa się metodą optyczną, a zapis za pomocą środków magnetycznych, jak na dyskietkach.

Technologia rejestracji danych jest następująca: wiązka lasera nagrzewa punkt na dysku, a elektromagnes zmienia orientację magnetyczną tego punktu, w zależności od tego, co ma być zarejestrowane: 0 lub 1.

Odczytu dokonuje się wiązką laserową o mniejszej mocy, która odbita od tego punktu zmienia swoją polaryzację.

Zewnętrznie nośnik magneto-optyczny wygląda jak dyskietka 3,5, tylko nieco grubsza.

Pamięci flash

Technologia ta jest dość nowa i dlatego nie należy do tanich rozwiązań, jednak istnieją wszelkie przesłanki do obniżenia kosztów urządzeń tej klasy,

Podstawą każdego dysku flash jest pamięć nieulotna. Urządzenie nie posiada ruchomych części i nie jest podatne na wibracje i wstrząsy mechaniczne. Flash nie jest samoistnie nośnik magnetyczny i nie jest pod wpływem pól magnetycznych. A pobór mocy występuje tylko podczas operacji zapisu/odczytu, a zasilanie z USB jest w zupełności wystarczające.

^ Pojemność pamięci flash waha się od około 256 MB do kilku GB (4-5 GB).

Oprócz tego, że pendrive może służyć do nagrywania, niezawodnego przechowywania i przesyłania informacji, można go podzielić na dyski logiczne i zainstaluj go z dysku startowego.

Godność

Środki techniczne przetwarzanie informacji

Środkami intensyfikacji informacji są rewolucja naukowo-technologiczna, wykorzystanie najnowszych osiągnięć nauki i techniki w biznesie informacyjnym; organizacja naukowa, zarządzanie procesem informacyjnym; szkolenie i doskonalenie specjalistów obsługujących usługi informacyjne systemu zarządzania.

Opracowanie systemu działań poszerzających możliwości jak najefektywniejszego wykorzystania informacji jest ważnym warunkiem sukcesu w zarządzaniu. Wśród tych środków pierwszorzędne znaczenie ma staranne przygotowanie podmiotu zarządzania do percepcji, oceny informacji, rozwijanie umiejętności oceny jej społecznego znaczenia, wyboru z przepływu informacji najbardziej ogólnie istotnych, najbardziej społecznych. , ponieważ tego typu informacje są nieocenione w zarządzaniu.

Zbieranie i przetwarzanie informacji społecznych jest nie do pomyślenia bez użycia nowoczesnych środków technicznych.

Najważniejszym sposobem pozyskiwania rzetelnej informacji społecznej jest nie tylko powszechne stosowanie technicznych (komputerowych) środków pozyskiwania informacji społecznej, ale także kształtowanie się nowego typu kultury – humanitarnej i technologicznej.

Najważniejszym mechanizmem jej powstawania jest zmiana stylu myślenia, który stopniowo staje się konceptualny (humanitarny), strategiczno-konstruktywny, technologiczny, szukający sposobów i środków rozwiązywania coraz bardziej złożonych problemów społecznych. Obecność w naszym społeczeństwie dwóch kultur, „humanitarnej” i technokratycznej, które dotychczas słabo współgrały, rodzi wiele problemy informacyjne w zarządzaniu.

Społeczność światowa jako całość, w tym nasz kraj, wkroczyła w nowy etap rozwoju swojej cywilizacji - tworzenie społeczeństwa informacyjnego. Proces ten jest często nazywany trzecią rewolucją społeczno-techniczną, informatyzacją społeczeństwa.

Informatyzacja społeczeństwa nieuchronnie wpływa nie tylko na produkcję materialną i komunikację, ale także na stosunki społeczne, kulturę, aktywność intelektualną we wszystkich jej różnorodnych przejawach.

Jest rzeczą oczywistą, że informatyzacja społeczeństwa odciska swoje piętno bezpośrednio na działaniach osób zajmujących się organizacją i zarządzaniem. Mają nieporównywalnie szersze możliwości w pozyskiwaniu, przechowywaniu, przetwarzaniu, przekazywaniu i porządkowaniu najbardziej zróżnicowanych pod względem treści i formy prezentacji informacji o różnych aspektach społeczeństwa.

Na przykład na początku lat 60. XX wieku parlament, rząd i ludność Japonii stanęli przed pytaniem, w jaki sposób kierować rozwojem kraju. Na ścieżce dobrobytu materialnego czy rozwoju informacyjno-intelektualnego, informatyzacji społeczeństwa, budowania zasobów i technologii informacyjnych, czyli na ścieżce materialnej lub informacyjnej?

Od 1964 roku Japonia wybrała drugą drogę, preferując bogactwo materialne – bogactwo informacji i jej zasobów. Od tego czasu liczy się światowa historia informatyzacji społeczeństwa, zasobów informacyjnych i technologii.

Stany Zjednoczone Ameryki, dysponujące potężnymi technikami gromadzenia danych wywiadowczych, przyjęły japoński system informacji o rozwoju pod koniec lat 60. i na początku lat 70. XX wieku.

Pod koniec lat 60. ZSRR również zaczął zajmować się podobnymi problemami informatyzacji ubiegłego wieku. Jednak publiczna świadomość informacyjna krajów rozwiniętych nie stała się ogólną własnością informacyjną społeczeństwa sowieckiego z wielu powodów.

Obecnie wszystkie kraje świata podążają ścieżką postępu informacyjnego. Informacja stała się niealternatywnym źródłem rozwoju i dobrobytu wielu narodów; zasoby informacyjne i technologie podniosły postęp naukowy i technologiczny do bezprecedensowego poziomu w porównaniu z tym, co w przeszłości zapewniały fizyka, mechanika, chemia i elektrodynamika.

Dlatego Międzynarodowa Akademia Informatyzacji przywiązuje dużą wagę do propagowania idei informatyzacji, pracy edukacyjnej i edukacyjnej w zakresie informacji, bezpieczeństwa informacji, zasobów i technologii informacyjnych.

Trudno znaleźć sferę czy obszar ludzkiej aktywności, w której informacja nie odgrywałaby istotnej roli, gdyż zapewnia ona samoorganizację nie tylko człowieka, ale całego świata zwierzęcego i roślinnego.

Dlatego pojawiła się nowa gałąź wiedzy naukowej - informologia jest nauką o podstawowym badaniu wszelkich procesów i zjawisk mikro- i makrokosmosu wszechświata, uogólnieniu praktycznego i teoretycznego materiału fizykochemicznego, astrofizycznego, jądrowego, biologicznego, kosmicznego i inne badania z jednego punktu widzenia.

Pomyślne wykorzystanie technologii komputerowej jest możliwe tylko pod następującymi warunkami:

Ekonomia, czyli osiągnięcie większego efektu w porównaniu z wykorzystaniem konwencjonalnych środków obliczeniowych;

Dokładne określanie przydatności informacji pierwotnych do przetwarzania i analizy za pomocą środków komputerowych;

Zgodność systemu sterowania z możliwościami skutecznego wykorzystania komputerów;

Zgodność dokumentacji z zasadami informatycznymi;

Dostępność odpowiednich specjalistów.

Dzięki technologia komputerowa działa automatycznie, zgodnie z programami przygotowanymi wcześniej przez osobę, wykonuje całą rzeczywistą pracę związaną z przetwarzaniem i analizowaniem informacji bez bezpośredniego udziału osoby; w rezultacie prędkość tych maszyn nie jest ograniczona możliwościami fizjologicznymi. Decyduje o tym szybkość fizycznych elementów, z których się składają. Posiadane przez nowoczesne urządzenia fizyczne urządzenia pozwalają na zapamiętywanie i przechowywanie praktycznie nieograniczonych ilości informacji.

Tak więc technika komputerowa jako narzędzie do przetwarzania i analizy informacji otwiera zasadniczo nowe możliwości szybkiego przetwarzania dużych ilości informacji, które pozwalają wystarczająco głęboko i w pełni ujawnić tendencje i wzorce rozwoju społeczeństwa, a tym samym skutecznie rozwiązać problemy menedżerskie. problemy.

Na przykład w latach 80. i 90. szybki rozwój mikroelektroniki obniżył koszty i rozmiary komputerów do tego stopnia, że ​​można było ich używać w każdym miejscu pracy.

Doprowadziło to do dalszej zmiany wyposażenia technicznego aparatu zarządzającego. Siłą napędową w procesie przekształcania go w elektroniczny jest mikrokomputer. Przekształcając informację według złożonego programu, ucieleśnia pierwotną formę „inteligencji”, zmienia treść, a nie formę czy lokalizację wprowadzanych do niej informacji, jak to robiła „informatyka” z poprzedniego okresu.

Wynalezienie mikroprocesora obniżyło koszty obliczeń elektronicznych do tego stopnia, że ​​elektroniczna „inteligencja” była stosowana w możliwie najszerszych obszarach i była instalowana po zmienionym koszcie dokładnie tam, gdzie była potrzebna, a nie przy znacznych kosztach w zdalne centrum.

Obecnie rozwijające się wyposażenie techniczne aparatu zarządzania może obejmować:

Biurowe jednostki techniczne wyposażone w mikrokomputery zlokalizowane na stanowiskach pracy prawie każdego kierownika;

Programy zapewniające interakcję między człowiekiem a maszyną zawierają niezbędne środki do przetwarzania informacji i odzwierciedlają zgromadzone doświadczenie aparatu zarządzającego;

Sieci komunikacyjne łączące bloki urządzeń biurowych ze sobą i z jednostki centralne, jak również z zewnętrznymi źródłami informacji;

Współdzielone urządzenia, takie jak pliki elektroniczne, urządzenia drukujące i skanujące, dostępne dla wszystkich jednostek biurowych za pośrednictwem linii komunikacyjnych.

Zmiany w treści, organizacji i technice zarządzania pod wpływem technologii informatycznych i zautomatyzowanych urzędów zachodzą w następujących kierunkach.

Po pierwsze, radykalnie zmienia się organizacja i technika wsparcia informacyjnego dla głowy. Szczególnie ważne jest masowe wprowadzanie mini- i mikrokomputerów, komputerów osobistych jako komponentów systemy informacyjne połączony z siecią banków danych. Jednocześnie praca polegająca na gromadzeniu, przetwarzaniu i rozpowszechnianiu informacji odbywa się za pomocą interfejsów człowiek-maszyna, które nie wymagają specjalnego przeszkolenia.

Znacząco zmienia się również technika przechowywania i przetwarzania informacji, niepełne informacje, powielanie, informacje przeznaczone dla innych poziomów zarządzania są niedozwolone.

Po drugie następuje pewna automatyzacja funkcji menedżera. Wzrosła liczba sprawnie funkcjonujących zautomatyzowanych systemów, obejmujących produkcję, działalność gospodarczą, procesy organizacyjne i technologiczne.

Coraz większa część pracy przy sporządzaniu planów zostaje przeniesiona na komputer. Jednocześnie znacznie poprawia się jakość planów opracowywanych z wykorzystaniem mikrokomputerów na niższym poziomie kontroli. Ponadto plany dla poszczególnych podsystemów sterowania są wyraźnie skoordynowane.

Udoskonaliły się systemy kontroli, w tym takie, które pozwalają wykryć odchylenia od planowanego poziomu i zapewnić znalezienie prawdopodobnych przyczyn tych odchyleń.

Po trzecie, znacząco zmieniły się środki komunikacji, poza wymianą wiadomości za pośrednictwem sieci mikroprocesorów.

Szczególne znaczenie ma system telekomunikacyjny, który umożliwia organizację spotkań nieobecnych, konferencji między odległymi punktami oraz szybkie otrzymywanie informacji przez wykonawców. W związku z tym zmieniają się metody i techniki komunikowania się kierowników z podwładnymi oraz z władzami wyższymi.

Kompleks technicznych środków przetwarzania informacji To zestaw autonomicznych urządzeń do gromadzenia, gromadzenia, przesyłania, przetwarzania i prezentacji informacji, a także wyposażenia biurowego, zarządzania, utrzymania i innych.

Na kompleks środków technicznych nakłada się szereg wymagań:

Dostarczanie rozwiązań problemów przy minimalnych kosztach, wymaganej dokładności i niezawodności

Możliwość technicznej kompatybilności urządzeń, ich agregacji

Zapewnienie wysokiej niezawodności

Minimalne koszty nabycia

Przemysł krajowy i zagraniczny produkuje szeroką gamę technicznych środków przetwarzania informacji, różniących się bazą elementów, konstrukcją, wykorzystaniem różnych nośników pamięci, charakterystyką działania itp.

Techniczne środki przetwarzania informacji dzielą się na dwie duże grupy. Są to główne i pomocnicze narzędzia przetwarzania.

Środki trwałe Czy narzędzia do? zautomatyzowane przetwarzanie Informacja.

Wiadomo, że do sterowania niektórymi procesami potrzebne są pewne informacje zarządcze, charakteryzujące stany i parametry. procesy technologiczne, ilościowe, kosztowe i pracownicze wskaźniki produkcji, dostaw, sprzedaży, działalności finansowej itp.

Do głównych środków technicznego przetwarzania należą: środki do rejestrowania i gromadzenia informacji, środki do odbierania i przesyłania danych, środki do przygotowywania danych, środki wprowadzania, środki do przetwarzania informacji oraz środki do wyświetlania informacji. Poniżej wszystkie te narzędzia zostały szczegółowo omówione.

Uzyskanie wstępnych informacji i rejestracja to jeden z pracochłonnych procesów. Dlatego szeroko stosowane są urządzenia do zmechanizowanego i zautomatyzowanego pomiaru, gromadzenia i rejestracji danych. Zakres tych funduszy jest bardzo szeroki. Należą do nich: wagi elektroniczne, różne liczniki, tablice wyników, przepływomierze, kasy fiskalne, maszyny do liczenia banknotów, bankomaty i wiele innych. Obejmuje to również różne rejestratory produkcyjne, przeznaczone do rejestrowania i rejestrowania informacji o operacjach biznesowych na nośnikach komputerowych.

· Sposoby otrzymywania i przekazywania informacji.

W ramach przekazywania informacji rozumie się proces przesyłania danych (wiadomości) z jednego urządzenia na drugie. Współdziałający zestaw obiektów utworzony przez urządzenia do transmisji i przetwarzania danych nazywa się sieć ... Połącz urządzenia przeznaczone do przesyłania i odbierania informacji. Zapewniają wymianę informacji między miejscem ich pochodzenia a miejscem ich przetwarzania. Strukturę środków i metod transmisji danych określa lokalizacja źródeł informacji i środków przetwarzania danych, wielkość i czas transmisji danych, rodzaje linii komunikacyjnych i inne czynniki. Obiekty transmisji danych reprezentowane są przez stacje abonenckie (AP), urządzenia transmisyjne, modemy, multipleksery.


Narzędzia do przygotowywania danych reprezentowane przez urządzenia do przygotowywania informacji na nośnikach maszynowych, urządzenia do przenoszenia informacji z dokumentów na nośniki, w tym urządzenia komputerowe. Te urządzenia mogą sortować i poprawiać.

Pomoce wejściowe służą do percepcji danych z nośników maszynowych i wprowadzania informacji do systemy komputerowe

Urządzenia do przetwarzania informacji odgrywają kluczową rolę w kompleksie technicznych środków przetwarzania informacji. Komputery można zaliczyć do narzędzi przetwarzających, które z kolei można podzielić na cztery klasy: mikro, małe (mini); duże i superkomputery.

Mikrokomputer są dwojakiego rodzaju: uniwersalne i specjalistyczne. Uniwersalne i wyspecjalizowane mogą być zarówno wieloużytkownikowe - potężne komputery wyposażone w kilka terminali i pracujące w trybie time-sharing (serwery), jak i jednoużytkownikowe (stacje robocze), które specjalizują się w wykonywaniu jednego rodzaju pracy.

Małe komputery- praca w trybach współdzielenia czasu i wielozadaniowości. Ich pozytywną stroną jest niezawodność i łatwość użytkowania.

Duże komputery- (mainframe) charakteryzują się dużą pojemnością pamięci, wysoką odpornością na błędy i wydajnością. Charakteryzuje się również wysoką niezawodnością i ochroną danych; możliwość podłączenia dużej liczby użytkowników.

Superkomputer To potężne komputery wieloprocesorowe o szybkości 40 miliardów operacji na sekundę.

serwer- komputer dedykowany do obsługi żądań ze wszystkich stacji w sieci i zapewnienia tym stacjom dostępu do zasobów systemowych i dystrybucji tych zasobów.

Serwer uniwersalny zwany - aplikacja serwerowa.

Wydajne serwery można sklasyfikować jako komputery małe i komputery typu mainframe. Teraz liderem są serwery Marshall, są też serwery Cray (64 procesory).

Urządzenia do wyświetlania informacji służą do wyprowadzania wyników obliczeń, danych referencyjnych i programów na nośniki komputerowe, druku, ekranu i tak dalej. Urządzenia wyjściowe obejmują monitory, drukarki i plotery.

Monitor To urządzenie przeznaczone do wyświetlania informacji wprowadzanych przez użytkownika z klawiatury lub danych wyjściowych z komputera.

drukarka Jest urządzeniem do wyprowadzania informacji tekstowych i graficznych na papier.

Spiskowiec Jest urządzeniem do drukowania rysunków i schematów wielkoformatowych na papier.

AIDS- to sprzęt zapewniający wydajność środków trwałych, a także sprzęt ułatwiający i czyniący pracę menedżerską bardziej komfortową.

Pomocniczymi środkami przetwarzania informacji są urządzenia biurowe oraz narzędzia konserwacyjno-naprawcze. Sprzęt biurowy to bardzo szeroka gama narzędzi, od materiałów biurowych po środki dostarczania, powielania, przechowywania, wyszukiwania i niszczenia podstawowych danych, komunikacji administracyjnej i produkcyjnej itd., co sprawia, że ​​praca kierownika jest wygodna i komfortowa .

Proces technologiczny przetwarzania danych w systemach informatycznych realizowany jest z wykorzystaniem:

    techniczne środki gromadzenia i rejestrowania danych;

    obiekty telekomunikacyjne;

    systemy przechowywania, wyszukiwania i wyszukiwania danych;

    sposoby przetwarzania danych komputerowych;

    środki techniczne wyposażenia biurowego.

W nowoczesnych systemach informatycznych techniczne środki przetwarzania danych stosowane są w sposób zintegrowany, na podstawie kalkulacji techniczno-ekonomicznej wykonalności ich zastosowania z uwzględnieniem stosunku ceny do jakości oraz niezawodności działania środków technicznych .

Technologia informacyjna

Technologię informacyjną można zdefiniować jako zbiór metody- techniki i algorytmy przetwarzania danych oraz narzędzia- oprogramowanie i sprzęt do przetwarzania danych.

Informatykę można z grubsza podzielić na kategorie:

    Podstawowy technologie informacyjne to uniwersalne operacje technologiczne przetwarzania danych, z reguły niezależne od treści przetwarzanych informacji, na przykład uruchamianie programów do wykonywania, kopiowania, usuwania, przenoszenia i wyszukiwania plików itp. Opierają się na wykorzystaniu szeroko stosowanego oprogramowania i sprzętu do przetwarzania danych.

    Specjalny informatyka - zespół podstawowych technologii informacyjnych związanych z informacją, przeznaczonych do wykonywania operacji specjalnych, z uwzględnieniem treści i/lub formy prezentacji danych.

Informatyka jest niezbędną podstawą tworzenia systemów informatycznych.

Systemy informacyjne

System informacyjny (IS) to system komunikacyjny służący do gromadzenia, przesyłania, przetwarzania informacji o obiekcie, dostarczający pracownikom różnych szczebli informacji w celu realizacji funkcji zarządzania.

Użytkownikami SI są jednostki organizacyjne kierownictwa – piony strukturalne, kadra kierownicza, wykonawcy. Podstawę treści SI tworzą elementy funkcjonalne – modele, metody i algorytmy tworzenia informacji sterującej. Struktura funkcjonalna SI to zbiór elementów funkcjonalnych: podsystemów, zespołów zadaniowych, procedur przetwarzania informacji, które określają kolejność i warunki ich realizacji.

Wprowadzenie systemów informatycznych odbywa się w celu zwiększenia wydajności produkcji i działalności gospodarczej obiektu poprzez nie tylko przetwarzanie i przechowywanie rutynowych informacji, automatyzację pracy biurowej, ale także całkowicie nowe metody zarządzania. Metody te opierają się na modelowaniu działań specjalistów organizacji przy podejmowaniu decyzji (metody sztucznej inteligencji, systemy ekspertowe itp.), z wykorzystaniem nowoczesnej telekomunikacji (poczta elektroniczna, telekonferencje), globalnych i lokalnych sieci komputerowych itp.

Klasyfikacja IP odbywa się według następujących kryteriów:

    charakter przetwarzania informacji;

    skala i integracja komponentów IP;

    architektura informatyczna SI.

Zgodnie z charakterem przetwarzania informacji i złożonością algorytmów przetwarzania układów scalonych, zwyczajowo dzieli się na dwie duże klasy:

    IS do przetwarzania danych operacyjnych. Są to tradycyjne systemy IS służące do rozliczania i przetwarzania danych pierwotnych o dużej objętości przy użyciu ściśle regulowanych algorytmów, stałej struktury bazy danych (DB) itp.

    IS wsparcia i podejmowania decyzji... Skupiają się na analitycznym przetwarzaniu dużych ilości informacji, integracji heterogenicznych źródeł danych, wykorzystaniu metod i narzędzi przetwarzania analitycznego.

Obecnie rozwinęły się główne architektury informatyczne:

Scentralizowane przetwarzanie zakłada ujednolicenie interfejsu użytkownika, aplikacji i baz danych na jednym komputerze.

V architekturaserwer plików„Dostarczono wielu użytkowników sieci” pliki główny komputer sieci, zwany serwer plików... Mogą to być pojedyncze pliki użytkownika, pliki bazy danych i programy użytkowe. Całe przetwarzanie danych odbywa się na komputerach użytkowników. Taki komputer nazywa się stanowisko pracy(RS). Na nim instalowane są PS interfejsu użytkownika i aplikacje, które można wprowadzać zarówno z urządzeń wejściowych komputera, jak i przesyłać przez sieć z serwera plików. Serwer plików może być również wykorzystany do centralnego przechowywania plików poszczególnych użytkowników, przesyłanych przez nich przez sieć z komputera. Architektura” serwer plików„Wykorzystywany jest głównie w lokalnych sieciach komputerowych.

V architekturaklient-serwer„Oprogramowanie nastawione jest nie tylko na kolektywne korzystanie z zasobów, ale także na ich przetwarzanie w miejscu zasobu na żądanie użytkowników. Systemy oprogramowania o architekturze klient-serwer składają się z dwóch części: oprogramowania serwerowego i oprogramowania użytkownik-klient. Działanie tych systemów jest zorganizowane w następujący sposób: programy klienckie działają na komputerze użytkownika i wysyłają żądania do programu serwera działającego na współdzielonym komputerze. Główne przetwarzanie danych odbywa się na potężnym serwerze, a na komputer użytkownika przesyłane są tylko wyniki zapytania. Na przykład serwer bazy danych jest używany w potężnych DBMS, takich jak Microsoft Serwer SQL, Oracle itp., pracując z rozproszonymi bazami danych. Serwery baz danych są zaprojektowane do pracy z dużymi ilościami danych (dziesiątki gigabajtów lub więcej) i dużą liczbą użytkowników, zapewniając jednocześnie wysoką wydajność, niezawodność i bezpieczeństwo. Architektura klient-serwer jest w pewnym sensie główną architekturą w zastosowaniach globalnych sieci komputerowych.

Wykład nr 3

Główne pytania prelekcji:

1. Techniczne środki informatyki.

2. Pojęcie zasad działania komputera.

3. Główne elementy komputera osobistego.

Techniczne środki informatyki

Komputer jest głównym technicznym środkiem przetwarzania informacji, sklasyfikowanym według szeregu cech, w szczególności: przez cel, zasadę działania, metody organizacji procesu obliczeniowego, wielkości i moc obliczeniowa, funkcjonalność, możliwość równoległego uruchamiania programów itd.

Za pomocą spotkanie Komputery można podzielić na trzy grupy:

· uniwersalny (ogólnego przeznaczenia) - przeznaczone do rozwiązywania różnorodnych problemów inżynierskich i technicznych: ekonomicznych, matematycznych, informacyjnych i innych, różniących się złożonością algorytmów i dużą ilością przetwarzanych danych. Cechą charakterystyczną tych komputerów jest wysoka wydajność, różnorodność form przetwarzanych danych (binarna, dziesiętna, symboliczna), różnorodność wykonywanych operacji (arytmetyczna, logiczna, specjalna), duża pojemność pamięci o dostępie swobodnym, dobrze rozwinięta organizacja wejścia-wyjścia informacji;

· zorientowany na problem - przeznaczone do rozwiązywania węższego zakresu zadań, zwykle związanych z obiektami technologicznymi, rejestracją, gromadzeniem i przetwarzaniem niewielkich ilości danych (sterujące systemy komputerowe);

· specjalistyczne - rozwiązywać wąski zakres zadań w celu zmniejszenia złożoności i kosztów tych komputerów przy zachowaniu wysokiej wydajności i niezawodności (programowalne mikroprocesory do zadań specjalnych, sterowniki pełniące funkcje sterowania urządzeniami technicznymi).

Za pomocą zasada działania(kryterium podziału komputerów jest forma prezentacji informacji, z którą pracują):

· Komputery analogowe (AVM) - komputery pracujące w trybie ciągłym, pracujące z informacjami prezentowanymi w formie ciągłej, tj. w postaci ciągłej serii wartości o dowolnej wielkości fizycznej (najczęściej napięcia elektrycznego); w tym przypadku wartość napięcia jest analogiczna do wartości jakiejś mierzonej zmiennej. Na przykład wprowadzenie 19,42 w skali 0,1 jest równoważne przyłożeniu napięcia 1,942 V do wejścia;

· Komputery cyfrowe (DCM) - komputery o działaniu dyskretnym, pracujące z informacjami przedstawionymi w postaci dyskretnej, a raczej cyfrowej - w postaci kilku różnych napięć, równoważnych liczbie jednostek w reprezentowanej wartości zmiennej;

· Komputery hybrydowe (GVM) - komputery połączonego działania, pracują na informacjach prezentowanych zarówno w postaci cyfrowej, jak i analogowej.

AVM są proste i łatwe w użyciu; programowanie zadań do ich rozwiązania nie jest pracochłonne, szybkość rozwiązania zmienia się na żądanie operatora (więcej niż komputera cyfrowego), ale dokładność rozwiązania jest bardzo niska (błąd względny 2-5%). AVM służy do rozwiązywania problemów matematycznych zawierających równania różniczkowe, które nie zawierają złożonej logiki. Najbardziej rozpowszechnione są komputery cyfrowe, kiedy mówi się o komputerach. Wskazane jest użycie GVM do sterowania złożonymi, szybkimi kompleksami technicznymi.

Za pomocą pokolenia można wyróżnić następujące grupy:

1. generacja. W 1946 r. opublikowano pomysł wykorzystania arytmetyki binarnej (John von Neumann, A. Burns) oraz zasadę zapisanego programu, które są aktywnie wykorzystywane w komputerach 1. generacji. Komputery wyróżniały się dużymi wymiarami, wysokim zużyciem energii, niską prędkością, niską niezawodnością i programowaniem w kodach. Zadania zostały rozwiązane głównie obliczeniowy zawierające złożone obliczenia potrzebne do prognozowania pogody, rozwiązywania problemów energetyki jądrowej, sterowania samolotami i innych zadań strategicznych.

2. generacja. W 1948 Bell Telefon Laboratory ogłosiło stworzenie pierwszego tranzystora. W porównaniu z komputerami poprzedniej generacji poprawiły się wszystkie parametry techniczne. Do programowania wykorzystywane są języki algorytmiczne, podjęto pierwsze próby programowania automatycznego.

Trzecia generacja. Za cechę komputerów III generacji uważa się zastosowanie w ich konstrukcji układów scalonych oraz systemów operacyjnych w sterowaniu pracą komputera. Pojawiły się możliwości multiprogramowania, zarządzania pamięcią, urządzeń wejścia-wyjścia. Odzyskiwanie po awarii było obsługiwane przez system operacyjny. Od połowy lat 60. do połowy lat 70. ważny gatunek usługi informacyjne stały się bazami danych zawierającymi różne rodzaje informacje o wszelkiego rodzaju gałęziach wiedzy. Po raz pierwszy pojawia się informatyczna technologia wspomagania decyzji. To jest absolutnie nowy sposób interakcja człowiek-komputer.

4. generacja. Główne cechy tej generacji komputerów to obecność urządzeń pamięci masowej, uruchamianie komputera przy użyciu systemu ładowania początkowego z pamięci ROM, różnorodność architektur, wydajne systemy operacyjne oraz integracja komputerów w sieć. Od połowy lat 70., wraz z powstaniem narodowych i globalne sieci Transmisja danych wiodącym typem usług informacyjnych stała się dialogowa wyszukiwarka informacji w oddalonych od użytkownika bazach danych.

5. generacja. Komputery z dziesiątkami procesorów pracujących równolegle, umożliwiających budowanie wydajnych systemów przetwarzania wiedzy; Komputer oparty na superskomplikowanych mikroprocesorach o równoległej strukturze wektorowej, wykonujący jednocześnie dziesiątki sekwencyjnych poleceń programowych.

6. generacja. Komputery optoelektroniczne o masywnej równoległości i strukturze neuronowej - z siecią dużej liczby (dziesiątek tysięcy) prostych mikroprocesorów symulujących strukturę neuronowych systemów biologicznych.

Klasyfikacja komputerowa pod względem wielkości i funkcjonalności.

Duże komputery. Historycznie jako pierwsze pojawiły się duże komputery, których podstawa elementów przeszła od lamp próżniowych do układów scalonych o bardzo wysokim stopniu integracji. Ich wydajność okazała się jednak niewystarczająca do modelowania systemów ekologicznych, problemów inżynierii genetycznej, zarządzania złożonymi kompleksami obronnymi itp.

Komputery mainframe są często określane za granicą jako MAINFRAME, a pogłoski o ich śmierci są mocno przesadzone.

Zazwyczaj mają:

Wydajność co najmniej 10 MIPS (miliony operacji zmiennoprzecinkowych na sekundę)

Pamięć główna od 64 do 10000 MB

Pamięć zewnętrzna co najmniej 50 GV

Tryb pracy dla wielu użytkowników

Główne kierunki użytkowania- jest rozwiązywaniem problemów naukowych i technicznych, pracą z dużymi bazami danych, zarządzaniem sieć komputerowa i ich zasoby jako serwery.

Małe komputery. Małe (mini) komputery są niezawodne, niedrogie i łatwe w użyciu, mają nieco mniejsze możliwości niż duże komputery.

Super-mini komputery posiadają:

Pojemność pamięci głównej - 4-512 MB

Pojemność dysku - 2 - 100 GW

· Liczba obsługiwanych użytkowników - 16-512.

Minikomputery nastawione są na zastosowanie jako komputerowe systemy sterujące, w prostych układach modelowania, w zautomatyzowanych układach sterowania, do sterowania procesami technologicznymi.

Superkomputer. To potężne komputery wieloprocesorowe o szybkości setek milionów - dziesiątek miliardów operacji na sekundę.

Nie jest możliwe osiągnięcie takiej wydajności na jednym mikroprocesorze przy użyciu nowoczesnych technologii, ze względu na końcową wartość prędkości propagacji fal elektromagnetycznych (300 000 km/s), ponieważ czas propagacji sygnału na odległość kilku milimetrów staje się proporcjonalny do czas wykonania jednej operacji. Dlatego superkomputery powstają w postaci wysoce równoległych wieloprocesorowych systemów obliczeniowych.

Obecnie na świecie istnieje kilka tysięcy superkomputerów, począwszy od prostego biurowego Cray EL do potężnego Cray 3, SX-X firmy NEC, VP2000 firmy Fujitsu (Japonia), VPP 500 firmy Siemens (Niemcy).

Mikrokomputer lub komputer osobisty. Komputer musi mieć cechy, które spełniają wymagania ogólnej dostępności i wszechstronności:

Niska cena

Autonomia działania

· Elastyczność architektury, która umożliwia adaptację w dziedzinie edukacji, nauki, zarządzania, w życiu codziennym;

· Przyjazność systemu operacyjnego;

· Wysoka niezawodność (ponad 5000 godzin MTBF).

Większość z nich jest zasilana samodzielnie przez baterie, ale można je podłączyć do sieci.

Komputery specjalne. Komputery specjalne koncentruje się na rozwiązywaniu specjalnych problemów obliczeniowych lub problemów sterowania. Mikrokalkulatory elektroniczne można również uznać za specjalny komputer. Program wykonywany przez procesor znajduje się w pamięci ROM lub w pamięci RAM, a ponieważ maszyna zwykle rozwiązuje jeden problem, potem zmieniają się tylko dane. Jest to wygodne (program jest przechowywany w pamięci ROM), w tym przypadku wzrasta niezawodność i szybkość komputera. Takie podejście jest często stosowane w komputerach pokładowych, sterowaniu trybem pracy kamery, kamery filmowej oraz w symulatorach sportowych.

Pojęcie zasad działania komputera

Architektura nowoczesnych komputerów osobistych opiera się na zasadzie modułowej magistrali. Zasada modułowa pozwala konsumentowi dokończyć wymaganą konfigurację komputera i, jeśli to konieczne, zaktualizować go. Modułowa organizacja komputera oparta jest na zasadzie magistrali (trasy) wymiany informacji między urządzeniami.

Szkielet obejmuje trzy magistrale wielobitowe:

magistrala danych,

Autobus adresowy

· I magistrala sterująca.

Szyny zbiorcze to linie wielożyłowe.

Magistrala danych. Na tej magistrali dane są przesyłane między różnymi urządzeniami. Na przykład dane odczytane z pamięci głównej można przesłać do procesora w celu przetworzenia, a następnie odebrane dane można odesłać z powrotem do pamięci głównej w celu przechowywania. Dzięki temu dane na szynie danych mogą być przesyłane z urządzenia do urządzenia w dowolnym kierunku.

Szerokość bitowa szyny danych jest określona przez szerokość bitową procesora, tj. liczba bitów przetwarzanych przez procesor w jednym cyklu zegara. Pojemność bitowa procesorów stale wzrasta wraz z rozwojem technologii komputerowej.

Szyna adresowa. Wybór urządzenia lub komórki pamięci, z której dane są przesyłane lub odczytywane przez magistralę danych, jest dokonywany przez procesor. Każde urządzenie lub komórka RAM ma swój własny adres. Adres jest przesyłany magistralą adresową, a sygnały są przesyłane wzdłuż niej w jednym kierunku od procesora do pamięci operacyjnej i urządzeń (magistrala jednokierunkowa). Szerokość szyny adresowej określa przestrzeń adresową procesora, tj. liczba komórek pamięci, które mogą mieć unikalne adresy. Szerokość bitowa szyny adresowej stale rośnie i we współczesnych komputerach osobistych wynosi 32 bity.

Szyna sterująca. Przez magistralę sterującą przesyłane są sygnały, które określają charakter wymiany informacji wzdłuż autostrady. Sygnały sterujące określają, jaką operację odczytywać lub zapisywać informacje z pamięci do wykonania, synchronizować wymianę informacji między urządzeniami itp.

Zdecydowana większość komputerów opiera się na następujących ogólne zasady sformułowany w 1945 roku przez amerykańskiego naukowca Jana von Neumanna.

1. Zasada zaprogramowanego sterowania. Program składa się z zestawu instrukcji, które są wykonywane automatycznie przez procesor w określonej kolejności.Program jest pobierany z pamięci za pomocą licznik poleceń. Ten rejestr procesora sekwencyjnie zwiększa adres następnej zapisanej w nim instrukcji o długość instrukcji. A ponieważ polecenia programu są umieszczone w pamięci jeden po drugim, w ten sposób zorganizowany jest wybór łańcucha poleceń z kolejno rozmieszczonych komórek pamięci. Jeśli po wykonaniu polecenia musisz przejść nie do następnego, ale do jakiegoś innego, użyj poleceń warunkowy lub bezwarunkowy skok, które wprowadzają do licznika poleceń numer komórki pamięci zawierającej następne polecenie. Pobieranie poleceń z pamięci zatrzymuje się po osiągnięciu i wykonaniu polecenia „stop”. Zatem, procesor wykonuje program automatycznie, bez interwencji człowieka.

2. Zasada jednorodności pamięci. Programy i dane są przechowywane w tej samej pamięci, więc komputer nie może odróżnić, co jest przechowywane w danej lokalizacji pamięci — liczby, tekstu lub polecenia. Możesz wykonywać te same czynności na poleceniach, co na danych, a to otwiera szereg możliwości. Na przykład, program w trakcie jego wykonywania może również zostać poddany obróbce, co pozwala określić w samym programie zasady uzyskiwania niektórych jego części (tak jest zorganizowane wykonywanie pętli i podprogramów w programie) Ponadto polecenia jednego programu mogą być odbierane jako wyniki wykonania innego programu. Ta zasada opiera się na metody transmisji- tłumaczenie tekstu programu z języka programowania wysokiego poziomu na język konkretnej maszyny.

3. Zasada kierowania. Strukturalnie pamięć główna składa się z komórek o zmienionej numeracji. Każda komórka jest dostępna dla procesora w dowolnym momencie. W związku z tym możliwe jest nadanie nazw obszarom pamięci, tak aby zapisane w nich wartości były później dostępne lub zmieniane podczas wykonywania programów korzystających z przypisanych nazw. Komputery zbudowane na wymienionych zasadach są tego typu von Neumanna. Ale są komputery, które zasadniczo różnią się od komputerów von Neumanna. Dla nich np. zasada sterowania programem może nie być spełniona, to znaczy mogą działać bez licznika rozkazów wskazującego aktualnie wykonywane polecenie programu. Te komputery nie muszą nadawać jej nazwy, aby odwoływać się do zmiennej w pamięci. Takie komputery nazywają się nie von Neumann.

Główne elementy komputera osobistego

Komputer ma modułowa konstrukcja obejmujący:

Jednostka systemowa

Metalowa obudowa z zasilaczem. Obecnie jednostki systemowe produkowane są w standardzie ATX, wymiary 21x42x40cm, zasilanie 230W, napięcie pracy 210-240V, pola 3x5,25” i 2x3,5”, automatyczne wyłączenie po zakończeniu pracy. W obudowie znajduje się również głośnik.

1.1. Płyta systemowa (matka)(płyta główna), która zawiera różne urządzenia zawarte w jednostce systemowej. Konstrukcja płyty głównej wykonana jest na zasadzie konstruktora modułowego, co pozwala każdemu użytkownikowi na łatwą wymianę uszkodzonych lub przestarzałych elementów jednostki systemowej. Na płyta główna są dołączone:

a) procesor (CPU - Central Processing Unit) - duży układ scalony na chipie. Wykonuje operacje logiczne i arytmetyczne, steruje pracą komputera. Procesor jest scharakteryzowany przez producenta i częstotliwość zegara... Najbardziej znanymi producentami są Intel i AMD. Procesory mają swoje własne nazwy Athlon, Pentium 4, Celeron itp. Częstotliwość zegara określa prędkość procesora i jest mierzona w hercach (1 \ s). Tak więc Pentium 4 2,2 GHz ma częstotliwość zegara 220 000 000 Hz (wykonuje ponad 2 miliardy operacji na sekundę). Kolejną cechą procesora jest obecność pamięć podręczna- nawet szybszy niż pamięć RAM, która przechowuje dane najczęściej używane przez procesor. Pamięć podręczna to bufor między procesorem a pamięcią RAM. Pamięć podręczna jest całkowicie przezroczysta i nie można jej wykryć programowo. Pamięć podręczna zmniejsza całkowitą liczbę cykli zegara procesora podczas dostępu do pamięci RAM.

b) Koprocesor (FPU - Jednostka zmiennoprzecinkowa). Wbudowany w procesor. Wykonuje arytmetykę zmiennoprzecinkową.

v) Kontrolery - mikroukłady odpowiedzialne za działanie różnych urządzeń komputerowych (klawiatura, dysk twardy, FDD, mysz itp.). Obejmuje to również mikroukład ROM (pamięć tylko do odczytu), w którym przechowywany jest ROM-BIOS.

d) Sloty(busy) - złącza (ISA, PCI, SCSI, AGP itp.) Dla różnych urządzeń (RAM, karta graficzna itp.).

Magistrala to w rzeczywistości zestaw przewodów (linii), które łączą różne elementy komputera, aby zasilać je i wymieniać dane. Istniejące magistrale: ISA (częstotliwość - 8 MHz, liczba bitów - 16, szybkość transmisji danych - 16 Mb/s),

mi) Pamięć o dostępie swobodnym (RAM, RAM - Random Access Memory (typy SIMM, DIMM (Dual Inline Memory Module), DRAM (Dynamic RAM), SDRAM (Synchronous DRAM), RDRAM)) - mikroukłady używane do krótkotrwałego przechowywania instrukcji pośrednich, wartości obliczeń wykonywanych przez CPU oraz innych danych. W tym samym miejscu, w celu zwiększenia wydajności, są przechowywane programy wykonywalne... RAM - szybka pamięć z czasem regeneracji 7 · 10 -9 sek. Pojemności do 1GB. Zasilanie 3,3V.

mi) Karta graficzna (akcelerator wideo) – urządzenie rozszerzające możliwości i przyspieszające pracę z grafiką. Karta graficzna posiada własną pamięć wideo (16, 32, 64, 128 MB) do przechowywania informacji graficznych oraz procesor graficzny (GPU - Graphic Processor Unit), który przejmuje obliczenia podczas pracy z grafiką 3D i wideo. GPU działa z częstotliwością 350MHz i zawiera 60mln. tranzystory. Obsługuje rozdzielczość 2048x1536 60Hz przy 32-bitowym kolorze. Wydajność: 286 milionów pikseli/sek. Może mieć wejście TV i wideo. Obsługiwane efekty: przezroczystość i przezroczystość, cieniowanie (uzyskiwanie realistycznego oświetlenia), odblaski, oświetlenie kolorowe (źródła światła o różnych kolorach), rozmycie, trójwymiarowość, zamglenie, odbicie, odbicie w zakrzywionym lustrze, drgania powierzchni, zniekształcenie obrazu spowodowane przez wodę i ciepłego powietrza, transformacja zniekształceń za pomocą algorytmów szumowych, imitacja chmur na niebie itp.

g) Karta dźwiękowa - urządzenie zwiększające możliwości dźwiękowe komputera. Dźwięki generowane są przy użyciu próbek dźwięków o różnych barwach zapisanych w pamięci (32MB). Jednocześnie odtwarzanych jest do 1024 dźwięków. Obsługiwane są różne efekty. Może mieć wejście/wyjście liniowe, wyjście słuchawkowe, wejście mikrofonowe, gniazdo joysticka, wejście automatycznej sekretarki, analogowe i cyfrowe wejście audio CD.

h) Karta sieciowa - urządzenie odpowiedzialne za podłączenie komputera do sieci w celu wymiany informacji.

Oprócz płyty głównej jednostka systemowa zawiera:

1.2. Dysk twardy(dysk twardy, HDD - Hard Disk Drive) - hermetycznie zamknięta obudowa z obrotowymi dyskami magnetycznymi i głowicami magnetycznymi. Służy do długoterminowego przechowywania informacji w postaci plików (programy, teksty, grafika, fotografia, muzyka, wideo). Pojemność - 75 Gb, rozmiar bufora 1-2 Mb, prędkość transmisji danych 66,6 Mb/s. Maksymalna prędkość obrotowa wrzeciona - 10 000, 15 000 obr./min. IBM HDD ma pojemność 120 GB, prędkość obrotowa wrzeciona to 7200 obr./min.

1.3. Stacja dyskietek(stacja dyskietek, dyskietka, FDD - Floppy Disk Drive) - urządzenie służące do zapisu/odczytu informacji z dyskietek, które można przenieść z komputera na komputer. Pojemność dyskietki: 1,22MB (rozmiar 5,25"" (1"" = 2,54cm)), 1,44MB (rozmiar 3,5""). 1,44 MB odpowiada 620 stronom tekstu.

1.4. CD-ROM(Compact Disc Read Only Memory) - urządzenie, które tylko odczytuje informacje z płyty CD. Informacje binarne z powierzchni CD są odczytywane przez wiązkę laserową. Pojemność CD - 640MB = 74min. muzyka = 150 000 p. tekst. Prędkość obrotowa wrzeciona to 8560 obr/min, rozmiar bufora to 128Kb, maksymalna szybkość przesyłania danych to 33,3Mb/s. Przeskoki i przerwy podczas odtwarzania wideo są powodem niezapełnienia lub przepełnienia bufora służącego do pośredniego przechowywania przesyłanych danych. Jest regulacja głośności i wyjście słuchawkowe (do słuchania płyt CD).

1.5. CD-R(Compact Disc Recorder) – urządzenie służące do jednorazowego odczytu i zapisu informacji na płycie CD. Nagranie opiera się na zmianie właściwości odblaskowych materiału podłoża CD pod działaniem wiązki laserowej.

1.6. DVD-ROM dyski (cyfrowe dyski wideo) mają znacznie większą pojemność informacyjną (do 17 GB), ponieważ informacje mogą być zapisane z dwóch stron, w dwóch warstwach z jednej strony, a same ścieżki są cieńsze.

Pierwsza generacja napędów DVD-ROM zapewniała prędkość odczytu około 1,3 MB/s. Obecnie płyty DVD-ROM o 5 prędkościach osiągają prędkość odczytu do 6,8 MB/s.

istnieje DVD-R dyski (R - zapisywalne), które są w kolorze złotym. Specjalne napędy DVD-R posiadają wystarczająco mocny laser, który w procesie zapisu informacji zmienia współczynnik odbicia obszarów powierzchni nagrywanej płyty. Informacje na takich płytach można nagrać tylko raz.

1.7. Istnieje również CD-RW oraz DVD-RW dyski (RW - Rewritable, Rewritable), które mają „platynowy” odcień. Specjalne napędy CD-RW i DVD-RW w procesie zapisu informacji zmieniają również współczynnik odbicia niektórych obszarów powierzchni płyty, jednak informacje na takich płytach mogą być nagrywane wielokrotnie. Zarejestrowane informacje przed przepisywaniem są „usuwane” poprzez nagrzewanie laserem fragmentów powierzchni płyty.

Skład komputera, oprócz jednostki systemowej, obejmuje następujące urządzenia wejścia-wyjścia.

2. Monitoruj(wyświetlacz) - graficzne urządzenie wyjściowe informacji. Istnieją cyfrowe i ciekłokrystaliczne. Rozmiary po przekątnej - 14 ”, 15 ”, 17 ”, 19 ”, 21 ”, 24 ”. Rozmiar piksela - 0,2-0,3 mm. Szybkość klatek - 77Hz @ 1920x1200 pikseli, 85Hz @ 1280x1024, 160Hz @ 800x600. Liczba kolorów jest określona przez liczbę bitów na piksel i może wynosić 256 (2 8, gdzie 8 to liczba bitów), 65536 (2 16, tryb High Color), 16 777 216 (2 24, tryb True Color , może 2 32) ... Dostępne są monitory katodowe i LCD. Monitory wykorzystują system edukacji kolorystycznej RGB, tj. kolor uzyskuje się mieszając 3 podstawowe kolory: czerwony (czerwony), zielony (zielony) i niebieski (niebieski).

3. Klawiatura(klawiatura) - urządzenie do wprowadzania poleceń i informacji symbolicznych (108 klawiszy). Łączy się z interfejsem szeregowym (port COM).

4. Manipulator typu myszy(mysz) - urządzenie do wprowadzania poleceń. Mysz 3-przyciskowa z rolką przewijania w standardzie.

5. Urządzenie drukujące(drukarka) – urządzenie do wyświetlania informacji na papierze, folii lub innej powierzchni. Łączy się z interfejsem równoległym (port LPT). USB (Universal Serial Bus) to uniwersalna magistrala szeregowa, która zastępuje przestarzałe porty COM i LPT.

a) Matryca. Obraz tworzą igły przebijające taśmę barwiącą.

b) Strumień. Obraz tworzą krople farby wyrzucane z dysz (do 256). Prędkość kropli do 40m/s.

v) Laser. Obraz przenoszony jest na papier ze specjalnego bębna, naelektryzowanego przez laser, do którego przyciągane są cząsteczki atramentu (tonera).

6. Skaner- urządzenie do wprowadzania obrazów do komputera. Jest instrukcja, tablet, bęben.

7. Modem(Modulator-DEModulator) – urządzenie umożliwiające wymianę informacji między komputerami za pośrednictwem kanałów analogowych lub cyfrowych. Modemy różnią się między sobą maksymalną szybkością przesyłania danych (2400, 9600, 14400, 19200, 28800, 33600, 56000 bitów na sekundę), obsługiwaną przez protokoły komunikacyjne. Istnieją modemy wewnętrzne i zewnętrzne.