Funktionsweise der Mensch / Computer-Schnittstelle (Infografiken)

Pin
Send
Share
Send

Die lange Geschichte der Benutzeroberflächen erstreckt sich über die Jahrzehnte von den primitiven Lochkarten-Tagen der 1950er Jahre über die getippten Befehlszeilen der 1960er Jahre bis zu den bekannten Fenstern und Symbolen von heute und darüber hinaus.

Drei Faktoren begrenzen und ermöglichen die Entwicklung von Mensch / Computer-Schnittstellen:

  • Rechenleistung: Zunehmend leistungsfähige Computerhardware ermöglicht komplexere Software-Interaktionen.
  • Die Vorstellungskraft der Erfinder: Softwareentwickler stellen sich neue Interaktionen vor, die die zunehmende Computerleistung nutzen.
  • Der Markt: Angetrieben sowohl von großen Firmenkunden als auch von sehr beliebten Consumer-Gadgets wie dem iPad.

Eine Zeitleiste mit Meilensteinen der Computerschnittstelle:

1822: Die Babbage Analytical Engine war ein Konzept aus der viktorianischen Zeit, das mehr als ein Jahrhundert vor seiner Zeit ins Auge gefasst wurde. Dieser mechanische Computer wurde durch physikalische Manipulation von Nocken, Kupplungen, Kurbeln und Zahnrädern programmiert.

1950er Jahre: Lochkarten wurden erstmals im 18. Jahrhundert zur Steuerung automatischer Textilwebstühle verwendet. Bis zum Ende des 19. Jahrhunderts wurden die Karten zur Eingabe von Daten in einfache Tabelliermaschinen verwendet. Das Aufkommen elektronischer Computer in den 1950er Jahren führte dazu, dass die Lochkarten von IBM das wichtigste Mittel zur Eingabe von Daten und Befehlen in Computer wurden.

1960er Jahre: Die Befehlszeilenschnittstelle (Command Line Interface, CLI). Teletyp-Tastaturen wurden an frühe Computer angeschlossen, damit Benutzer ihre Befehle eingeben konnten. Später wurden Kathodenstrahlröhren (CRTs) als Anzeigegeräte verwendet, aber die Interaktion mit dem Computer blieb eine reine Textinteraktion.

1951: Der Lichtstift. Der am MIT entwickelte Stift ist ein lichtempfindlicher Stift, der für die Verwendung mit CRT-Monitoren für Vakuumröhren mit Glasfläche entwickelt wurde. Der Stift erkennt Helligkeitsänderungen auf dem Bildschirm.

1952: Der Trackball. Ursprünglich für Flugsicherung und militärische Systeme entwickelt, wurde der Trackball 1964 von MIT-Wissenschaftlern für den Computereinsatz angepasst. Wenn ein kleiner Ball vom Benutzer gedreht wird, erfassen Sensoren die Orientierungsänderungen des Balls, die dann in Bewegungen in übersetzt werden die Position eines Cursors auf dem Computerbildschirm.

1963: Die Maus. Douglas Englebart und Bill English entwickelten die erste Computermaus am Stanford Research Institute in Palo Alto, Kalifornien. Das Gerät war ein Holzblock mit einem einzigen Knopf und zwei senkrecht zueinander angeordneten Zahnrädern.

Während ihrer Arbeit bei Xerox PARC ersetzten Bill English und Jack Hawley 1972 die beiden Rollenräder durch ein Metallkugellager, um die Bewegung zu verfolgen. Der Ball ermöglichte es der Maus, sich in jede Richtung zu bewegen, nicht nur auf einer Achse wie bei der ursprünglichen Maus.

1980 wurde die optische Maus gleichzeitig von zwei verschiedenen Forschern entwickelt. Beide benötigten ein spezielles Mauspad und verwendeten spezielle Sensoren, um Licht und Dunkelheit zu erkennen. Heutige optische Mäuse können auf jeder Oberfläche arbeiten und eine LED oder einen Laser als Lichtquelle verwenden.

1980er Jahre: Die grafische Benutzeroberfläche. Das Xerox Star 8010 war das erste kommerzielle Computersystem, das mit einer Maus sowie einer bitmapierten, fensterbasierten grafischen Benutzeroberfläche (GUI) mit Symbolen und Ordnern ausgestattet war. Diese Technologien wurden ursprünglich für ein experimentelles System namens Alto entwickelt, das am Xerox Palo Alto Research Center (PARC) erfunden wurde.

Die Xerox-Workstation-Systeme waren für den geschäftlichen Gebrauch bestimmt und hatten Preisschilder in Höhe von Zehntausenden von Dollar. Der Apple Macintosh war der erste Computer auf Verbraucherebene, der über eine erweiterte grafische Schwarzweißoberfläche und eine Maus zum Positionieren des Cursors auf dem Bildschirm verfügte.

1984: Multitouch. Die erste transparente Multitouch-Bildschirmüberlagerung wurde von Bob Boie bei Bell Labs entwickelt. Sein Gerät verwendete eine leitende Oberfläche mit angelegter Spannung und eine Reihe von Berührungssensoren, die auf einem CRT-Display (Kathodenstrahlröhre) angeordnet waren. Die natürliche Fähigkeit des menschlichen Körpers, eine elektrische Ladung zu halten, verursacht einen lokalen Ladungsaufbau, wenn die Oberfläche berührt wird, und die Position der Feldstörung kann bestimmt werden, so dass ein Benutzer grafische Objekte mit seinen Fingern manipulieren kann.

2000er Jahre: Natürliche Benutzeroberfläche. Die natürliche Benutzeroberfläche (NUI) erfasst die Körperbewegungen und Sprachbefehle des Benutzers, anstatt die Verwendung von Eingabegeräten wie einer Tastatur oder einem Touchscreen zu erfordern. Microsoft stellte 2009 sein Projekt Natal, später Kinect genannt, vor. Kinect steuert das X-Box 360-Videospielsystem.

Die Zukunft: Direkte Gehirn-Computer-Schnittstelle. Die ultimative Computerschnittstelle wäre Gedankenkontrolle. Die Forschung zur Steuerung eines Computers mit dem Gehirn wurde in den 1970er Jahren begonnen. Invasives BCI erfordert, dass Sensoren in das Gehirn implantiert werden, um Gedankenimpulse zu erfassen. Nicht-invasives BCI liest elektromagnetische Wellen durch den Schädel, ohne dass Implantate erforderlich sind.

Pin
Send
Share
Send