Sådan fungerer den menneskelige / computergrænseflade (Infographics)

Pin
Send
Share
Send

Den lange historie med brugergrænseflader spænder over årtierne fra de primitive stempelkortdage i 1950'erne, gennem de typede kommandolinjer fra 1960'erne, til de velkendte vinduer og ikoner i dag og videre.

Tre faktorer arbejder for både at begrænse og muliggøre udvikling af human / computer interface:

  • Computing Power: Stadigt stærkere computerhardware muliggør mere sofistikerede softwareinteraktioner.
  • Fantasien til opfindere: Softwaredesignere forestiller sig nye interaktioner, der drager fordel af at øge computerens strøm.
  • Markedet: Drevet af både store erhvervskunder og også super-populære forbrugergadgets som iPad.

En tidslinje for milepæle på computergrænsefladen:

1822: Babbage Analytical Engine var et victoriansk æra-koncept, der blev forestillet mere end et århundrede før sin tid, denne mekaniske computer ville være blevet programmeret ved fysisk manipulering af cams, koblinger, krumtap og gear.

1950'erne: Stansede kort blev først brugt i 1700-tallet til at kontrollere automatiske tekstilvæve. I slutningen af ​​det 19. århundrede blev kortene brugt til at indtaste data i enkle tabuleringsmaskiner. Fremkomsten af ​​elektroniske computere i 1950'erne førte til, at IBMs stansede kort blev det primære middel til at indtaste data og kommandoer i computere.

1960'erne: Kommandolinjegrænsefladen (CLI). Teletype-tastaturer var forbundet til tidlige computere for at give brugerne mulighed for at indtaste deres kommandoer. Senere blev katodestrålerør (CRT'er) brugt som displayindretninger, men interaktionen med computeren forblev kun en tekst.

1951: The Light Pen. Oprettet hos MIT og er en lysfølsom stylus, der er udviklet til brug med glas-ansigt-vakuumrør CRT-skærme. Pennen registrerer ændringer i lysstyrken på skærmen.

1952: Trackball. Trackball blev oprindeligt udviklet til lufttrafikstyring og militære systemer og blev tilpasset til computerbrug af MIT-forskere i 1964. Da en lille kugle roteres af brugeren, registrerer sensorer ændringerne i kuglens orientering, som derefter oversættes til bevægelser i placeringen af ​​en markør på computerskærmen.

1963: Musen. Douglas Englebart og Bill English udviklede den første computermus på Stanford Research Institute i Palo Alto, Californien Enheden var en blok af træ med en enkelt knap og to tandhjul placeret vinkelret på hinanden.

I 1972, mens de arbejdede på Xerox PARC, udskiftede Bill English og Jack Hawley de to rullehjul med et metalkugleleje for at spore bevægelse. Bolden gjorde det muligt for musen at bevæge sig i enhver retning, ikke kun på en akse som den originale mus.

I 1980 blev den optiske mus udviklet samtidig af to forskellige forskere. Begge krævede en særlig musematte og brugte specielle sensorer til at registrere lys og mørke. Dagens optiske mus kan arbejde på enhver overflade og bruge en LED eller laser som en lyskilde.

1980'erne: Den grafiske brugergrænseflade. Xerox Star 8010 var det første kommercielle computersystem, der kom med en mus, samt et bitmappet, vinduesbaseret grafisk brugergrænseflade (GUI) med ikoner og mapper. Disse teknologier blev oprindeligt udviklet til et eksperimentelt system kaldet Alto, som blev opfundet i Xerox Palo Alto Research Center (PARC).

Xerox-arbejdsstationssystemerne var beregnet til forretningsbrug og havde prismærker i titusinder af dollars. Apple Macintosh var den første computer på forbrugerniveau, der inkluderede den avancerede sort / hvide grafiske grænseflade og en mus til placering af markøren på skærmen.

1984: Multitouch. Den første gennemsigtige multitouch-skærmoverlay blev udviklet af Bob Boie på Bell Labs. Hans enhed brugte en ledende overflade med spænding påført over den og en række berøringssensorer lagt oven på en CRT-skærm (katodestrålerør). Den menneskelige krops naturlige evne til at holde en elektrisk ladning forårsager en lokal opbygning af ladning, når overfladen røres, og placeringen af ​​forstyrrelsen i marken kan bestemmes, hvilket gør det muligt for en bruger at manipulere grafiske objekter med deres fingre.

2000'erne: Naturlig brugergrænseflade. Den naturlige brugergrænseflade, eller NUI, registrerer brugerens kropsbevægelser og stemmekommandoer snarere end kræver brug af inputenheder, såsom et tastatur eller berøringsskærm. Microsoft introducerede sit Project Natal, senere navngivet Kinect, i 2009. Kinect styrer X-box 360-videospilsystemet.

Fremtiden: Direkte hjerne-computergrænseflade. Den ultimative computergrænseflade ville være tænkt kontrol. Forskning i kontrol af en computer med hjernen blev begyndt i 1970'erne. Invasiv BCI kræver, at sensorer implanteres i hjernen for at opdage tankeimpulser. Ikke-invasiv BCI læser elektromagnetiske bølger gennem kraniet uden behov for implantater.

Pin
Send
Share
Send