Slik fungerer det menneskelige / datamaskingrensesnittet (Infographics)

Pin
Send
Share
Send

Den lange historien med brukergrensesnitt spenner over flere tiår fra de primitive stempelkortdagene på 1950-tallet, gjennom de typede kommandolinjene på 1960-tallet, til de velkjente vinduene og ikonene i dag og utover.

Tre faktorer arbeider for å begrense og muliggjøre utvikling av grensesnitt mellom mennesker og datamaskiner:

  • Datakraft: Stadig kraftig datamaskinvare muliggjør mer sofistikerte programvareinteraksjoner.
  • Fantasien til oppfinnere: Programvaredesignere ser for seg nye interaksjoner som drar nytte av å øke datakraften.
  • Markedet: Drevet av både store bedriftskunder og også super-populære forbrukerapparater som iPad.

En tidslinje for datamaskingrensesnitt milepæler:

1822: Babbage Analytical Engine var et viktoriansk tidsbegrep som var tenkt mer enn et århundre før sin tid, denne mekaniske datamaskinen ville ha blitt programmert ved fysisk manipulering av kammer, clutcher, veiv og gir.

1950-tallet: Stansede kort ble først brukt på 1700-tallet for å kontrollere automatiske tekstilvevstoler. På slutten av 1800-tallet ble kortene brukt til å legge inn data i enkle tabuleringsmaskiner. Fremkomsten av elektroniske datamaskiner på 1950-tallet førte til at IBMs stansede kort ble det viktigste middelet til å legge inn data og kommandoer i datamaskiner.

1960-tallet: Command Line Interface (CLI). Teletype-tastaturer ble koblet til tidlige datamaskiner for å tillate brukere å legge inn kommandoer. Senere ble katodestrålerør (CRT) brukt som skjermenheter, men interaksjonen med datamaskinen forble bare en tekst.

1951: The Light Pen. Pennen ble opprettet på MIT og er en lysfølsom pekepinne utviklet for bruk med glass-ansiktsrør CRT-skjermer. Pennen kjenner endringer i lysstyrken på skjermen.

1952: Trackball. Trackball ble opprinnelig utviklet for luftkontroll og militære systemer, og ble tilpasset for datamaskinbruk av MIT-forskere i 1964. Når en liten ball roteres av brukeren, oppdager sensorer endringene i ballens orientering, som deretter blir oversatt til bevegelser i plasseringen av en markør på dataskjermen.

1963: Musen. Douglas Englebart og Bill English utviklet den første datamus ved Stanford Research Institute i Palo Alto, California. Enheten var en treblokk med en knapp og to girhjul plassert vinkelrett på hverandre.

I 1972, mens de jobbet på Xerox PARC, erstattet Bill English og Jack Hawley de to rullehjulene med et metallkulelager for å spore bevegelse. Ballen gjorde det mulig for musen å bevege seg i alle retninger, ikke bare på en akse som den originale musen.

I 1980 ble den optiske musen utviklet samtidig av to forskjellige forskere. Begge krevde en spesiell musematte, og benyttet spesielle sensorer for å oppdage lys og mørke. Dagens optiske mus kan jobbe på alle overflater og bruke en LED eller laser som en lyskilde.

1980-tallet: Det grafiske brukergrensesnittet. Xerox Star 8010 var det første kommersielle datasystemet som kom med en mus, i tillegg til et bitmappet, vindusbasert grafisk brukergrensesnitt (GUI) med ikoner og mapper. Disse teknologiene ble opprinnelig utviklet for et eksperimentelt system kalt Alto, som ble oppfunnet ved Xerox Palo Alto Research Center (PARC).

Xerox arbeidsstasjonssystemer var beregnet på forretningsbruk og hadde prislapper i titusenvis av dollar. Apple Macintosh var den første datamaskinen på forbrukernivå som inkluderer det avanserte grafikkgrensesnittet i svart-hvitt og en mus for å plassere markøren på skjermen.

1984: Multitouch. Det første gjennomsiktige multitouch-skjermoverlegget ble utviklet av Bob Boie på Bell Labs. Enheten hans brukte en ledende overflate med spenning påført over den og en rekke berøringssensorer lagt på toppen av en CRT-skjerm (katodestrålerør). Menneskekroppens naturlige evne til å holde en elektrisk ladning forårsaker en lokal oppbygging av lading når overflaten berøres, og plasseringen av forstyrrelsen i feltet kan bestemmes, noe som gjør det mulig for en bruker å manipulere grafiske objekter med fingrene.

2000-tallet: Naturlig brukergrensesnitt. Det naturlige brukergrensesnittet, eller NUI, registrerer brukerens kroppsbevegelser og stemmekommandoer i stedet for å kreve bruk av inndataenheter som et tastatur eller berøringsskjerm. Microsoft introduserte sitt Project Natal, senere kalt Kinect, i 2009. Kinect kontrollerer X-box 360-videospillsystemet.

Fremtiden: Direkte hjernen-datamaskingrensesnitt. Det ultimate datamaskingrensesnittet ville være tankekontroll. Forskning på å kontrollere en datamaskin med hjernen ble startet på 1970-tallet. Invasiv BCI krever at sensorer blir implantert i hjernen for å oppdage tankeimpulser. Ikke-invasiv BCI leser elektromagnetiske bølger gjennom skallen uten behov for implantater.

Pin
Send
Share
Send