LHC vil revolusjonere fysikk. Kan det revolusjonere Internett for?

Pin
Send
Share
Send

Vi vet allerede at Large Hadron Collider (LHC) vil være det største, dyreste fysikkeksperimentet som noensinne er utført av menneskeheten. Å kollidere relativistiske partikler ved energier som tidligere var utenkelig (opp til 14 TeV-merket i slutten av tiåret) vil generere millioner av partikler (kjent og som ennå ikke er oppdaget), som må spores og kjennetegnes av store partikkeldetektorer. Dette historiske eksperimentet vil kreve en massiv datainnsamling og lagringsinnsats ved å skrive om reglene for databehandling. Hvert femte sekund genererer LHC-kollisjoner tilsvarer en DVD-verdi av data, det vil si en dataproduksjonshastighet på en gigabyte per sekund. For å sette dette i perspektiv kan en gjennomsnittlig husholdningsdatamaskin med veldig god tilkobling kanskje laste ned data med en hastighet på en eller to megabyte per sekund (hvis du er veldig heldig! Jeg får 500 kilobyte / sekund). Så, LHC-ingeniører har designet en ny type databehandlingsmetode som kan lagre og distribuere petabyte (millioner gigabyte) av data til LHC-samarbeidspartnere over hele verden (uten å bli gammel og grå mens du venter på en nedlasting).

I 1990 revolusjonerte European Organization for Nuclear Research (CERN) måten vi lever på. Året før skrev Tim Berners-Lee, en CERN-fysiker, et forslag til elektronisk informasjonshåndtering. Han la frem ideen om at informasjon enkelt kunne overføres over Internett ved hjelp av noe som heter "hypertekst." Da tiden gikk gikk Berners-Lee og samarbeidspartner Robert Cailliau, en systemingeniør også ved CERN, sammen et enkelt informasjonsnettverk for å hjelpe forskere fra CERN å samarbeide og dele informasjon fra deres personlige datamaskiner uten å måtte lagre det på tungvint lagringsenhet. Hypertext gjorde det mulig for brukere å bla gjennom og dele tekst via websider ved å bruke hyperkoblinger. Berners-Lee fortsatte deretter med å opprette en nettleser-redigerer og innså snart at denne nye formen for kommunikasjon kunne deles av et stort antall mennesker. I mai 1990 kalte CERN-forskerne dette nye samarbeidsnettverket Verdensveven. Faktisk var CERN ansvarlig for verdens første nettsted: http://info.cern.ch/ og et tidlig eksempel på hvordan dette nettstedet så ut kan bli funnet via nettstedet World Wide Web Consortium.

Så CERN er ikke fremmed for å håndtere data over Internett, men den splitter nye LHC vil kreve spesiell behandling. Som fremhevet av David Bader, administrerende direktør for høy ytelse databehandling ved Georgia Institute of Technology, er den nåværende båndbredden som Internett tillater en stor flaskehals, noe som gjør andre former for datadeling mer ønskelig. “Hvis jeg ser på LHC og hva den gjør for fremtiden, er det en ting nettet ikke har klart å gjøre med å administrere en fenomenal mengde data, Sa han, og mente at det er lettere å lagre store datasett på terabyte harddisker og deretter sende dem i innlegget til samarbeidspartnere. Selv om CERN hadde tatt for seg samarbeidets karakter av datadeling på World Wide Web, vil dataene LHC vil generere lett overbelaste de små båndbredder som for øyeblikket er tilgjengelige.

Dette er grunnen til at LHC Computing Grid ble designet. Rutenettet håndterer enorm LHC-datasettproduksjon i nivåer, den første (Nivå 0) ligger på stedet ved CERN nær Genève, Sveits. Nivå 0 består av et stort parallelt datanettverk som inneholder 100 000 avanserte CPUer som er satt opp for å lagre og administrere rådataene (1s og 0s binær kode) som pumpes ut av LHC umiddelbart. Det er verdt å merke seg på dette tidspunktet at ikke alle partikkelkollisjonene vil bli oppdaget av sensorene, bare en veldig liten brøkdel kan fanges opp. Selv om bare et relativt lite antall partikler kan oppdages, betyr dette fortsatt et stort output.

Tier 0 administrerer deler av dataene som sendes ut ved å sprite den gjennom dedikerte 10 gigabit per sekund fiberoptiske linjer til 11 Nivå 1 nettsteder over hele Nord-Amerika, Asia og Europa. Dette gjør at samarbeidspartnere som Relativistic Heavy Ion Collider (RHIC) ved Brookhaven National Laboratory i New York kan analysere data fra ALICE-eksperimentet, og sammenligne resultater fra LHC-ionekollisjonene med sine egne tunge ionekollisjonsresultater.

Fra Tier 1 internasjonale datamaskiner blir datasett pakket og sendt til 140 Nivå 2 datanettverk lokalisert ved universiteter, laboratorier og private selskaper over hele verden. Det er på dette tidspunktet forskere vil ha tilgang til datasettene for å utføre konverteringen fra den rå binære koden til brukbar informasjon om partikkelenergier og -baner.

Lagsystemet er bra og bra, men det ville ikke fungere uten en svært effektiv type programvare som kalles "mellomvare". Når du prøver å få tilgang til data, kan det hende at brukeren vil ha informasjon som er spredt i petabytene til data på forskjellige servere i forskjellige formater. En åpen kildekode-mellomvare-plattform som heter Globus vil ha det enorme ansvaret for å samle den nødvendige informasjonen sømløst som om den informasjonen allerede sitter inne på forskerens datamaskin.

Det er denne kombinasjonen av lagsystemet, rask tilkobling og genial programvare som kan utvides utover LHC-prosjektet. I en verden der alt begynner å bli "on demand", kan denne typen teknologi gjøre Internett gjennomsiktig til sluttbrukeren. Det vil være øyeblikkelig tilgang til alt fra data produsert av eksperimenter på den andre siden av planeten, til å se på HD-filmer uten å vente på fremdriftslinjen for nedlasting. Akkurat som Berners-Lees oppfinnelse av HTML, kan LHC Computing Grid revolusjonere hvordan vi bruker Internett.

Kilder: Scientific American, CERN

Pin
Send
Share
Send

Se videoen: Opplev fiskelykke med mobilteknologi. Telenor Norge (Kan 2024).