The Information

Auteur: James GLEICK
ISBN: 978-0-375-42372-7
Datum uitgave: 2011

Vertaald en samengevat door Maur BENTEIN in 2016 - 2017

Inhoudsopgave

Proloog

Het Bell Telephone Labs hield zich vooral bezig met het perfectioneren van elektrische communicatieapparatuur: de telegraaf (die de menselijke spraak, omgezet in letters, als een gecodeerde stroom van punt-streepjes verstuurde) en de telefoon (die de spraak rechtstreeks omzette in elektrische signalen). In 1948 werden in dat lab twee uitvindingen gedaan die elkaar wonderwel aanvulden. De eerste uitvinding, die we als 'hardware' kunnen beschouwen, is de uitvinding van de transistor. Die luidde een revolutie in de elektronica en later de digitale wereld in. Naast die 'hardware' werd door een zonderling, Claude Shannon genaamd, de 'software' geschreven voor de revolutie in communicatiewetenschappen. Met het pamflet 'A Mathematical Theory of Communication' legde hij de grondslag voor de digitale informatietheorie, met de 'bit' als eenheid van informatie.

Zo'n theorie komt natuurlijk niet zomaar op in iemands gedachten. Reeds in 1943 ontmoetten Alan Turing (bekend van de geslaagde poging om de Enigmacode van de Duitsers te breken) en Shannon elkaar om ideeën uit te wisselen over cryptografie. Shannon speelde is 1948 met ideeën over snellere transmissie van TV-signalen door middel van compressie. Ook ideeën over logica en bijhorende circuits en de verborgen code opgeslagen in genen leidden uiteindelijk tot de formulering van een theorie over informatie.

Het woord 'informatie' is overigens nieuw voor de beschrijving van het begrip. Vroeger gebruikte men hiervoor een ander woord: 'intelligence'.

Shannon's theorie slaat bruggen tussen de begrippen 'informatie' en 'onzekerheid', 'entropie' en 'chaos'. Het verbindt de wiskunde met de elektrotechniek en computerwetenschappen. Merkwaardig is dat in het Engels wordt gesproken over 'computer science', terwijl men in de andere Europese talen het woord 'informatica' hanteert.

Mettertijd doordrong de informatica alle wetenschappen, zelfs weinig verwante wetenschappen zoals biologie. Begrippen als genen die gecodeerd werden en levende materie met geheugen leidde tot de genetica. Informatie is hierbij een connotatie van het universele principe van orde en organisatie. Wat in de biologie genen zijn, is in de cultuur nu als 'memen' gekend (eenheden van cultuur), met een propagator als bron en replicatoren om de 'meme' in stand te houden en te transformeren. Zelfs de harde wetenschap fysica moest eraan geloven. Tegenwoordig hanteert men daar het gezegde "It from bit". Heel het universum wordt daarbij aanzien als een machine die informatie verwerkt. Kwantumverstrengeling codeert informatie, gemeten in 'qubits'. Interacties op atomaire en nog kleinere schalen ziet men als uitwisseling van informatie.

De technologische basis van informatie was het alfabet. Faxmachines, kasregisters en encyclopedieën zijn informatieverwerkings- en opslagtechnologieën met als basis het woord en dus het alfabet. Hierbij is het interessant en zeer eigenaardig te noteren dat geen enkel van de oude informatietechnologieën volledig achterhaald is; tot op heden blijven ze hardnekkig voortleven.

[NVDR - Net zoals je, eenmaal je het alfabet kent, je het niet meer kunt 'ontleren', kun je ook niet meer iets 'ontdoen' van informatie. Je kunt niet terugkeren naar een toestand van 'onwetendheid'.]


Terug naar de inhoudsopgave


1 - Pratende trommels

De eerste meldingen over de Afrikaanse tamtams gaan terug tot 1730. Over de betekenis van de signalen werd pas veel later geschreven. Missionaris Clarke besloot dat de taal van de trommels tegelijk formulerend en fluïde was, en dat de tonen de klanken van de gesproken taal weerspiegelden, maar hij wist niet waarom.

In de stille nachtlucht op een rivier draagt het geluid van de tamtam 6 tot 7 mijl. Een bericht kon via een relaissysteem over verschillende dorpen in 1 uur ongeveer 100 mijl ver worden gebracht. Op een ondoordringbaar continent is deze vorm van transmissie vele malen sneller dan de beste koeriers op de snelste paarden op het Europese continent in de oudheid.

Toch kenden de Grieken reeds in de 12e eeuw v. Chr. bij de slag van Troje een systeem van vuurbakens. Op die manier kon het nieuws van de val van Troje nog dezelfde nacht 400 mijl verder in Mycene worden opgevangen. Het "bericht" kon slechts bestaan uit 1 bit. Wanneer meer capaciteit nodig was, gebruikten de mensen vlaggen, hoorns, rooksignalen en lichtflitsen.

Rond 1841, toen het Westen de pratende trommels ontdekte, worstelde Morse met het opstellen van zijn beroemde code. De telegraaftechnologie liet slechts korte pulsen toe. Zijn eerste idee was om aan alle woorden van de Engelse taal een nummer toe te kennen en de nummers te verzenden (1e patent in 1840). Dergelijk systeem werd later toegepast in de Chinese telegrafie. Morse stapte echter snel over tot het coderen van de letters van het alfabet. Daarbij werd eerst gedacht aan kliks en pauzes per letter, dan pas aan korte en lange pulsen. De meest frequent gebruikte letters moesten natuurlijk de kortste codes krijgen. Gezien er geen statistische gegevens beschikbaar waren over de frequentie van de letters in het Engels, werden deze gegevens opgehaald bij een bezoek aan de letterzetterij van een lokale krant. De hoeveelheid van de letters die de letterzetters nodig hadden voor een krantenpagina gaf een idee van de letterfrequentie in de taal. Achteraf bleek deze aanpak binnen de 115% te liggen van de optimale verdeling.

Ook de Afrikaanse drummers hadden hetzelfde probleem. Hoe een volledige taal te coderen naar een 1-dimensionele geluidstroom? Voor de drummers was de tamtam het resultaat van een eeuwenlang proces van sociale evolutie. Maar in tegenstelling tot Morse, die van een tussenlaag (het alfabet) gebruik maakte, was het getrommel van de tamtam een gemetamorfoseerde spreektaal. Een Engelse missionaris, Carrington genaamd (° 1914), ontdekte dit in Congo toen hij zelf leerde drummen. Hij publiceerde zijn research in 1949.

Afrikaanse talen zijn tonaal, met hoge en lage klanken. Indo-Europese talen zijn dat quasi niet (behalve voor het einde van een zin in de vragende vorm; vergelijk ja en ja?↑). De trommels moeten dus 2 tonen (hoog en laag) kunnen produceren. Het overbrengen van de gesproken taal naar de bisone drum brengt echter enorme verliezen met zich mee: geen medeklinkers, maar ook geen klinkers meer. Wat overbleef was dus zeer dubbelzinnig. Om dit te compenseren voegt de drummer een kleine zin toe aan ieder woord. Deze extra context doet de mogelijkheden van interpretatie afnemen totdat er geen verwarring meer mogelijk is. Bijvoorbeeld zijn songe (= de maan) en koko (= het hoen) twee woorden met twee hoge tonen [¯ ¯]. Om deze van elkaar te onderscheiden zal de drummer dit doen: songe li tange la manga (= de maan kijkt neer op de aarde) en koko olongo la bokiokio (= het hoen, het kleintje dat kiokio zegt). De drummers bezitten enige vrijheid in de omschrijvingen, maar ze leren allemaal om te beginnen de traditionele omschrijvingen, zelfs als deze omschrijvingen heden ten dage niet meer gebruikt worden in de gesproken taal.

De drumtaal had dus reeds 'correctiebits' ingebouwd. Elke natuurlijke taal bezit redundantie. Zo verstaan we ook teksten en spraak die vol met fouten zitten of moeilijk te verstaan zijn in een luidruchtige omgeving. Vandaar ook het gebruik van bravo en victor in een radiocommunicatie met ruis. Ralph Hartley (Bell Labs) formuleerde het zo: H = n.log(s), waarbij H = de hoeveelheid informatie, n = het aantal symbolen in het bericht en s = het aantal symbolen in de taal. Hoe minder symbolen beschikbaar zijn in de taal, hoe meer er moeten worden verstuurd om dezelfde hoeveelheid informatie over te brengen. Voor de Afrikaanse drummers betekende dat zij 8 maal het gesproken equivalent moesten versturen. Het is ironisch dat vlak na de ontdekking van de pratende trommels in de jaren 1950 het gebruik ervan in Afrika verdween. Nu hebben ze allemaal een mobieltje.


Terug naar de inhoudsopgave


2 - De hardnekkigheid van het woord

In de orale culturen heeft de uitdrukking 'iets opzoeken' geen betekenis. Geluiden kun je wel herhalen maar niet 'zoeken'. Het duurt enkel millenia om het gesproken woord over te zetten in een systeem van tekens, maar daarna is er geen 'weg terug' meer.

We zouden kunnen de era van de elektronica met beelden en geluiden als een nieuwe orale tijd beschouwen, maar dan steeds tegen een achtergrond van omnipresente gedrukte woorden. Zo is het ook met 'cyberspace'. Taal, hoe goed ontwikkeld ook, is geen technologie. Taal organiseert onze gedachten, met logica en geschiedenis tot gevolg. Taal kan niet afzonderlijk gezien worden van de menselijke geest. Het geschrift daarentegen is een product van gereedschappen, en is een stuk gereedschap op zich. Plato (die Socrates citeerde) waarschuwde dat het gebruik van het geschrift zou leiden tot een geestelijke verarming omdat het geheugen niet meer zou worden geoefend.

De geschreven karakters waren abstracties van de gesproken woorden en geluiden. Het scheidde de luisteraar en de spreker in afstand en tijd. De diepere gevolgen van het geschrift waren onvoorstelbaar voor het individu en de cultuur: de doden konden nu spreken tegen de levenden. Het schrift werd een artificieel geheugen. Het totale volume van een taal nam daarmee toe. Een orale taal bevat enkele duizenden woorden, de Engelse taal nu meer dan 1 miljoen woorden.

Wanneer we schrijven laten we een papieren spoor na. Een stem vervaagt snel en kan enkel worden opgeslagen in het geheugen van de luisteraar. Ze is dus maar zo bestendig als een man van vlees en bloed. Het geschreven woord heeft de bestendigheid van inkt, papier en de lezers. Daarenboven kan het geschrift worden 'her-opgenomen' met nieuwe informatie-architecturen, zoals de geschiedenis, de wetten, de wiskunde, ... De kracht hiervan ligt in de methodologie: codering, substitutie van tekens door dingen.

In het 30.000 jaar oude paleolithicum werden de eerste tekeningen op rotswanden en in klei gemaakt, als een kristallisatie van een mentale toestand van de maker. Kerven in stokken en beenderen hadden hetzelfde doel: het bewaren van informatie. Daarna begon de metamorfose van pictografie (het maken van de afbeelding) naar ideografie (het optekenen van het idee) ten tenslotte naar de logografie (het woord schrijven).

Het Chinese schrift ontstond tussen 8000 en 4500 jaar geleden en omvat 50.000 symbolen (6000 gebruikelijke) en is het meest complexe schrift. Aan de andere zijde is het moderne alfabet het meest eenvoudige. Het ontstond zo'n 1500 jaar v. Chr. in het politiek onstabiele Midden-Oosten. Het was een tijdgenoot van het Mesopotaamse cuneïforme schrift en het Egyptische hiëroglyfenstelsel. Die laatsten waren het domein van de priesterkasten, die meester waren van het schrift en dus van de wetten, maar ze moesten het afleggen tegen de druk voor een snelle communicatievorm. De oude schriften waren conservatief, het nieuwe was pragmatisch. Semitische volkeren gebruikten een 'uitgebeende' versie van het alfabet dat 22 tekens bevatte. Dit alfabet verspreidde zich als een virus; zelfs een kind kon immers 22 symbolen leren. Het alfabet transformeerde zich naar het Griekse, Romeinse, Cyrillische en nog andere alfabetten. Oorspronkelijk hadden de Grieken geen geschreven taal nodig. Het metrum en de redundantie in de poëzie, dienden als geheugensteun, als tijdscapsule voor een hele cultuur. Maar dat werd pas duidelijk wanneer wanneer de grote werken (Ilias, ...) werden neergeschreven in de 7e of 6e eeuw v. Chr.. Het neerschrijven was een culturele schok die irreversibel was. De orale overleveringen en haar technieken waren ten dode opgeschreven.

Het geschreven woord was een hulp voor meer mondaine vormen van twist: petities voor de goden, wetteksten en economische overeenkomsten. Geschriften werden het onderwerp van een nieuwe interesse. Helaas bestond hiervoor in het woordenboek van Homeros nog geen omschrijving. Een nieuw vocabularium zag het licht. Gedichten kregen 'onderwerpen' en 'structuur', hadden een 'plot' en bezaten 'dictie'. Ook de geesteskinderen van Aristoteles over de dialogen van Socrates, zijn medische teksten, enz. hadden nog geen specifieke naam. Een complete wereld van abstracte vormen – volledig gescheiden van het concrete – was nodig en vormde een aanvulling op de bestaande woordenschat.

Aristoteles zelf probeerde de kennis te systematiseren. De bestendigheid van het schrift maakte het mogelijk om structuur op te leggen aan alle kennis, zelfs over de kennis van de kennis. Zo kwam de filosofie tot stand. Kennis kon beginnen zichzelf uit het moeras te tillen. De Grieken brachten alles onder in categorieën, ook de ideeën. Dit laatste was radicaal en vreemd. Plato waarschuwde daarvoor. Hij zei dat de ongeletterden niet in staat zouden zijn om het idee van 'schoonheid' te begrijpen i.p.v. schone dingen: zij "hadden geen levendige patroon in hun zielen". Wat hij daarmee bedoelde was het gebrek aan de discipline van abstractie, het denken. De denkende zelf als het ware begin van bewustzijn. In onze geletterde wereld vergeten we soms dat het geschreven woord een noodzakelijke voorwaarde is voor de bewuste gedachte, en niet andersom. Denken is een zeer speciale vorm van psychische activiteit, zeer oncomfortabel, maar zeer prikkelend en een die een nieuw taalgebruik vereiste.

In een volgende stap naar abstractie gebruikte Aristoteles de categorieën en relaties om een symbolische redeneermethode te ontwikkelen: de logica. Logica kon zich dus ontwikkelen als gevolg van het schrift. Het gesproken woord is immers te vluchtig voor analyse. Als bewijs hiervan volgde de ontwikkeling van de logica na het geschrift dezelfde weg in India en China. De logica van 'waar' en 'vals' ontwikkelt zich in ketens van premisses naar conclusie. Zoiets vergt tijd om iedere stap te analyseren, iets wat onmogelijk is in de spreektaal. Er zijn geen syllogismen te vinden in de werken van Homeros; alles is opgesteld in termen van gebeurtenissen, niet in categorieën. Enkel het geschrift geeft aanleiding tot rationele argumenten en dit liet Aristoteles toe deze argumenten zelf te bestuderen (de eerstvolgende stap).

Veldwerk van de Russische psycholoog Luria, in 1930 bij ongeletterde volkeren in Oezbekistan en Kirgistan, bracht opvallende verschillen aan het licht in de manier waarop ongeletterden enerzijds en weinig geletterden anderzijds dachten. Logica impliceert immers symbolisme: dingen als leden van klassen, met karakteristieken die abstract en algemeen zijn. Voor ongeletterden zijn symbolen als cirkels en vierkanten voorwerpen als 'maan' en 'plaat'; zij kunnen geen logische syllogismen aanvaarden. Geletterde mensen vergeten vaak hun 'bewustzijn' voor woorden en de woord-gerelateerde 'machinerie' van klassificatie, referentie en definitie. Ongeletterden kunnen geen uitleg of definitie geven van een object als 'een boom', laat staan een bepaling van 'een woord'. Om dat laatste te verwezenlijken was een apart, nieuw vocabularium nodig.

Maar het samenspel tussen woord en redenering gaf ook aanleiding tot paradoxen. In China gaf de studie van paradoxen aanleiding tot wat hun historici de 'taalcrisis' noemde, een aanslepend debat over de aard van de taal. Enkele millenia later worstelen de filosofen nog steeds met dergelijke teksten. Gezien paradoxen zich in de taal bevinden of betrekking hebben op de taal, is een manier om ze weg te zuiveren een overstap naar een rigoureuze en pure symbooltaal: de wiskunde. Maar ook in de wiskunde bleven de paradoxen de kop opsteken totdat de logica en de wiskunde samensmolten.

Wiskunde ontstond niet bij de Grieken, want zij erfden het van de Chaldeeën (uit het toenmalige Babylonië - [NVDR: Semitische stammen, rond het begin van het eerste millennium v. Chr., van oorsprong uit het huidige Syrië]). Dat werd pas duidelijk in de 19e eeuw toen men de eerste kleitabletten terugvond. Het cuneïforme geschrift van rond 3000 v. Chr. in Uruk was noch pictografisch (te weinig symbolen), noch alfabetisch (700 tekens). Het hele eerste cuneïforme geschrift uit Sumerië verdween zonder geschreven of gesproken 'erfgenaam'. De kleitabletten van Uruk bevatten geen poëzie. Ze behandelden praktische zaken als nijverheid en bureaucratie. Zelfs toen al bevatte het cuneïforme schrift tekens voor het tellen en meten. Maar het was wachten op het Babylonië van Hammurabi (1750 v. Chr.) voordat er op een systematische wijze cijfers werden gebruikt (een 60-delig systeem). Hiermee berekenden ze lineaire en kwadratische vergelijkingen en Pythagoreïsche getallen, lang voor Pythagoras. Zij berekenden oppervlakten maar bewezen geen stellingen. Zij beschreven wel procedures voor berekeningen zoals we tegenwoordig in computerprogramma's terugvinden. Deze abstracte manier van redeneren zou pas veel later terug het daglicht zien.

Het schrijven bleef een wonderlijk iets te zijn, tot heel laat in de geschiedenis. Zelfs in de 12e eeuw zijn de opstellers van charters op perkament erop betrapt het schrijven en het spreken als onlosmakelijk van elkaar verweven te beschouwen. Zij schreven alsof ze spraken tot een onzichtbare massa. Vele charters eindigden met 'Goodbye'. Vanaf het prille begin van het schrift was er een gevoel van nostalgie en verlies. Ook Plato beschouwde schrijven als schilderen. "Stel een vraag aan een schilderij of een tekst en het antwoord is stilte". Het geschreven woord stond stil, het was bevroren. Maar het liet wel toe de epische werken van Homeros tot op heden te bewaren.

De opmars van de elektrische en elektronische middelen om het geluid van de menselijke stem te bewaren en te propageren is dus een terugkeer naar de prehistorie, naar het gesproken woord. Als het ideaal van communicatie een gesprek is van persoon tot persoon in levende lijve, dan kan je het geschreven woord als een treurige schaduw van het ideaal beschouwen. Diezelfde kritiek hoorde men bij recentere communicatietechnologieën: de telegraaf, de telefoon, de radio, de e-mail. In die zin wordt het ideaal van de transmissie van de mentale toestand van de zender beter benaderd naarmate het aantal betrokken zintuigen stijgt. De stroom van woorden wordt muziek voor onze oren, maar ook voor onze ogen, want we lezen immers niet een tekst woord voor woord. Het menselijk geheugen maakt echter dat grotere pakketten kunnen worden vervat door het geschrift dan door het gehoor. Een terugblik is immers altijd mogelijk. Het gesproken woord is daarentegen meer emotioneel geladen, gericht op de kleine groep, tribaal. Het gesproken woord was echter zonder methode, kennisloos.

Plato's vrees voor het afnemend geheugen, de 'vergetelheid', bleek met de opkomst van ieder nieuwe technologie telkens te worden herhaald. De vrees bleek ongegrond. Er bestaat immers niet zoiets als een 'woordenboek van de geest'. Dat lexicografisch apparaat is, chronologisch gezien, een zeer late toevoeging aan de taal.


Terug naar de inhoudsopgave


3 - Twee "woord"-boeken

Een Engelse dorpsschoolmeester en priester, Robert Cawdrey genaamd, schreef in 1604 een boekje met een alfabetische tabel van gebruikelijke maar moeilijke Engelse woorden, met een uitleg ervan. Het alfabet was toen reeds oud en de orde ervan werd niet meer veranderd sinds de oude Fenicische tijd. Hoewel hij dat zelf zou hebben ontkend leefde de auteur in een tijd van informatie-armoede. Als bewijs daarvan weten vandaag praktisch niets over de persoon van deze mijlpaal in de geschiedenis van de informatie. De auteur zelf worstelde met de spelling van de woorden, getuige zijn verschillende schrijfwijzen voor een en hetzelfde woord in zijn pamflet. Totdan toe waren er immers geen afspraken voor de spelling; alles werd geschreven zoals men het hoorde. De gesproken taal domineerde nog de geschreven taal. Maar daar kwam verandering in door de boekdrukkunst, want die gaf de aanstoot naar een uniforme schrijfwijze voor de woorden. [NVDR: een letterzetter zet immers letter per letter en let op de verschillen ...]

De oorsprong van 'spellen' is Germaans en betekende oorspronkleijk het uitspreken. Pas later werd de betekenis vervormd tot het lezen (letter per letter) en tenslotte rond de tijd van Cawdrey betekende het 'woorden schrijven' (letter per letter).

Zoland Engeland nog geen expansionistische drang had en binnen haar eilandgrenzen bleef was de taal geïsoleerd binnen een relatief kleine bevolking (naar schatting 5 miljoen engelssprekenden). Eenmaal de Engelsen in contact kwamen met de rest van de wereld begon men te beseffen dat het Engels maar een van de vele talen was en de versnelling in handel en transportd door de expansie werd een tweede factor in het consolideren van een uniforme taal. Vreemdelingen vonden het immers eigenaardig dat de Engelse taal zo onzeker was m.b.t. de schrijfwijze en de spelling ervan.

Van alle wereldtalen was het Engels wellicht het meest verhakkelde, met een geschiedenis van continue corruptie en verrijking. De oudste woorden waren afkomstig van de Angelen, Saxen en Jutten, wegens de veroveringen door deze Germaanse stammen in de 5e eeuw. De oorspronkelijke Keltische bevolking en hun taal werden verder westwaards geduwd. Daarna kwmen de Vikingen met hun Noorse en Deense woorden. Latijnse invloeden kwamen via de missionarissen en tenslotte het Frans in het 1e millenium. Die laatse 'invloed' was eerder een stortvloed, linguïstisch gezien. Ook in de tijd van Cawdrey zelf bleven er invloeden van buitenuit bestaan. Hijzelf ergerde zich aan Engelsen die na een buitenlandse reis de vreemde woorden thuis bleven gebruiken. Ook intellectuelen leenden gretig woorden uit het Grieks en het Latijn.

Pas 400 jaar na Cawdrey bracht zijn geestelijke opvolger John Simpson de Oxford English Dictionary (OED) uit. Hij minachtte echter Cawdrey voor zijn non-conformisme tegenover de christelijke waarden van die tijd en deze minachting sloog over op diens werk, o.a. omdat hij de woordenlijst te 'simplistisch' vond. Cawdrey had echter nooit de intentie om alle woorden te verklaren. In 1604 had William Shakespeare het grootste deel van zijn werken reeds geschreven en had een vocabularium van 30.000 woorden gebruikt. Cawdrey's woordenlijst bevatte slechts 2.500 "hard usual" woorden. Hoewel Cawdrey geen bronnen vermeld heeft had hij toch wat geleend bij Edmund Coote die in 1596 een boekje 'The English Schoolemaister' had gepubliceerd, dat vele herdrukken kende, en het glossarium ervan heeft Cawdrey gebruikt.

Het feit dat Cawdrey zijn werk in alfabetische volgorde opstelde is niet evident. Vele geletterde tijdgenoten kenden deze volgorde niet. Cawdrey worstelde ook men de volgorde, want moest deze logisch of algoritmisch zijn? Het was dan ook noodzakelijk dat hij zijn lezers onderwees in het gebruik van de alfabetische volgorde. Anderen voor hem (in andere delen van de wereld) kenden hetzelfde probleem.

De eerste alfabetische lijsten verschenen pas in 250 v. Chr. in teksten van de grote bibliotheek van Alexandrië. De noodzaak voor een dergelijke manier van catalogeren komt slechts naar voor bij het opslaan van grote hoeveelheden gegevens. En natuurlijk moet de gebruikte taal een alfabet hebben. Maar zelfs dan voelt het onnatuurlijk aan, want het dwingt de gebruiker om informatie te scheiden van de betekenis ervan. Woorden worden omgevormd tot ketens van letters. Het alfabetisch ordenen omvat 2 procedures: het organiseren van de lijst en het opzoeken in de lijst. Beide procedures zijn recursief, en ze zijn zeer efficiënt. Bovendien is het systeem bijzonder schaalbaar. De basisoperatie is binair: is de volgende letter groter of kleiner dan de voorgaande?

De eerste Engelstalige alfabetische catalogus werd in 1613 gemaakt voor de Bodleian bibliotheek van Oxford. De eerste catalogus van een universiteitsbibliotheek staat op naam van Leiden en dateert van 2 eeuwen voordien. Ze bevatte 450 boeken. Andere manieren om woorden te ordenen dateren van veel vroeger. De Erya in China dateert van de 3e eeuw v. Chr. en ordent 2000 begrippen volgens categorieën.

In woordenboeken krijgen de begrippen een betekenis d.m.v. definities. Een vertalend woordenboek in 2 talen is daarbij gemakkelijk te maken, maar een verklarend woordenboek is veel moeilijker. Cawdrey deed het zeer voorzichtig. Voor hem was de relatie tussen het ding en het woord zoals een object en haar schaduw. Cawdrey gebruikte veelal synoniemen of de letter "k." van "... kind of ...". Lexicografisch is dat zeer primitief te noemen, want niet alles is een reëel object. Immateriële objecten en zaken uit de wetenschappen blijken immers veel moeilijker te omschrijven.

Niet alleen woorden evolueerden, ook de kennis zat in een stroomversnelling. De taal was bezig zichzelf te onderzoeken, filosofen begonnen een interesse te tonen voor de natuur van de woorden en hun betekenis en wetenschappers onderzochten het materiële universum. Geleerden als Galileï en Newton zaten met het grote probleem dat de begrippen die ze moesten hanteren zoals 'gewicht', 'snelheid', 'massa', ... geen goede definitie hadden. Terugvallen op het Latijn van de Romeinen had ook geen zin, want die hadden evenmin de woorden voor deze begrippen. Voor deze woorden kon men tenslotte ook niet terugvallen op zaken die men met de vinger kon aanwijzen.

Na de poging van Cawdrey voor de redactie van een woordenboek volgden er nog anderen in de jaren 1600, maar geen enkele liet een permanente indruk na. Het was wachten tot 1933 met de 1e editie van de OED voor men kan spreken van een succes. De editeurs hebben toen wel hun respect getoond voor het kleine volume van Cawdrey als het eikeltje van waaruit hun eik is gegroeid.

Maar in tegenstelling tot Cawdrey zouden de editeurs van de OED 402 jaar later de snel veranderende realiteit nauwelijks kunnen bijhouden op hun – nu al achterhaalde – kaartsysteem. Het woordenboek heeft reeds cyberspace ontmoet. Waar Cawdrey geïsoleerd was van zijn tijdgenoten, is de huidige editeur van woordenboeken 'verbonden', met alle gevolgen vandien.

Tegenwoordig wordt het Engels gesproken door 1 miljard mensen. De lexicografen kunnen de veranderingen in deze taal dus onmogelijk bijhouden. Het OED echter kreeg de status van monument. Als dusdanig beïnvloedt ze de taal die ze behoort te observeren. Haar doelstelling is nog steeds 'volledigheid'; een ideaal dat door ruimte- en tijdgebrek altijd onbereikbaar zal blijven. Toch zal de OED steeds de spiegel van de Engelse taal blijven.

Een woordenboek verklaart de betekenis van een woord door andere woorden te gebruiken. Zo ontstaat een verweven structuur. Dit soort oefening was ondenkbaar in de orale taal. Alleen wanneer iets wordt neergeschreven kan het worden geanalyseerd. Een gevaar van het verklaren van woorden met ander woorden is de circulariteit. Ludwig Wittgenstein klaagde terecht dat "bij het geven van verklaringen moet ik reeds het volledige gamma van de taal gebruiken." En daarbij komt nog de extra moeilijkheid dat een taal altijd in beweging is.

Bij de 1e editie was de OED een van de meest volumineuze boekwerken ooit: 10 volumes met 414.825 woorden. Gezien het reeds voorbijgestreefd was op het moment van de publicatie volgden er al snel supplementen. Een 2e editie verscheen pas in 1989: 20 volumes met 22.000 pagina's. De 3e editie is anders: 0 volumes, want volledig digitaal. Vanf 2000 verschenen revisies om het kwartaal met duizenden herziene woorden en honderden nieuwe woorden. Eigenaardig genoeg begon de digitale versie niet bij A, zoals bij Cawdrey en de papieren OED, maar bij M.

De lexicografen van Oxford zijn echter geen slaven van de mode: een neologisme bijvoorbeeld moet reeds 5 jaar bewezen bestaan hebben voordat het wordt toegevoegd. Ook woorden ondergaan een kruisverhoor alvorens ze aanvaard worden als 'in algemeen gebruik'. Eenmaal opgenomen in de OED wordt een woord nooit geschrapt; het kan aangeduid worden als zelden gebruikt of obsoleet. Maar het gebeurt ook dat oude woorden terug in zwang raken. Alle 2.500 woorden van Cawdrey staan in de OED. Voor sommige woorden is Cawdrey de enige bron. Dat kan niet meer worden toegelaten in de 21e eeuwse edities; nu moeten al vele personen het woord gebruikt hebben in teksten vooraleer het wordt opgenomen in de OED. Maar ook woorden die anders worden gespeld worden als volwaardig aanzien, en niet als 'verkeerd gespeld' (zie de 30 schrijfwijzen van 'makreel' in het engels). Soms zal de OED zijn eigen huisstijl voorop stellen. Zo zal ze consequent Engelse werkwoorden die eindigen op -ise of -ize steeds als -ize voorrang geven. Maar ondanks alles blijven er inconsistenties. Zo zal ze 'nucular' naast 'nuclear' aanvaarden, maar niet 'straight-laced' i.p.v.'strait-laced'. Voor het gebruik van de 'juiste' spelling verwijst ze gebruikelijk naar de uitvinding van de drukpers en de noodzaak van een uniforme schrijfwijze. Daarbij vergeet ze de rol die ze zelf speelt als arbiter en als voorbeeld.

Waar voor Cawdrey het woordenboek een moment in de tijd was wilden zijn opvolgers de taal onder controle brengen. De OED is ambitieuzer en wil een historisch overzicht van de taal tonen.

Wanneer Murray aan zijn OED begon was het idee erachter de Engelse woorden te vinden en hun historiek. Hoeveel woorden er zouden worden gevonden, daar had hij geen idee van. Hij kon in eerste instantie terugvallen op het toenmalige meest volledige Engelstalige woordenboek, het Amerikaanse Webster's met 70.000 woorden. Daarbij kwamen 30.000 woorden uit het Shakespeariaanse tijdperk en de OED zocht lezers om de volledige 17e eeuwse litteratuur te doorzoeken. Een formidabele inspanning, maar zeker nog eindig. Dat is het echter vandaag niet langer. Murray merkte op dat "de cirkel van de Engelse taal een goed gedefinieerd middelpunt had maar geen zichtbare omtrek." Maar ook dat middelpunt blijkt niet zo helder te zijn als voorgesteld. Cawdrey had niet de intentie om gewone woorden op te nemen in zijn pamflet, de OED wel. Maar voor het werkwoord "make" alleen al zou de tekst een heel boek kunnen vullen. Het probleem is dat zulke woorden door iedereen op ieder moment in een ander betekenis kunnen worden gebruikt. Bij iedere revisie van de OED wordt de verklarende tekst dna ook verder uitgebreid; een omgelimiteerde naar binnen gerichte taak. Ook aan de 'buitengrenzen' van de cirkel treedt dit soort ongelimiteerd werk op, door alle neologismen die nooit ophouden te worden geschapen ('transistor', 'blog', ...). Bovendien is de etymologie van deze wooorden niet altijd duidelijk.

De Engelse taal heeft nooit een geografisch centrum gehad. Er waren taalvariaties van de ene vallei naar de andere vallei. En zelfs nu nog, terwijl alle "valleien" met elkaar verbonden zijn [via het internet]. Bovendien betreft het meer de gesproken taal dan de geschreven taal. Neem als voorbeeld de taal van expats, die doorspekt is met woorden uit de landen waar ze wonen. Deze woorden verspreiden zich via chatrooms en blogs. Al naargelang ze frequent worden herhaald of niet zullen ze deel uitmaken van de (toekomstige) taal.

De volledige woordenschat vertegenwoordigt een set van symbolen van de taal; woorden zijn immers de 'eenheden van bedoeling' van elke taal. De symbolensets in de communicatie (bijvoorbeeld hoge en lage tam-tamtonen) zijn discreet; het vocabularium is dat niet. Lexicografie is een wetenschap die slecht voorzien is voor exacte metingen. Het Engels zou 1 miljoen begrippen kennen, maar de lingïsten hebben er grote moeite mee om duidelijke lijnen te trekken tussen woorden en 'onwoorden'. Dus tellen ze zo goed als ze kunnen. Cawdrey's vocabularium bevatte 2.500 woorden en de huidige teller van Engelse woorden rond 1600 staat op 60.000. Dit aantal blijft wel nog groeien door de ontdekking van nieuwe 16e eeuwse bronnen. Maar zelfs dit aantal is maar een kleine fractie van het huidige aantal.

De woordenrijkdom is een maat voor de gezamenlijke beleving en komt dus voort uit 'verbondenheid'. Het aantal gebruikers is natuurlijk belangrijk (in 4 eeuwen van 5 miljoen naar 1 miljard engelssprekenden). Maar even belangrijk is de mate van verbondenheid. Met het internet is de verbondenheid niet geometrisch maar combinatorisch toegenomen. Cyberspace is verschillend van alle voormalige informatietechnologieën in haar mogelijkheden om mensen en groepen met elkaar in verbinding te stellen op een nooit voorheen gekende schaal. Een eigenaardig gevolg van een uitvinding bedoeld om berekeningen te maken.


Terug naar de inhoudsopgave


4 - De krachten van de gedachte in raderwerk omzetten

Bij zijn dood in 1871 was iedereen het erover eens dat Charles Babbage een genie was geweest, maar bijna niemand kon precies uitleggen waar deze man mee bezig is geweest. Reeds zeer vroeg in zijn leven ontleedde hij mechanismen in speelgoed en allerhande machines. Hij zocht de logica achter het mechanisme en was daardoor zijn tijd van 'Stoom & Machines' ver vooruit. Hij rekende vele zaken na om tot de vaststelling te komen dat, bijvoorbeeld, de kost van de posterijen voornamelijk in de controles lag en niet in het vervoer. Hij stelde daarom gestandaardiseerde posttarieven voor. Door al zijn vreemde hobbies had hij wellicht beter kunnen worden beschreven als een professionele wiskundige.

Door zijn werk werd hij een expert in diverse domeinen, zoals kant uit Nottingham, het gebruik van buskruit in de mijnbouw, precisiesnijden van glas met diamant en zowat alle toen gekende toepassingen van machines om kracht op te wekken, tijd uit te sparen en signalen over te brengen.

Hij vond zijn eigen machine uit, die hij gedurende zijn hele leven verbeterde. Maar zijn machine bestond voornamelijk in zijn geest en werd, ondanks subsidies van het Britse parlement van 1823 tot 1842, nooit volledig fysiek gebouwd. Zijn machine leverde – net zoals de andere machines – een kwantiteit van een gegeerd product, maar het was geen fysiek product. Het product was een reeks cijfers. Indien het ooit volledig zou zijn gebouwd zou zijn machine kamergroot zijn geweest en verschillende tonnen hebben gewogen.

Tabellen met cijfers maakten deel uit van de boek-industrie, nog voor de uitvinding van de boekdrukkunst. In het 9e eeuwse Bagdad stelde al-Khwarizmi (algoritme is van deze naam afgeleid) tabellen met trigonometrische functies op, die verspreid werden van Europa tot China door ze met de hand te kopiëren en dit gedurende honderden jaren. Door de boekdrukkunst werden tabellen het eerste massaproduct. Tafels van vermenigvildiging, deling, machten, wortels, enzovoort werden door veel delen van de maatschappij gebruikt. In 1582 produceerde Simon Stevin de 'Tafelen van Interest' voor bankiers en promootte hij de nieuwe digitale telkunde aan astrologen, landmeters, kooplieden en vele andere beroepen. Wanneer Columbus naar Amerika reisde had hij voor de hulp bij navigatie een boek bij van Regiomontanus, gedrukt in Nuremberg. Niet alle tabellen waren nuttig; deze die berustten op een algoritme waren eigenlijk nutteloos, want perfect berekenbaar.

De prijs van tabellen was recht evenredig aan de moeilijkheidsgraad om ze op te stellen. 'Computers' en 'rekenaars' bestonden toen ook al; ze waren personen met speciale gaven en waren duur in 'gebruik'. Ze waren echter niet foutvrij en controles brachten aan het licht dat ze veelal niet alles zelf berekenden, maar overschreven van anderen, zodat ook de fouten systematisch dezelfde bleken.

Een 17e eeuwse uitvinding bracht de industrie van het 'rekenen' in een stroomversnelling: de logaritmetafels. Vermenigvuldigingen werden gereduceerd tot optellingen en machtsverheffingen tot vermenigvuldigingen. Een van de 'uitvinders' van deze tabellen was John Napier. Heden ten dage wordt aangeleerd dat een logaritme een exponent is. Zo is log10 100 = 2. Napier echter dacht in termen van relaties tussen verschillen en ratio's. Wanneer, bijvoorbeeld, nummers gescheiden worden door een vaste ratio, dan is de progressie geometrisch. Zet je de progressies naast elkaar,

base 2 log's:012345
natuurlijke getallen:12481632

dan krijg je een rudimentaire logaritmetafel. In Napiers geest was er een analogie: verschillen verhouden zich tot ratio's zoals optellingen tot vermenigvuldigingen. Het gebruik van een logaritmetafel is eigenlijk een vorm van coderen: natuurlijke getallen worden 'geconverteerd' in logaritmen en omgekeerd. Gebaseerd op de logaritmen van Napier gaf de eerste prof geometrie van Gresham College, Briggs, in de jaren 1600 een eigen boek uit: 'Logaritmical Arithmetike' met o.a. tabellen met de jaarlijkse declinatie van de zon per breedtegraad, hoe een afstand te vinden tussen twee plaatsen met gegeven breedte- en lengtegraad, maar ook financiële zaken zoals het berekenen van interesten. Maar zelfs deze toch opwindende uitvinding deed er jaren over om Johannes Kepler te bereiken, die logaritmen gebruikte om zijn tabellen van hemellichamen te perfectionneren in 1627. Met de intensief verzamelde informatie van zijn voorganger Tycho Brache bleken zijn tabellen 30 maal nauwkeuriger dan zijn middeleeuwse voorgangers. Vanaf die eeuw tot aan de uitvinding van de elektronische rekenmachines werd het gros van de berekeningen uitgevoerd met logaritmetafels.

Toen Babbage, een autodidact, in 1810 naar Trinity College in Cambridge ging, waarde de schaduw van de grote Isaac Newton nog over de wiskunde in Engeland. Hij was dan ook ontgoocheld over het niveau van de daar onderwezen wiskunde. In het buitenland (vooral in het Napoleonistische Frankrijk) evolueerde de wiskunde sneller. Vooral de starre Newtoniaanse manier van rekenen met 'fluxions' t.o.v. het continentale differentiaalrekenwerk van Leibnitz deed vele wiskundestudenten steigeren. Babbage en andere studenten verenigden zich in clubs die de 'ondergrondse' werden van de universiteitscolleges. Een van die clubs was de Analytical Society. Het was daar dat Babbage het idee had dat alle tafels met machines konden worden berekend. Samen met Herschel was Babbage immers bezig met het berekenen van logaritmetabellen voor de Cambridge Astronomical Society. Het was echt monnikenwerk, dus het spreekt vanzelf dat ze naar een manier zochten om al die berekeningen te automatiseren met stoommachines, de werkpaarden van de industrie van die tijd. Babbage stelde dat dit 'automatisch' moest gebeuren; voor hem een beoordeling van het nut van een machine. Toen al bestonden rekenmachines die in twee categorieën konden worden ingedeeld: deze die menselijke tussenkomst vergden en deze die waarlijk zelfstandig konden werken. Zijn standaard was dus haar tijd ver vooruit. Zelfs de 'machines' van Pascal en Leibnitz uit de jaren 1642 en later leken meer op een abacus dan op een kinetische machine, en waren in de ogen van Babbage niet 'automatisch'. Hij voorspelde dat de vraag naar berekeningen zou groeien naarmate de handel, de industrie en de wetenschap zouden samensmelten. De saaie en zware inspanningen van het berekenen moest verdwijnen door het te automatiseren.

In de informatie-arme wereld was een tabel met cijfers een rariteit en het duurde eeuwen voordat tabellen konden worden vergeleken. Die vergelijkingen brachten fouten aan het licht. De logaritmetafels van Taylor van 1792 bevatten 19 fouten, die opgesomd waren in de 'Nautical Almanac', want de Admiraliteit wist dat iedere fout een potentiële scheepsramp was. In Ierland, bij de oprichting van de 'Ordnance Survey' (met als doel het land volledig op te meten), moest worden verzekerd dat de landmeters 250 sets logaritmetafels hadden die accuraat waren tot 7 cijfers na de comma. De controlerende instantie vergeleek daarvoor 13 tabellen van London tot China en vond 6 fouten in alle tabellen en die bovendien dezelfde fouten waren. De tabellen waren dus niet berekend, maar gekopiëerd! Het was duidelijk: menselijke rekenaars hadden geen toekomst. Babbage stelde dat enkel de mechanisch gemaakte tabellen foutloos zouden zijn.

Babbage begon zijn werk door 'mechanische' principes binnen de getallen bloot te leggen. Hij zag structuur in de verschillen tussen reeksen getallen. De 'berekening van eindige verschillen' werd reeds de eeuw daarvoor onderzocht door vooral Franse wiskundigen. Haar kracht lag in het reduceren van hogere berekeningen tot simpele optellingen, die routinematig konden worden uitgevoerd. Deze methode bracht Babbage ertoe vanaf het begin zijn machine de Difference Engine te noemen. Bij wijze van voorbeeld – zoals hij er veel zou geven in de loop der jaren – gaf Babbage de 'Tabel van Driehoekige Nummers' op:

Nummer van de groep Aantal in de groep 1e verschil 2e verschil

0

0





1


1

1


1



2


2

3


1



3


3

6


1



4


4

10


1



5


5

15



De Difference Engine zou dit proces in omgekeerde zin uitvoeren: het zou nummers genereren via optelling. Onmiddellijk werd een nieuw thema aangeboord: de obsessie met de tijd. Babbage wilde dat zijn machine sneller zou werken dan de menselijke geest en zo snel als mogelijk was. Hij bracht zelf het idee naar voor van 'parallel processing'. Dit was echter toen nog niet mogelijk wegens het principe van het 'overdragen' van een getal bij 9 + 1. Babbage maakte verschillende ontwerpen om het 'overdragen' sneller te doen verlopen en in 1822 kon hij een klein model van zijn machine aan de Royal Society voorstellen. Toen hij wat later "logaritmetafels zo goedkoop als aardappelen" beloofde, had het Ministerie van Financiën ook interesse, en geld werd vrijgemaakt voor Babbage.

Hoewel het concept van de Difference Engine abstract was kende ze veel publieke bijval. Haar product was immers niets tastbaar. Het zou een kruispunt vormen tussen twee wegen: het mechanisme en de gedachte. De machine zelf bleek veel moeilijker te bouwen dan gedacht. Na 10 jaar werk was de machine maar 24' hoog, met 6 verticale assen en enkele dozijnen wielen. Het was in staat om resultaten met 6 cijfers te berekenen. Het ding had zelf voor de eerste maal in de geschiedenis een 'geheugen' om te weten wanneer een cijfer moest worden 'overgedragen'.

Gewone tekeningen volstonden niet om de ingewikkelde machine te beschrijven, dus formuleerde Babbage een tekentaal, een systeem voor "mechanische notatie" zoals hij zelf zei. In deze tekentaal werden de abstracte eigenschappen van de machine genoteerd: haar timing en haar logica. Babbage presenteerde dan ook in 1826 een pamflet "On a Method of Expressing by Signs the Action of Machinery" aan de Royal Society. Babbage's 'mechanische notatie' vloeide natuurlijk voort uit zijn werk van symbolische notatie in wiskundige analyse. Zowel de wiskunde als de machinebouw hadden behoefte aan strenge definities, wat in de gewone omgangstaal bijna onmogelijk te realiseren was.

Hij verkreeg uiteindelijk een post aan de universiteit van Cambridge: de prestigieuze Lucasian Professorship of Mathematics, zoals de beroemde Newton voor hem. Hij verbleef echter in de societykringen in London waar hij zijn machine demonstreerde. De vooruitgang in de bouw van zijn machine stokte echter. Discussies met zijn ingenieur Clement en het feit dat almaar meer geld nodig was voor het verderzetten van zijn werk leidde ertoe dat de overheid uiteindelijk zijn machine nutteloos vond en de geldkraan dichtdraaide.

Babbage's droom leefde echter voort en hij had inmiddels Ada Byron ontmoet. Zij was een wonderkind. Zij begreep op slag de werking van de Difference Engine en bewonderde deze uitvinding. Hoewel ze enorm wiskundig begaafd was, was het onmogelijk voor een vrouw om aan de universiteit te studeren of toe te treden tot een wetenschappelijk kring.

Babbage was toen al bezig met de Analytical Engine. Zowel hijzelf als Ada hadden inspiratie opgedaan bij het zien van het weefgetouw van Joseph-Marie Jacquard, die bestuurd werd met gecodeerde instructies, opgeslagen als gaten in kaarten. Babbage dacht daarbij aan het gebruik, niet van cijfers, maar van variabelen die afkomstig waren van de uitkomsten van voorgaande berekeningen. Hij voorzag deze abstracte informatiekwatiteiten op te slaan in kaarten: kaarten voor variabelen en kaarten voor bewerkingen. Hij dacht aan de machine als de belichaming van wetten en aan kaarten als het communiceren van deze wetten. Opnieuw ontbrak echter een taal om de fundamentele werking van zo'n machine uit te drukken. Hij maakte echter duidelijk dat informatie (cijfers en processen) door de machine zouden vloeien. De informatie zou weg en weer gaan tussen speciale fysieke locaties, die hij "store" noemde voor 'opslag' en "mill" voor 'actie' (verwerking).

Hoewel Ada met een aristocraat trouwde en Lady Lovelace werd, bleef ze corresponderen met Babbage over wiskundige zaken. Auguste de Morgan, een vriend van beiden, werd Ada's leraar per correspondentie. Ze leerde zeer snel en haar leraar vertelde aan haar moeder dat hij een dergelijk wiskundig talent in Cambridge niet had gezien. Wanneer ze moeilijkheden voelde aankomen, dan waren er echte moeilijkheden in het verschiet. Ze begon te geloven dat ze een goddelijke opdracht moest volbrengen, van een intellectueel-morele aard, om de verborgen realiteiten van de natuur te doorgronden. De opdracht vond ze in de Analytical Engine. Babbage, rusteloos als hij was, had ondertussen een opdracht aanvaard voor analyse van de problemen bij de spoorweg die Brunel aanlegde tussen Bristol en London. Hij bedacht daarbij de metafoor dat zijn eigen Analytical Engine een "locomotief was die zijn eigen sporen legde".

Gezien zijn plannen met de Analytical Engine weinig interesse vonden in Engeland ging hij in 1840 naar Sardinië, waar hij Luigi Menabrea ontmoette, de wiskundige die later premier van Italië zou worden. Die laatste schreef en rapport "Notions sur la machine analytique" die Ada Lovelace in het engels vertaalde, maar daarbij ook de fouten corrigeerde zonder echter Menabrea of Babbage in te lichten. Toen Babbage haar kladwerk in 1843 zag was hij enthoesiast en drong aan dat zij in eigen naam zou beginnen schrijven, waardoor hun samenwerking effectief begon. Haar brieven over het onderwerp toonden een meer algemene toekomstvisie dan Babbage ooit had gedaan. De Analytical Engine voerde niet alleen berekeningen uit maar ook 'operaties', "eender welk proces dat de gezamenlijke relatie van 2 of meer dingen verandert" zoals Ada Lovelace zelf beschreef.

Symbolen en betekenis; ze sprak uitdrukkelijk niet over wiskunde. De machine kon immers op andere dingen dan cijfers inwerken, stelde ze, zoals taal of muziek. Het was een machine van getallen geweest, nu was het een machine voor de verwerking van informatie. Ze proclameerde dat: "... de Analytical Engine algebraïsche patronen weefde zoals het weefgetouw van Jacquard bloemen en blaadjes weefde". Voor deze poëtische gedachten nam ze de verantwoordelijkheid volledig op zichzelf. Ze vervolgde haar poëtische gedachten met praktische voorbeelden en bedacht een hypothetisch programma om de fameuze oneindige Bernouilli-getallen te berekenen, niet op de gebruikelijke manier met formules, maar via een proces met een reeks operaties. Tegenwoordig zou men dit een algoritme noemen. Ze beschreef dan ook voor het eerst de problemen van "loops" die latere programmeurs ook zouden tegenkomen.

De Analytical Engine, hoewel nooit gebouwd, kreeg veel internationale bekendheid, met bijhorende lof ("stoommachine die intellectuele arbeid verricht") en kritiek ("domme machine die geen blunders kan maken").

Babbage zelf werd door zijn tijdgenoten omschreven als een mechanicus, mathematicus, enz. omdat de 'categorie' waartoe hij behoorde nog niet bestond, nml. informaticus. Hij hield zich obsessief bezig met het verzenden van berichten. Hij kreeg zelfs een toelage van $5000 van het U.S. Congress om proeven te doen met lichtsignalen. Zijn machine werd eerst vergeten om pas veel later opnieuw te worden ontdekt. Ironisch genoeg was de machine oorspronkelijk bedoeld om tabellen te genereren, maar maakt ze in haar uiteindelijk versie tabellen overbodig. Zelf dacht Babbage dat het een halve eeuw zou duren vooraleer iemand een tweede poging zou wagen om een Analytical Engine te maken. Het werde uiteindelijk een volle eeuw. Babbage had een klare kijk op de toekomst. Hij voorspelde de neergang van stoom en de opkomst van elektriciteit. Hij voorzag ook het opkomende belang van de wiskunde in de samenleving.


Terug naar de inhoudsopgave


5 - Een zenuwstelsel voor de aarde

Hoewel de eerste telegraafkantoren in New York (1846) en London (1849) zeer klein waren (soms maar één paar koperdraden), was men zeer snel geneigd dit 'netwerk' te vergelijken met het menselijk brein. Men kende toen nog nog echter allerminst de exacte werking van het zenuwstelsel en van de elektriciteit, maar de analogie was juist. Telegrafie en telefonie begonnen de maatschappij – voor de eerste maal in de geschiedenis – om te vormen tot een coherent organisme.

De exacte natuur van de elektriciteit was dan nog wel niet gekend, men wist reeds dat het niet in staat zou zijn een geschreven bericht te dragen, net zoals een bliksemschicht niets van informatie bevatte. Maar men ontdekte wel dat de elektriciteit zich kon voortplanten met ongekende snelheid en in een oneindig lange geleider. De vraag was: hoe kon een bericht worden verzonden? Het was meer een logisch vraagstuk dan een technologisch vraagstuk.

Voordat de elektrische telegraaf bestond was er reeds een optische versie. Deze optische telegraaf was een uitvinding van de Claude Chappe tijdens de Franse Revolutie. Zijn systeem van torens en optische signalen via een bewegelijke balk met twee bewegelijke uiteinden had 7 x 7 x 2 = 98 mogelijke arrangementen en kon dus zeer snel gecodeerde berichten doorsturen over het hele Franse grondgebied. Maar, zoals iedereen die het spelletje 'telefoon' heeft gespeeld maar al te goed weet, sluipen er in de overbrenging van berichten nogal veel fouten in. Wanneer men in 1840 metingen deed, zag men dat gedurende de zomer 1 op de 3 berichten fout waren en in de winter zelfs 2 op 3. Toch kende dit systeem enige bekendheid en werd in Zweden, Denemerken, België, Duitsland, India en Rusland gebruikt. Door de opkomst van de elektrische telegraaf verdween de optsiche onmiddellijk en volledig van het informatietoneel.

De infrastructuur die nodig is voor een uitgebreid elektrisch telegraafnetwerk was in den beginne zeer duur en kon alleen door de staat zelf worden bekostigd. Het spreekt dan ook vanzelf dat de berichten over dat netwerk van militaire en geheime aard waren. Zo was het enig andere bericht dat Napoleon over de telegraaf zond de proclamatie van de geboorte van zijn zoon. Wanneer latere privé-ondernemingen ook telegrafen bouwden bleven de regeringen die als niet wenselijk beschouwen. Frankrijk, bijvoorbeeld, verbood ze bij wet in 1837 en in 1838 werd Samuel Morse er de deur gewezen. De Fransen vonden de elektrische telegraaf "onbetrouwbaar en sabotagegevoelig".

Het was niet zozeer het overwinnen van technologische moeilijkheden om een elektrisch signaal over een grote afstand te versturen dat om vindingrijkheid vroeg, maar wel het omvormen van woorden in elektrische signalen. Uitvinders bedachten vele systemen (sommige zelfs met 24 parallelle signaaldraden), en ze waren niet van de minste: Ampère, Gauss, en Weber bedachten systemen met uitwijkende naalden, maar allen bleken ze niet zo succesvol. Buiten de werkplaatsen van de uitvinders betekende 'telegraaf' toen nog steeds semaforen, vlaggen en bewegende luiken. Sommigen hadden reeds door dat geen enkel systeem om 'intelligentie' over te brengen ooit sneller zou zijn dan het licht. 'Telegraaf' werd trouwens snel een modewoord, en vele kranten kregen de naam 'Telegraaf', want ook zij meenden zich bezig te houden met het 'schrijven over grote afstanden'. Maar vooral de handels- en financiële sectoren zagen de telegraaf als een instrument van macht en orde. De beurzen van London en Parijs lagen slechts 200 mijl uit elkaar, maar berichten deden dagen over een dergelijke afstand (met schepen en postduiven). Voor beursspeculanten was het toekomstige gebruik van een telegraaf alsof ze een tijdmachine konden gebruiken, waarmee ze fortuinen konden verdienen. De interesse van de overheden om militaire informatie via de telegraaf te versturen werd snel overschaduwd door de verzuchtingen van kapitalisten, nieuwsagentschappen, spoorwegen en scheepvaartmaatschappijen. Een prototype van een optische telegraaf tussen New York en Philadelphia in 1840 moest het al snel afleggen tegen de toenemende druk vanuit de commerciële wereld.

Alle uitvinders die zich in die tijd bogen over de telegraaf hadden hetzelfde einddoel maar kenden ook dezelfde moeilijkheden. Ze moesten zien te doorgronden wat er gebeurde wanneeer de elektrische stroom door de kabels vloeide. Die problemen bleven voor velen onopgelost, zelfs tot 10 jaar nadat Ohm zijn fameuze wetten had uitgedacht. Nieuws verspreide zich immers nog zeer traag. In die kontekst waren in de U.S.A. Morse en Vail met hetzelfde probleem bezig als Cooke en Wheatstone in Engeland. Hoewel deze laatsten konden terugvallen op dé autoriteit inzake elektriciteit, nml. Faraday, was hun systeem met 5 magnetische naalden om 20 letters te vormen niet echt efficient. Morse had in Frankrijk het oude optische systeem gezien en kende de nadelen ervan (vooral dan bij slechte zichtbaarheid). "Het weerlicht zou ons beter kunnen dienen", schreef hij. Zijn ingeving om een systeem van tekens te contrueren dat ogenblikkelijke verzending van berichten toeliet, volgde daar snel op. Morse was echter geen fysicus, dus het omzetten van zijn idee van het openen en sluiten van een circuit kon hij niet fysiek verwezenlijken. Vail daarentegen was een monteur met ervaring en kon het idee wel omzetten naar een circuit met een sleutel en een elektromagneet. Met dit systeem kon en telegrafist honderden signalen per minuut versturen.

Wanneer nu de elektromagneet op haar beurt een sleutel bediende, dan verkreeg je een "relay". Een zwakker wordend signaal kon nog steeds een 'relay' bedienen en het oorspronkelijke signaal naar een nieuw circuit overbrengen, waarmee het probleem van de signaalverzwakking over grote afstanden was opgelost. Het grote keerpunt, zowel in de U.S.A. als in Engeland, kwam er rond 1844, toen de eerste elekrtische telegraaflijnen werden geïnstalleerd. Ze werden echter pas een commercieel succes wanneer nieuwsagentschappen ze gingen gebruiken. Kranten waren echter beducht voor hun toekomst omdat het nieuws nu zo ontzettend snel werd verspreid. Anderen zagen ook de gevaren in van deze snelle nieuwsberichten: hun geloofwaardigheid kon niet even snel worden gecontroleerd. Uiteindelijk was de relatie tussen de telegraaf en de krant symbiotisch.

Grotere afstanden werden overbrugd via onderzeese kabels. Zo werd het Kanaal bekabeld in 1851 en in 1858 de Atlanstische Oceaan. Het enthousiasme voor de telegraaf was dan wellicht mondiaal, de effecten waren vooral lokaal, zoals verbindingen tussen politiekantoren en brandweerkazernes.

Informatie, die er vroeger dagen over deed om grote afstanden te overbruggen, werd nu in seconden verspreid. Daardoor konden ook nieuwe soorten informatie worden verspreid die voordien onmogelijk te verdelen was, zoals weerberichten. Weerberichten waren tot dan toe puur lokale aangelegenheden. Een globaal weerbeeld werd pas door de telegraaf mogelijk. In Engeland resulteerde dit in de oprichting van de 'Meteorological Office' in 1854. Weerberichten vanuit de Engelse havens werden 2 maal per dag naar London gestuurd en op basis daarvan begon de directeur – Admiraal FitzRoy – weersvoorspellingen te verspreiden die vanaf 1860 dagelijks in The Times werden gepubliceerd.

Door de snelheid van communicatie via de telegraaf leek het of afstand en tijd niet meer bestonden. Dit had gevolgen voor diegene die instonden voor de juiste lokale tijdmetingen. Tijd kon vanaf nu zowel lokaal als standaard zijn. Die laatste tijdaanduiding was nodig voor de spoorwegtabellen. Preciese kennis van de tijd was ook nodig om de lengtegraad van een locatie te kennen en de afstanden tussen locaties te berekenen. De telegraaf vernietigde de tijd dus niet, zoals toendertijd werd beweerd, maar synchroniseerde ze.

De telegraaf veranderde zelfs de geschiedschrijving. Tot dat dit niet meer praktisch was, hielden de telegraafmaatschappijen een gegevensbestand bij van alle berichten die ze zonden of ontvingen voor later gebruik. Ook de taal werd aangepast, want 'zenden' en 'bericht' kenden voorheen een andere interpretatie. Men kon immers nog steeds fysieke goederen opsturen, maar niet via de telegraaf 'verzenden'. Een bericht was vroeger onlosmakelijk (maar verkeerdelijk) gebonden aan de drager, nml. het papier waarop het was geschreven. Zelfs wetenschappers stelden dat de elektrische stroom 'het bericht draagt', terwijl er fysiek niets wordt getransporteerd.

Het landschap veranderde ook door de palen en de draden van de telegraaf. Die leken op niets dat toen in de natuur bestond. Schrijvers vergeleken ze met 'spinnewebben' en een ander woord scheen toepasselijker: een metalen 'net-werk', dat de aarde omspande. Ene Wynter voorspelde zelfs dat in een niet te verre toekomst iedereen met iedereen zou kunnen praten zonder zijn huis te verlaten.

Op meer niveau's dan een betekende het gebruik van de telegraaf het schrijven in codetaal. Het systeem van Morse heette eerst een alfabet, maar het stelde geen klanken voor met tekens. Het Morse-systeem was een meta-alfabet. Dit proces van transfer van betekenis van een symbolisch niveau naar een ander kende men reeds onder wiskunden. Door het gebruik van de telegraaf begonnen de gewone mensen in de 19e eeuw zich comfortabel te voelen met het idee van codes. Het overzetten van een symbolisch niveau naar een ander zou 'versleutelen' kunnen worden genoemd.

Twee motivatoren gingen vanaf toen hand in hand: geheimschrift en beknoptheid. Er moest voor de telegraaf immers per letter of woord worden betaald, dus lange poëtische teksten waren uit den boze. Een beknopte schrijfstijl – hoe weinig gecivilizeerd ook – was aan te raden. Zeer beknopte berichten die behalve voor de zender en de ontvanger betekenisloos waren, werden door de telegrafiemaatschappijen soms verboden, maar dit was onhoudbaar. Eén dergelijk systeem liet toe in slechts 20 woorden de dagelijkse prijsfluctuaties van alle voedingswaren tussen Buffalo en Albany te verzenden. Zo werd bijvoorbeeld de markt voor bloem beschreven als "baal" (= minder transacties dan gisteren) of "babble" (= er is veel handel gaande). Het feit dat dergelijke woorden betekenisloos waren voor de telegraafoperatoren was mooi meegenomen. Vanaf het moment dat de mensen telegrafische berichten uitwisselden, was men bezorgd dat de inhoud ervan voor iedereen leesbaar zou zijn. Zelfs Vail legde uit wat hij bedoelde met een geheim alfabet: een alfabet waarvan de letters werden omgewisseld. Voor minder gevoelige onderwerpen stelde hij afkortingen voor van gebruikelijke uitdrukkingen, zoals "mhii" voor "My health is improving".

Al deze systemen vereisten voorafgaande afspraken tussen twee partijen, een codeboek dus. Het was zelfs zo dat een dergelijk pamflet bestond bij de opening van de eerste transmissielijn van Morse. De code bestond uit een genummerde alfabetische lijst van 56.000 engelse woorden. De substitutie was dus een nummer voor een woord, en voor een grotere veiligheid konden de twee partijen een getal afspreken dat ermee moest worden opgeteld of afgetrokken.

Cryptografen hadden een misterieuze voorgeschiedenis, gezien hun geschriften clandestien waren en als dusdanig werden doorgegeven. Het maken van codes kwam nu met de telegraaf in een stroomversnelling en tevens in het daglicht terecht. Het hoeft dus niet te verwonderen dat het aantal publicaties over code en cryptografie explosief toenam. Compressie van gegevens was het natuurlijk gevolg van catalogeren van allerlei namen en andere taxonomische werkzaamheden in die aard. En dat was natuurlijk het einddoel, want hoe minder woorden of letters moesten worden verzonden, hoe goedkoper het bericht. Het verpakken en versturen van berichten in 'ondoordringbare capsules' verhoogde immers de efficiëntie en de veiligheid ervan.

Zoals het netwerk van telegraaflijnen almaar uitgebreider werd, werden ook de tarieven almaar hoger met de afstanden die het bericht aflegde. Codeboeken met gecondenseerde berichten waren dus hun geld waard. Het hoeft dan ook niet te verwonderen dat de auteurs ervan vaak van elkaar 'overnamen'.

De codeboeken gedijden goed tot aan het begin van de 20e eeuw en verdwenen toen in het niet. De gebruikers van de codes leerden stilletjes aan dat een onaangenaam neveneffect van de codes hun gevaarlijke kwetsbaarheid was voor de geringste fouten. De codes bezaten immers niet de redundantie van een taal, want zelfs een gecondenseerde taal die de telegrafisten gebruikten bezat redundantie. De enige manier om zeker te zijn dat een bericht correct werd verstuurd en ontvangen was ze te herhalen door de ontvanger, wat de prijs verdubbelde.

Geheimschrift is zo oud als het schrift zelf. Wanneer het schrift werd uitgevonden was het beperkt tot een selecte groep mensen. Wanneer het schrift algemeen toegankelijk werd, vonden mensen nieuwe manieren uit om hun geschrift voor een beperkt publiek zichtbaar te houden. Ze maakten anagrammen van hun woorden, gebruikten spiegelschrift en vonden de 'sleutel' uit.

In 1641 catalogeerde een anoniem boekje de verschillende bekende methoden van cryptografie. Van onzichtbare inkten tot het substitueren van letters in een zin. De auteur was John Wilkins, een pastoor en mathematicus, die later de meester van Trinity College, Cambridge werd en een van de stichters van de Royal Society. Hij was zeer volledig in zijn werk, want hij beschreef alles was een geleerde in het 17e eeuwse Engeland kon hebben gekend.

In zijn werk beschouwde hij het geheimschrift en het schrift als in essentie hetzelfde. Hij vroeg zich af hoe een mens zijn 'intenties' zo snel mogelijk over grote afstand zou kunnen overbrengen naar zijn medemens. Hij beschouwde dat de snelste manier deze van de gedachte was, maar dat was niet weggelegd voor 'aardse schepsels'. Als mathematicus beschouwde hij het probleem vanuit een ander gezichtspunt. Hij trachtte te bewijzen hoe een gereduceerde set van symbolen ("misschien 2, 3 of 5") het volledige alfabet zou kunnen weergeven. Hij reduceerde het alfabet zelfs tot een binaire code avant la lettre: A = aaaaa, B = aaaab, C = aaaba, enzovoort. Hij stelde dus dat 2 symbolen, in groepen van 5, 32 "verschillen" zou opleveren. Zijn verwoording "verschillen" mag dan al wat vreemd zijn, hij was op zoek naar een concept van informatie in zijn meest pure vorm. Hij liet dan ook verstaan dat " ... wat dan ook capabel was een zintuigelijk waarneembaar 'Verschil' te veroorzaken, voldoende was om 'kennis' uit te drukken". Hij dacht daarbij aan twee klokken met verschillende tonen, aan vlammen, rook, trompetten, kannonnen of trommels. Enig aantoonbaar verschil resulteerde in een binaire keuze. En een binaire keuze leidde tot de uitdrukking van kennis. Het duurde echter nog 400 jaar voor dit inzicht opnieuw uit de schaduw zou treden waarin het terecht kwam.

Een historicus van de cryptografie omschreef de periode, die ontstond door de introductie van de telegrafie, als de bijdrage van de dilettanten. Zowat iedereen hield zich met het probleem van het geheimschrift bezig. Zo ook de beroemde Amerikaanse schrijver Edgar Allan Poe. Hij verklaarde dat: "... de ziel een geheime code was, en hoe korter de code, hoe moeilijker die te ontrafelen is". Naast Poe introduceerden ook Jules Verne en Honoré de Balzac geheime codes in hun romans. In 1868 liet Lewis Carroll zelfs een kaartje drukken waarop langs een zijde een "sleutel-alfabet" en aan de andere zijde een "bericht-alfabet" stonden. Een afgesproken woord tussen correspondenten kon zo met de kaart gebruikt worden om geheime boodschappen te versturen. De meest geavanceerde cryptanalist in het Victoriaanse Engeland was echter Charles Babbage. Hij plande zelfs een allesomvattend werk 'The Philosophy of Decyphering', maar heeft het nooit afgemaakt. Hij had echter wel de polyalfabetische code, gekend als de Vigenère ('le chiffre indéchiffrable'), en beschouwd als het beste geheimschrift in Europa, gekraakt. Net als in zijn andere werken gebruikte hij algebraïsche methoden om de cryptanalyse in de vorm van vergelijkingen weer te geven. Hij beschouwde zichzelf echter nog steeds een dilettant. Hij gebruikte echter opnieuw symbolen om het ontcijferingswerk uit te voeren. Twee jonge Engelmannen, Augustus De Morgan en George Boole, gebruikten dezelfde methodiek van het gebruik van symbolen om een onderwerp aan te snijden dat al eeuwen had gestagneerd: de logica.

Boole dacht over zijn systeem als wiskunde zonder getallen. De enige cijfers die toegelaten waren waren 0 voor 'niets' en 1 voor 'alles'. Eeuwenlang was de logica het speelgoed van filosofen geweest, nu was het wiskundig bezit. Voor Boole was de taal een instrument van de menselijke rede en niet alleen maar een medium om gedachten uit te drukken.

Het omvormen van taal naar symbolen dient verschillende doeleinden. In het geval van de telegraaf was het een vorm die geschikt was voor het versturen van gedachten via koperdraden aan lichtsnelheid. In het geval van logische symbolen was een vorm die geschikt was om te worden gemanipuleerd via berekeningen. In tegenstelling tot de telegraaf was de invloed van het werk van Boole 'The Laws of Thought' (1854) subtiel en traag.


Terug naar de inhoudsopgave


6 - Nieuwe draden, nieuwe logica

Opgroeiend als kind in Gaylord, Michigan, in de jaren 1920 was Claude Shannon reeds geïnteresseerd in codes, symbolen die instonden voor letters en andere symbolen. Zijn uitvindersgeest bracht hem ertoe zijn eigen telegraaf te maken met het alom tegenwoordige prikkeldraad om via Morsecode te communiceren met een leeftijdsgenootje. Deze jeugdige, speelse geest heeft hij zijn hele leven behouden. Dat hij prikkeldraad gebruikte om te communiceren was niet zo verwonderlijk, want vele boeren in de steek waren reeds met elkaar verbonden met primitieve telefoonlijnen via geïsoleerde prikkeldraden. Zelfs de veeboeren, die avers waren van de gesloten stukken land, sprongen op deze technologische kar om het dagelijkse nieuws van het weer en de vleesprijzen op de voet te volgen.

Drie golven van elektrische communicatiesystemen piekten in volgorde: telegrafie, telefonie en radio. Iedereen begon het natuurlijk te vinden dat ze apparaten bezaten die bedoeld waren om berichten te verzenden en te ontvangen. Maar zelfs toen al waarschuwden sommigen voor het effect ervan op de jeugd. Afspraakjes en roddelen via de telefoon waren toen ook al sociaal onaanvaardbaar. En voor het gebruik van de lijnen moest worden betaald, tenzij je een privé-telefoonsysteem met je naaste buren had. In die tijdgeest groeide Claude Shannon op. Gestimuleerd door zijn moeder en oudere zuster loste hij cryptogrammen op, zoals deze in Edgar Allan Poe's "The Gold-Bug". Claude beëindigde zijn secundaire onderwijs in 3 jaar i.p.v. 4 jaar en ging in 1932 een opleiding voor wiskundige en elektrisch ingenieur volgen aan de universiteit van Michigan en vervolgde zijn opleiding als onderzoeksassistent bij Vannevar Bush aan het M.I.T.. Die laatste was bezig met het ontwikkelen van de Differential Analyzer, een ijzeren monster van 100 ton met draaiende assen en tandwielen. Het ding werd het 'mechanisch brein' genoemd. Hoewel vreemd gelijknamig had dit toestel niets meer te maken met met het geesteskind van Charles Babbage, maar beide uitvinders hadden één ding gemeen: ze haatten het afstompende berekeningswerk.

Het M.I.T. was een plaats waar een grote nood heerste voor het oplossen van differentiaalvergelijkingen van de tweede graad. Deze moeilijk op te lossen vergelijkingen beschrijven fenomenen als ballistische banen en oscillerende elektrische stromen. De machine van Bush moest deze volledige klasse van vergelijkingen helpen oplossen. Niet via de manipulatie van getallen, maar via het genereren van krommen. Het was en bleef echter een analoge machine met assen, aangedreven door elektromotoren en met elektromechanische schakelaars. In zekere zin was het een monsterlijke versie van een planimeter.

Claude Shannon was in de wolken als operator van deze 'computer'. De relais in de machine waren – zoals alle relais toendertijd – uniek voor hun eigen toepassing. Niemand had zich aan een studie ervan gewaagd, maar Shannon moest een onderwerp kiezen voor zijn mastersthesis en hij zag hierin een mogelijkheid. In zijn geest had hij reeds eerder een verbinding gemaakt tussen de symbolische logica van Boole en de mogelijke schakelingen van relais. Shannon realiseerde zich dat wat een relais doorgeeft niet zozeer een elektrische stroom is, maar een 'feit'. Een feit dat het circuit open of gesloten is. Ook Charles Babbage had reeds een symbolische notatie gebruikt, maar Shannon had daar geen weet van.

In zijn thesis toonde Shannon aan dat hij slechts twee getallen nodig had voor zijn vergelijkingen: 0 en 1. Hij begon zijn uitleg met simpele gevallen van 2 schakelaars in serie en in parallel voor AND en OR operaties. Zoals in de logica zag hij dat circuits ALS ... DAN-keuzes konden maken en hij tekende een circuit dat automatisch twee getallen kon optellen, enkel met behulp van relais en schakelaars. Hij voegde eraan toe dat gelijk welke operatie die kan worden beschreven in een eindig aantal stappen ook automatisch kan worden uitgevoerd met relais. Zijn thesis was ongehoord, want had eigenlijk zeer weinig met elekrtische systemen te maken. Het was binaire wiskunde. Het was de essentie van wat later de computerrevolutie zou worden.

Bush suggereerde dat Shannon zou overschakelen van elektrisch ingenieur naar wiskundige bij het M.I.T. Hij suggereerde ook Shannon's 'rare algebra' toe te passen op een nieuwe wetenschap, nml. genetica. Dus begon Shannon aan een uiteenzetting met de titel "An Algebra for Theoretical Genetics". Genetica stond nog in haar kinderschoenen en niemand had nog een 'gen' kunnen identificeren. Toch bleek Shannon's theoretische benadering, hoewel onopgemerkt door genetici, haar tijd vooruit. Pas later zou zijn theorie worden herontdekt.

In de winter van 1939 schreef Shannon een brief aan Bush over een idee dat nauwer aan zijn hart lag: de transmissie van intelligentie. Hij stelde dat alle communicatiesystemen op gelijkaardige wijze werkten via drie functies van de tijd:
f1(t) -> T -> F(t) -> R -> f2(t), waarbij
f1(t) de over te brengen boodschap is,
f2(t) de ontvangen boodschap is.
In het ideale geval is f1(t) = f2(t). Het probleem, zei Shannon, is de verstoring en ook de ruis.

Hij vermeldde ook dat hij bezig was met een machine die in staat zou zijn symbolische wiskundige bewerkingen uit te voeren, zoals de Differential Analyzer, maar die enkel uit elektrische circuits zou bestaan. Hij zei er zelf bij dat hij nog verre van alles begreep en nog een lange weg af te leggen had.

De uitvinding van het schrift bracht de logica voort, door het mogelijk te maken te redeneren over de redenering eenmaal ze werd neergeschreven en dus herleesbaar was. Nu werd de logica gereanimeerd door de uitvinding van machines die met symbolen konden werken. In de hoogste vormen van redeneren, de wiskunde en de logica, scheen alles nu samen te smelten tot een geheel. Filosofen als Bertrand Russell en Alfred North Whitehead dachten dat met deze smeltpot van logica en wiskunde het einddoel van 'de perfectie' binnen bereik lag. Hun doel was immers ieder wiskundige feit te bewijzen. Vele groten waren hen voorgegaan in deze zoektocht: Boole, Babbage en Leibniz. In hun zoektocht ondervonden ze toch de pijn van paradoxen. Om deze te vermijden schreef Russell in zijn "Principia Mathematica" dat zaken als het vermengen van verschillende niveau's van abstractie, zelf-referenties en zelf-opsluiting verboden waren.

Kurt Gödel bewees in de jaren 1930 echter, door gebruik te maken van dezelfde rigoureuze logica van de Principia Mathematica, dat zelfs zonder het verbieden van circulaire logica er zich in elk logisch systeem, dat elementaire wiskundige bewerkingen kon uitvoeren, uitdrukkingen bevinden die waar zijn maar niet als dusdanig kunnen worden bewezen. De perfectie lag dus aan diggelen.

Gödel kwam tot zijn conclusie dat er dus geen compleet en consistent systeem kon bestaan. Hij deed dit door gebruikt te maken van cijfers. De lang gezochte 'universele taal' was dus altijd al aanwezig geweest, in de cijfers, die alle vormen van redenering konden coderen. Ze konden elke vorm van kennis weergeven.

Toen Gödel zijn ontdekking wereldkundig maakte was er maar een persoon die onmiddellijk het belang ervan inzag, een Hongaar, Jànos Neumann genaamd, die later in de V.S.A. de wereldberoemde naam John von Neumann zou krijgen. Russell was ondertussen van wiskunde naar filosofie overgestapt en zou later verklaren dat hij gelukkig was dat hij niet meer bezig was met wiskundige logica. Ludwig Wittgenstein, de befaamdste filosoof van Wenen, bleef geloven dat wiskunde niet zelf-contradictorisch kon zijn.

Het in 1933 gevormde Institute for Advanced Studies in Priceton kreeg als eerste faculteitleden John von Neumann en Albert Einstein. In 1940 zou Gödel nog toetreden, op de vlucht voor de nazi's. Gödel sprak er enkel met Einstein. Shannon, die er ook werkte, had enkel contact met Hermann Weyl, de bekenste theoreticus m.b.t. de kwantummechanica, die zijn supervisor was. Geen vruchtbare grond voor het ideeënuitwisseling dus.

Shannon bleef niet in Princeton. Hij werd door Vannevar Bush, die nu werkte voor de overheid als hoofd van het National Defence Research Committee toegewezen aan 'Project 7'. Dat project moest het probleem van de luchtdoelartillerie oplossen. Vliegtuigen vlogen immers nu aan snelheden die in de buurt lagen van de projectielen die ze moesten neerhalen. Shannon analyseerde er zowel de fysieke problemen als de rekenkundige problemen. Het luchtafweergeschut moest snelle afgelegde wegen in drie dimensies volgen, terwijl het zelf een dynamisch systeem was dat onderhevig was aan terugkoppeling en oscillaties. De voorspelbaarheid ervan bleek zeer moeilijk tot onmogelijk. De differentiaalvergelijkingen waren non-lineair en Shannon maakte zeer weinig vooruitgang.

Shannon had in de zomers ook nog gewerkt voor de Bell Telephone Laboratories in New-York. De afdeling wiskunde was ook bezig met het vuurleidingcontroleproject en vroeg aan Shannon om mee te helpen. Dit werk lag helemeel in de lijn van de Differential Analyzer. Een geautomatiseerd luchtafweergeschut was een analoge computer en het vertaalde als het ware tweede-orde-differentiaalvergelijkingen in mechanische bewegingen. De input waren afstanden tot het doel en het moest deze gegevens filteren en uitvlakken. Shannon en zijn collega's spraken van een analogie met het elimeneren van ruis op een telefoonlijn. De gegevens konden worden geïnterpreteerd als een gespecialiseerde vorm van een signaal, bedoeld om intelligentie te verzenden, manipuleren en te gebruiken.

Zo ingrijpend als de telegraaf was geweest en zo miraculeus als de radio was gebleken, zeer snel na de uitvinding van de telefoon bleek deze laatste de belichaming van de 'elektrische communicatievorm' bij uitstek. Hoewel vele intellectuelen in het begin denigrerend deden over haar kwaliteiten bleek het publiek snel gewonnen voor deze communicatietechnologie. In tegenstelling tot de telegrafie, die kennis van het schrift vroeg om een bericht op te stellen, was de telefoon een oraal medium. Iedereen die kon spreken kon het gebruiken. Dus wanneer de telefoon in de jaren 1870 enkel een experimenteel toestel was, was het rond 1900 de snelst groeiende technologie van de eeuw. In de V.S.A. waren er in 1890 zo'n half miljoen toestellen, in 1914 reeds 10 miljoen. De telefoon werd immers zeer snel van groot economisch belang om tijd te winnen.

Om de snelle expansie van het telefoonnetwerk mogelijk te maken, waren nieuwe technologieën en een nieuwe wetenschap nodig. Een van de problemen had te maken met de elektriciteit zelf, nml. het meten van elektrische hoeveelheden. De elektromagnetische golf werd ontdekt door Maxwell. De ingenieurs ontdekten het probleem van de terugkoppeling tussen de beide microfoons in het telefoontoestel en ze leerden de modulatie van de verschillende stromen zodat ze tot vier gesprekken via dezelfde lijn simultaan konden verzenden. Een heel ander probleem was dat van de organistatie van telefoongesprekken zelf. Ene George W. Coy bouwde in 1878 een schakelbord dat twee simultane gesprekken toeliet tussen 21 klanten. In 1879 was ene Dr. Parker bezorgd dat, wegens de uitbraak van een epidemie van mazelen, de vier operatoren die het schakelbord in Lowell, Massachussets, bedienden en de verbindingen maakten door naar elkaar te schreeuwen, dit werk niet meer zouden kunnen doen. Hij suggereerde elke telefoon door een nummer te identificeren en de nummers en corresponderende namen in een alfabetisch register op te nemen. Al gauw verschenen de eerste telefoonboeken die pas weer in het eerste decennium van de 21ste eeuw zouden verdwijnen (waardoor New-York alleen al 5000 ton papier per jaar zou uitsparen).

De operatoren in de telefooncentrales werden op den duur eerst vervangen door jongens (die minder moesten worden betaald), maar al snel door vrouwen (die nog minder moesten worden betaald en serieuzer werkten dan de jongens). Maar zelfs hele battaljons van vrouwen konden de manuele omschakelingen, die nodig waren in de telefooncentrales, niet meer bijhouden. Automatisatie drong zich op.

Het automatiseren van de telefoonverbindingen zorgde voor een nooit geziene complexiteit in de translatie tusen mens en machine, tussen nummers en circuits. In 1910 schreef een telefoonhistoricus (toen al) dat "... de telefoon het summum van elektrische wonderen was, dat zoveel kan doen met zo weinig energie." De complexiteit van de verbindingen zorgde voor een groepering van telefoonresearchgroepen onder de noemer van de Bell Telephone Laboratories. Bell Labs had grote behoefte aan wiskundigen en haar Mathematics Consulting Department groeide in een centrum voor toegepaste wiskunde zoals nooit tevoren gezien. Wiskundigen en ingenieurs moesten hand in hand werken om de problemen van de telefoonnetwerken op te lossen.

Dan was er nog de ruis, dat eerst niet als een theoretisch probleem werd aanzien. Het was er gewoon, niet alleen voor de telefoon, maar ook voor de radio. Ingenieurs konden intussen de ruis, die hun mooie sinusgolven degradeerde, zien op hun oscilloscopen. Ze wilden het meten en Albert Einstein had hen op de weg gezet. Hij had in 1905 een pamflet geschreven over de Browniaanse beweging van moleculen ten gevolge van de warmte, wanneer ze niet het absolute nulpunt hadden bereikt. Hij zei ook dat deze warmtebeweging de vrije elektronen in geleiders zou beïnvloeden, waardoor ruis zou ontstaan.

Het pamflet bleef onder de radar totdat in 1927 thermische ruis in circuits mathematisch werd onderbouwd door twee Zweden die voor de Bell Labs werkten: John B. Johnson en Harry Nyquist. Nyquist was al vanaf 1918 bezig met telefotografie, een methode om beelden te verzenden via telefoonlijnen door de foto's op een draaiende cilinder te monteren en te scannen en stromen te genereren proportioneel met de heldere en donkere zones op de foto's. Hij gaf in datzelfde jaar ook een lezing met de bescheiden titel "Certain Factors Affecting Telegraph Speed". Hij redeneerde dat, als continue signalen een weergave konden zijn van iets zo complex als een stem, dan is het simpele onderbroken signaal van een telegraaf enkel daarvan een speciaal geval. Beiden konden dus over dezelfde lijnen worden verzonden. Wat Nyquist wilde weten is: hoe snel? Zijn invalshoek was ingenieus: bij brak de continue signalen op in stukjes en converteerde ze in discrete data.

Een circuit kon vele golven met verschillende frequenties doorgeven, een frequentieband zegt men. De spanwijdte van de frequenties is de bandbreedte. Telefoonlijnen konden typisch golven van 400 Hz tot 3400 Hz overbrengen, een bandbreedte van 3000 Hz. Hogere tonen (een picolo in een orkest bijv.) werden afgebroken. Nyquist wilde dit zo algemeen mogelijk stellen: om 'intelligentie' met een zekere snelheid over te brengen is een zekere meetbare bandbreedte nodig. Bij te kleine bandbreedtes moest de transmissiesnelheid naar beneden. (Pas later ondekte men dat zelfs complexe berichten via een zeer nauwe bandbreedte konden worden verzonden in binaire vorm).

Nyquist's collega Ralph Hartley verruimde deze resultaten in een presentatie in 1927. Hij bracht daarbij een aantal ideeën en veronderstellingen naar zijn publiek die deel waren geworden van de onbewuste cultuur van de gemeenschap van elektrische ingenieurs en van Bell Labs. Hij zei dat 'informatie' een zeer elastische term was en dat communicatie plaatsgrijpt door middel van symbolen, zoals woorden, punten en streepjes. De symbolen brengen begrippen over door een gemeenschappelijke betekenis die eraan wordt gegeven. Hij voelde echter de noodzaak om te meten in termen van puur fysieke hoeveelheden. Hij begon dus symbolen te meten, ongeacht wat ze voorstelden. Een transmissie gevatte een eindige, telbaar aantal symbolen uit een set van mogelijke symbolen, zoals een alfabet, en het aantal mogelijkhden was ook telbaar. Hoe meer mogelijke symbolen er waren, hoe meer informatie iedere selectie ervan bevatte. Hartley schreef het als volgt: H = n log s, waarbij H gelijk is aan de hoeveelheid informatie, n het aantal symbolen in de boodschap en s de grootte van het alfabet. In een telegraafbericht zijn er enkel punten en streepjes (s = 2), maar in het Chinese alfabet zijn er meer dan duizend karakters (s > 1000). Elk ervan draagt dus meer gewicht dan het alfabet van Morse. De hoeveelheid informatie is dus niet proportioneel met het alfabet; om dubbel zoveel informatie te verzenden is een vier keer groter alfabet nodig. Telefoons zonden hun informatie in de vorm van continue golven, dus hoe zou men de informatie-inhoud kunnen berekenen? Hierbij volgde Hartley de denkwijze van Nyquist. De golf wordt opgedeeld in een serie van discrete stappen door de continue golf op gelijke intervallen te bemonsteren. Hartley toonde aan dat in beide gevallen (telegrafie en telefonie) de totale hoeveelheid informatie van twee factoren afhing: de tijd nodig voor de transmissie en de bandbreedte.

De pamfletten van Nyquist en Hartley kregen weinig aandacht in de gerenommeeerde tijdschriften. Bell Labs had echter haar eigen publicatie, The Bell System Technical Journal. Daar las Claude Shannon de artikels. De comminicatielieden waren niet alleen aan het praten over draden, maar ook over de 'ether'. Ze beschouwden niet alleen woorden, maar ook geluiden en afbeeldingen. Ze stelden de volledige wereld voor als symbolen, in elektriciteit.


Terug naar de inhoudsopgave


7 - Informatietheorie

Alan Turing, de man die in Bletchley Park de Enigmacode van de Duisters had gekraakt, ontmoette Claude Shannon verschillende keren in de Bell Labs in 1943. Door de strikte nood aan geheimhouding van hun opdrachten wisten ze van elkaar niet waar ze mee bezig waren. Shannon werkte aan het 'X System', dat de telefoongesprekken tussen Washington en London versleutelde. Dit systeem bemonsterde het analoge geluidsignaal 50 keer per seconde om het te kwantificeren en er een willekeurige sleutel op toe te passen, dat deed denken aan ruis, om het te versleutelen. Hij moest namelijk theoretisch bewijzen dat dit systeem onbreekbaar was, wat hij ook deed.

Waar ze wel over praatten was de mogelijkheid om een machine te leren denken. Merk op dat in die tijd de transistor en de elektronische computer nog niet bestonden. Ze hadden het echter niet over elektronica, maar over logica. Alan Turing bedacht een machine met ideale mentale krachten en toonde aan wat die machine niet kon doen. Een daarbij horend probleem was te weten of een taak 'mechanisch' was, deterministisch en niet 'creatief'. Een intellectueel mechanisch object is bijvoorbeeld een algoritme, bekend sinds Babbage en Lovelace, maar nu voor het eerst zo genoemd.

Turing had in 1936 een pamflet geschreven met de titel 'On Computable Numbers, with an Application to the Entscheidungsproblem'. Zijn vraag daarbij was: zijn alle getallen berekenbaar? Hij definieerde een berekenbaar getal als een getal wiens decimalen kunnen worden berekend via eindige middelen. En hij definieerde 'berekening' als een mechanische procedure, een algoritme. Mensen lossen soms problemen op via intuïtie, verbeelding en andere wegen, maar hoe zou een machine tewerk gaan?

Er bestond echter nog geen machine die berekeningen uitvoerde. Mensen voerden die nog uit met pen en papier. Dit weerhield Turing er niet van zijn imaginaire machine te beschrijven. In haar meest minimale versie moest de machine drie dingen bezitten: een band (eendimensionaal en zo lang als nodig), symbolen (twee symbolen als absolute minimum) en een 'bewustzijn' van 1 symbool per tijdstip, en 'staten' (of "configuraties" zoals Turing zei). Deze 'staten' stelde de machine in staat iets te doen met het symbool, bijvoorbeeld een plaats naar rechts schuiven, of het symbool wissen, of nog iets anders. De verschillende 'staten', nodig voor een berekening, zouden in een tabel worden opgeslagen. Deze 'statentabel' was de instructieset voor de machine. Meer was er niet nodig. In feite was Turing zijn machine aan het programmeren, maar dat werkwoord werd nog niet gebruikt in die zin.

Vanuit de primitieve acties van de machine – naar links bewegen, afdrukken, veranderen van staat, verwijderen, stoppen, ... – konden meer uitgebreide processen worden opgebouwd die steeds konden worden hergebruikt. Hoewel de machine slechts een symbool per keer ziet, kan zij delen van de band gebruiken om tijdelijk informatie op te slaan. Gezien de imaginaire band geen einde kende, lagen op die manier alle rekenkundige operaties binnen haar bereik. Turing toonde aan hoe zijn machine twee getallen kon optellen en ook de eindeloze reeks binaire getallen die π uitmaken moest afdrukken. Alles dat berekenbaar was kon door zijn machine worden berekend.

Als klap op de vuurpijl stelde hij de machines – die gereduceerd werden tot eindige statentabellen en eindige inputsets – voor door getallen. Elke mogelijke 'statentabel' gecombineerd met haar intiële band stelt een andere machine voor. Turing codeerde zijn machines dus op dezelfde wijze als Gödel zijn taal van de symbolische logica. Aldus verdween het verschil tussen data en instructies; het werden allemaal getallen. Voor ieder berekenbaar getal moest er een corresponderend machinenummer zijn. Turing produceerde een imaginaire machine 'U' die elke andere machine kon simuleren. Deze machine nam gewoon getallen als input, en die getallen waren de beschrijving van andere machines. Indien een probleem kon worden opgelost met een digitale computer, dan kon deze universele machine 'U' dat oplossen.

Nu draaide Turing het probleem om. De machine bekijkt elk getal om te zien of het correspondeert met een berekenbaar algoritme. Er waren drie mogelijke uitkomsten. Het getal was berekenbaar, het getal was niet berekenbaar of het algoritme doet de machine zolang werken dat de toekijker in het ongewisse wordt gelaten of de machine ooit zal stoppen. Turings argumentatie, gepubliceerd in 1936, was zo ingewikkeld dat weinigen het konden volgen. Het leek paradoxaal, maar hij slaagde erin te bewijzen dat sommige getallen niet berekenbaar waren (feitelijk zijn de meeste getallen niet berekenbaar). Hij bewees dat het Entscheidungsproblem een antwoord had, en dat antwoord was 'neen'. Een onberekenbaar getal is een onbesliste bewering. Wiskunde is niet beslist. Onvolkomenheid vloeit voort uit onberekenbaarheid.

Turing heeft nooit geprobeerd zijn machine te maken. Hij was bezig met de stap-voor-stap-logica van zijn eigen geest, net zoals Ada Lovelace. Hij reduceerde mentale processen tot de kleinste onderdelen, de atomen van de informatieverwerking.

Alan Turing en Claude Shannon hadden codes gemeen. Turing codeerde instructies als getallen. Shannon maakte codes voor chromosomen en genen en relais en schakelaars. Beiden gebruikten hun genie voor het 'mappen' van een set objecten naar een andere set. Dit soort coderen was niet bedoeld om iets te verbergen, maar om iets in het daglicht te brengen. De oorlog vereiste echter cryptografie.

Turing had reeds voor de oorlog in 1936 met zijn 'machine' codes voor geheimschrift gemaakt, maar de overheid in het V.K. had het omgekeerde probleem. Zij moest de Duitse Enigma-code zien te breken. Voor die taak werd Turing ingehuurd en als wiskundige toegevoegd aan de Government Code and Cypher School, die toen enkel uit linguïsten en klerken bestond. Turing nam het voortouw en loste het probleem op, zowel wiskundig als fysiek. De machine die hij daarvoor ontwierp heette de Bombe en deze bleef geheim tot 30 jaar na de oorlog. Op het einde van de oorlog waren de Turing 'Bombes' in staat dagelijks duizenden militaire berichten te ontcijferen.

Waar Turing en Shannon wel indirect over praatten was hoe ze al die informatie konden meten. Shannon keek naar de meer algemene casussen die 'discrete' informatie bevatten, zoals hij het noemde. Hij stelde dat een betrouwbaar systeem er een was die, hoewel de vijand de procedure om een bericht te maken kende, intact bleef zolang de sleutel geheim bleef.

Hij zei dat – vanuit het gezichtspunt van de cryptanalyst – het product van een geheim systeem bijna identiek was aan een communicatiesysteem met ruis. Patronen blijken echter opvallend persistent te zijn. Maar hij zag patronen als een vorm van redundantie. In de gewone taal is redundantie bedoeld als een hulpmiddel voor het verstaan. In cryptanalyse is redundantie echter de Achillespees. Zo zal de letter 'q' quasi altijd gevolgd worden door de letter 'u', zonder dat dit enige informatie toevoegt. Elke taal bezit een zekere statistische structuur en dus een zekere redundantie. Shannon verklaarde dat D de mate is van deze redundantie en dus voor de reductie van de lengte van de taal zonder informatieverlies. Hij schatte dat voor de engelse taal dit 50% zou bedragen, wat achteraf correct bleek te zijn. ("If u cn rd ths" bevat slechts 50% van de letters) De vroegste en simpelste substitutiesleutels werden dan ook vlug gebroken. Als je weet dat in het Engels de 'e' de meest voorkomende letter is en je code bevat veel letters 'z', dan in 'z' = 'e'. Zolang dat een cryptogram enige vorm van patronen vertoont kan een wiskundige in theorie de code breken.

Wat alle systemen van geheimschrift gemeen hadden was een sleutel die zender en ontvanger kenden. In het Duitse Enigma-systeem werd de sleutel dagelijks veranderd. De codebrekers van Bletchley Park moesten dus dagelijks opnieuw aan de slag. Shannon trok zich echter terug op een meer theoretisch gezichtspunt. Een geheimschrift bevatte een eindig aantal berichten, een eindige aantal cryptogrammen en daartussen een eindig aantal sleutels, elk met een zekere waarschijnlijkheid:

Op deze manier slaagde Shannon erin het idee van het bericht volledig van haar fysieke kenmerken te scheiden. Het bericht was een keuze, een alternatief gekozen uit een set. Shannon bouwde een algebraïsche methode op, met theorema's en bewijzen. Dit gaf de cryptanalisten wat ze nog nooit hadden: een vaste methode om de veiligheid van gelijk welk geheimschrift te schatten. Hij bewees dat een 'perfecte' sleutel mogelijk was, die – hoe lang het bericht ook was – de cryptanalist niet in staat zou stellen de code te breken. De eisen daarvoor waren echter zodanig dat ze onpraktisch waren. Elke sleutel mocht slechts eenmaal worden gebruikt en de sleutel moest even lang als het bericht zijn. In zijn pamflet (dat onmiddellijk geklassificeerd werd als geheim) gebruikte Shannon voor de eerste maal de term 'information theory'.

Shannon had echter te maken met de oude concepten over de 'betekenis' van een bericht en de bepaling van 'informatie'. Hij stelde dus dat de 'betekenis' van een bericht over het algemeen irrelevant was. 'Informatie', zo stelde hij, was nauw verwant met onzekerheid. Onzekerheid kan worden gemeten door het aantal mogelijke berichten te tellen. In die zin is informatie gelijk aan entropie.

Weinigen kenden het bestaan van het artikel dat Shannon had geschreven in de Bell System Technical Journal. Warren Weaver, die het wel had gelezen en begrepen, schreef in 1949 een minder technisch essay over Shannon's theorie. Samen met het essay werd de theorie van Shannon in het boek 'The Mathematical Theory of Communication' gepubliceerd.

Voor een leek is het fundamenteel probleem van communicatie zichzelf verstaanbaar te maken. Voor Shannon was het probleem het exact of minder exact reproduceren van een bericht, dat geselecteerd werd op een punt, op een ander punt. En door 'betekenis' achterwege te laten had Shannon ook het begrip 'communicatie' wijd opengetrokken. Het bevatte naast het gesproken woord dus ook muziek, afbeeldingen en zelf niet-menselijke communicatie tussen machines.

Shannon's model voor communicatie toonde grote gelijkenissen met zijn geheime pamflet over cryptografie:

Shannon's uitleg van het model gaat als volgt:

Een bijzondere rol is weggelegd voor de storingsbron. Zowat alles dat het signaal kan beïnvloeden valt hieronder. Shannon had bovendien twee systemen op het oog: continue en discrete. In discrete systemen nemen de berichten de vorm aan van individuele symbolen, zoals karakters of cijfers of punten & streepjes.

Iedere ingenieur wist hoe hij meer informatie door een kanaal moest krijgen: het vermogen opdrijven. Over lange afstanden echter faalde deze werkwijze omdat de storingsbronnen veel te groot werden. Shannon vermeed dit probleem door het signaal steeds als een serie discrete symbolen te behandelen. Dus in plaats van het vermogen op te pompen worden er extra symbolen toegevoegd voor foutcorrectie. Net zoals de Afrikaanse drummers deden. Shannon beschouwde de discrete systemen ook als meer fundamenteel in wiskundige zin. En hij beschouwde ook een ander punt: niet alleen communicatie in de traditionele zijn, maar in een nieuw, meer esotherisch subdomein, dat van de computers.

Dus keerde hij terug naar de telegraaf. Hij analyseerde ze en kwam tot de conclusie dat ze niet – zoals iedereen dacht – slechts twee symbolen gebruikte. Niemand had gedacht aan de twee spaties tussen de streepjes en puntjes: een korte spatie tussen letters en een lange spatie na een woord. Dus herformuleerde hij de taal van de telegraaf als in een van twee 'staten': indien het vorige 'symbool' een spatie was, dan kon enkel een punt of een streep volgen, en in de andere 'staat' was elk 'symbool' toegelaten. Hij maakte hiervan een schets:

Het was verre van een eenvoudig binair systeem, maar toch leidde hij de correcte formules voor informatie-inhoud en kanaalcapaciteit af. Hij focusde op de statistische structuur van de taal van het bericht, waarbij de frequentie van bepaalde letters en lettercombinaties groter was dan andere.

Om de structuur van een bericht te belichten gebruikte Shannon begrippen van de fysica van stochastische processen. Een stochastisch proces is niet deterministisch (het eerstvolgende gebeurtenis is niet exact te bepalen) maar ook niet willekeurig (de volgende gebeurtenis was niet volledig vrij in keuze). De gebeurtenis wordt bepaald door een reeks waarschijnlijkheden. Als we nu 'gebeurtenis' vervangen door 'symbool', dan is een geschreven taal een stochastisch proces. Met 'taal' bedoelde hij ook digitale spraak en een televisiesignaal.

Hij graafde dieper in de taal en zag dat er 'ordes' waren van waarschijnlijkheden. De waarschijnlijkheid van een letter die op een andere volgt kon nul zijn, dus niet bepaald door de voorgaande letter. Dit was de eerste orde. Bij een combinatie van twee letters lag de waarschijnlijkheid al hoger. In het Engels is 'th' veel waarschijnlijker dan 'xp'. Dit een tweede orde van gevallen. Bij hogere ordes kan er al naar woorden worden gekeken. Na het adjectief 'geel' zijn er woorden met een hogere waarschijnlijkheid dan andere. En als het woord 'koe' in een tekst voorkomt, dan is de waarschijnlijkheid groot dat dit woord nog eens in het bericht zal worden gebruikt.

Door steeds hogere ordes lettercombinaties te gebruiken zal de tekst meer en meer op een taal gelijken. Shannon had er echter enorm veel rekenwerk aan om de waarschijnlijkheid van alle combinaties te berekenen en hij schakelde dan ook over naar een andere methodiek. Shannon wilde immers de maat voor informatie bepalen als een maat van onzekerheid. Meer keuzes betekende meer onzekerheid. Keuzes konden opgebroken worden in opeenvolgende keuzes en dus zijn de waarschijnlijkheden addidtief. De waarschijnlijkheid van een bepaald digram zou de gewogen som van de waarschijnlijkheden van elk van de twee symbolen in het digram zijn. Bij gelijke waarschijnlijkheid is de hoeveelheid informatie die elk symbool draagt de logaritme van het aantal mogelijke symbolen: H = n.log(s). Voor de meer realistische gevallen schreef Shannon de mate van informatie als een functie van waarschijnlijkheden. Dit is het gemiddelde logaritme van de onwaarschijnlijkheid van het bericht: H = - Σ pi.log2(pi) waarbij pi de waarschijnlijkheid is van elk bericht. H wordt ook de entropie van het bericht genoemd of Shannon-entropie of simpelweg: de informatie.

Een nieuwe meeteenheid was nodig en Shannon zei dat de resulterende eenheden binaire digits kunnen worden genoemd, of korter: bits. Als de kleinst mogelijke hoeveelheid informatie stelt een bit de mate van onzekerheid voor die bestaat bij het gooien van een muntstuk. Elk van de twee mogelijkheden p1 (kop) en p2 (munt) is 1/2. De base 2 log van 1/2 = -1, en dus is H = 1 bit. Eén enkel karakter gekozen uit een alfabet van 32 bevat 5 bits informatie, want de log2(32) = 5. Een serie van 1000 zulke karakters bevat 5000 bits informatie of mogelijke berichten, want log2(32)1000 = 5000.

Hier komt de statistische structuur van de taal echter weer de kop opsteken. Als het bericht van 1000 karakters gekend is als een engelse tekst, dan is het aantal mogelijke berichten kleiner – veel kleiner. Shannon schatte de ingebouwde redundantie van de engelse taal op 50%. Elk nieuwe karakter in een tekst zou dus niet 5 bits maar slechts 2,3 bits informatie toevoegen. Op het niveau van zinnen en paragrafen achtte hij de redundantie zelfs 75% te zijn. Hij ging daarvoor empirisch aan de slag met een psychologische test op een proefpersoon: zijn eigen vrouw. Hij nam een willekeurig boek uit de bibliotheek en vroeg haar de eerstvolgende letter van een paragraaf die hij voorlas te raden. Dikwijls had ze de letter fout, maar als ze deze juist raadde, dan kon ze makkelijk de eerstvolgende drie letter raden om het woord te vormen. Als de engelse taal inderdaad 75% redundant is, dan draagt het slechts 25% van de informatie van 1000 willekeurig gekozen letters. Willekeurige berichten dragen dus meer informatie, wat paradoxaal lijkt. Dit impliceert ook dat een tekst in een natuurlijke taal efficiënter kan worden gecodeerd voor stockage of transmissie.

Shannon demonstreerde dit met een algoritme en hij leidde eruit een perplex pakket van fundamentele resutaten af. Een van de resultaten was een formule voor de absolute limiet van de capaciteit van een communicatiekanaal, en een ander was dat binnen deze limiet het steeds mogelijk was foutcorrectie toe te passen om de ruis te compenseren. Hij heeft dergelijke systemen niet ontworpen, enkel aangetoond dat ze konden bestaan. Zijn collega Robert Fano zei jaren later: "Dat je de kans op een fout zo klein mogelijk kon maken als je zelf wilden, dat wat iets dat niemand ooit had gedacht. Bijna alle moderne communicatietheorieën zijn gebaseerd op dat werk."

Als een bit een voorstelling is van de twee zijden van een muntstuk, dan had Shannon wel een meer praktisch gericht systeem voor ogen. Shannon had namelijk reeksen van relais gezien die honderden of zelfs duizenden bits konden stockeren. Terwijl hij de laatste hand legde aan zijn werk stapte hij toevallig binnen bij William Shockley bij Bell Labs. Die was bezig met het maken van halgeleiderkristallen. Hij zei aan Shannon dat het een 'solid-state' versterker was. Het ding had nog geen naam.

Nog voor de publicatie van zijn werk in de zomer van 1949 tekende Shannon op een stukje papier een verticale lijn met een exponentiële schaal. Hij lijstte zaken op die informatie konden stockeren, zo dacht hij. Hij begon onderaan met 3 bits, de informatie die een wiel in een oude rekenmachine kon stockeren. Net onder 103 noteerde hij 'ponskaart'. Bij 104 schreef hij 'pagina getypt met enkele spatie'. Bij 105 noteerde hij iets totaal onverwacht: 'genetisch bestand van een mens'. DNA was zelfs nog niet ontdekt! Dit was de eerste keer dat iemand suggereerde dat het genoom een informatiedrager was in bits. Hij zat er wel verschillende ordes van grootte naast. Helemaal bovenaan, bij 1014, schreef hij 'Library of Congress', de grootste pak informatie die hij kon bedenken.


Terug naar de inhoudsopgave


8 - De informatie-omslag

Waar de meeste wiskundige theorieën slechts langzaam vorm aannemen, daar sprong Shannons informatietheorie als een volledige gevormd geheel naar boven. De verschillende krietieken, van wiskundigen en biologen, waren echter niet erg positief. Enkel de filosofen waren verrukt met de concepten over informatie en entropie die Shannon had beschreven.

De meest eigenaardige commentaar kwam van Norbert Wiener van het M.I.T., onder wie Shannon was begonnen. Wiener was een man die nogal protserig deed over zijn eigen ontdekkingen en vooral over zijn 'uitvinding': cybernetica. Hij verklaarde dan ook dat het pamflet van Shannon en Weaver een mooie introductie was voor zijn cybernetica. Wiener was vooral verontrust over zijn eigen plaats in de intellectuele geschiedenis. Daar waar Shannon zichzelf vooral als een wiskundige en ingenieur zag, zo verklaarde Wiener zichzelf een filosoof te zijn.

Wieners werk over cybernetica richte zich vooral op de feedback. Positieve feedback doet een systeem de controle over zichzelf verliezen en negatieve feedback zorgt voor een evenwichtstoestand in een systeem.

Zijn boek 'Cybernetics' kende onverwacht een enorm succes toen het in 1948 verscheen. Rond die tijd begon het publiek zich ook bewust te worden van het bestaan van rekenmachines zoals de ENIAC en de Mark I van IBM. Deze machines werden door het publiek als 'breinen' aanzien en natuurlijk vroeg men zich af of deze machines konden 'denken'. Een deel van het succes van Wieners boeken lag daarin. Hij richtte in zijn boeken de focus terug op de mens. Wat konden de machinecontrolesystemen vertellen over de geestesziekten van de mens en konden deze mechanische breinen de menselijke hersenen vervangen in het intellectuele werk van alle dag? Hij ontwikkelde de mens-machine parallellismen verder in een ander boek. Hij onderscheidde in zijn werk ook de analoge machines en de digitale machines. Die laatsten zouden, volgens hem, beter werken met binaire nummers en Boolse logica. Hij argumenteerde dat het menselijke brein ook een logische machine was, met neuronen in plaats van relais. Analoge menselijke systemen, zoals hormonen, werden door hem achterwege gelaten in zijn betoog. "Dat de menselijke hersenen en logische machines beiden werken met energiehoeveelheden, zei hij, is naast de kwestie. Informatie is informatie, niet materie of energie."

Warren McCulloch, een neurofysioloog, organiseerde een conferentie in maart 1950 waarbij zowat alle belangrijke wetenschappelijke disciplines, waaronder ook sociale wetenschapen, waren vertegenwoordigd. De bedoeling was de impact van de informatietheorie op de andere disciplines aan te tonen en filosofische discussies te starten. Wiener maakte er al gauw een conferentie over cybernetica van. Wanneer zijn ideeën over de gelijkaardigheid van computers en menselijke hersenen echter te gretig werden herhaald in de pers was hij er als eerste bij om te weerleggen dat hij zoiets had gezegd.

Ralph Gerard, een neurowetenschapper, wou duidelijk maken dat het menselijke brein met zijn hersengolven en chemische signalensoep een analoge machine is. Von Neumann echter zei dat door abstractie kon gezegd worden dat neuronen ofwel vuurden ofwel niet, een puur digitaal sinaal dus. Ook een expert inzake spraak en gehoor, Licklider uit Harvard, was bezig met het kwantifiseren van spraak om te zien hoever dit kon worden gereduceerd maar nog steeds verstaanbaar zou blijven. Anderen gaven te kennen dat 'betekenis' niet steeds in een woordenschat te vinden is, want een persoon die kwaad is kan zijn emotie op ander manieren doorgeven. Een kwaad bericht reduceren totdat de ergernis eruit verdwijnt, hoe ver moet je daarmee gaan?

Toen het aan de beurt was van Shannon begon hij direct met de 'betekenis' overboord te gooien. Hij beschreef zijn expertiment met de 'voorspelling' van letters en zinnen uit een willekeurig boek om zijn idee over de entropie van een taal te illustreren. Wiener onderbrak hem om te zeggen dat zijn methode enig parallellisme met Shannons ideeën vertoonde. Het was duidelijk dat beiden een verschil in nadruk legden. Wieners entropie was een maat voor wanorde, voor Shannon een maat voor onzekerheid. Beiden hadden gelijk. Sommige toehoorders begonnen het ontstaan van gesproken en geschreven taal op een andere manier te zien na het betoog van Shannon. Een jonge fysicus schreef een persoonlijke noot na de conferentie: "Informatie kan gezien worden als orde onttrokken aan de wanorde".

Het jaar daarop kwam Shannon terug met een robot, gemaakt om een uitweg uit een doolhof te zoeken. Het elektronisch brein van de robot kon door middel van een sensor een obstakel herkennen en een andere weg nemen. Het kon tevens de gekozen weg opslaan en op de tweede poging feilloos het doolhof doorkruisen. Een andere configuratie van het doorlhof zorgde er echter voor dat de 'rat' (zo werd het genoemd) alles opnieuw moest leren. Gaandeweg leerde de 'rat' het volledige doorlhof kennen, maar eigenaardig genoeg kwam het in sommige omstandigheden in een logische lus terecht, waar het niet uit kon raken. Ralph Gerard noemde het een 'neurose'. Shannon bouwde echter een uitweg uit de neurose in, zodat het na zes keer proberen iets anders deed. De machine imiteerde niet alleen menselijk gedrag, het voerde functies uit vroeger alleen gereserveerd voor het menselijke brein. Een andere criticus, de latere Nobelprijswinnaar voor de uitvinding van holografie, Dennis Gabor, argumenteerde dat het niet de 'rat' was die herinnerde, maar het doolhof. De elektrische circuits, die het geheugen bevatten, konden immers eender waar geplaatst worden. Zij vormden de 'theorie' van het doolhof.

Niet alleen in de na-oorlogse V.S.A. waren biologen, neurologen en wiskudigen bezig elkaars domeinen af te tasten, dat gebeurde ook in Engeland. Daar richtten ze een vereniging op: de Ratio Club. Voor hun eerste vergadering inviteerden ze Warren McCulloh. Die sprak over zijn bedoeling om een zelf-lerend brein te maken door willekeurige synapsen met elkaar te verbinden. Anderen wilden dan weer spreken over patroonherkenning, over ruis in het zenuwstelsel en mechanisch zelfbewustzijn. McCulloh zag het brein als een telegrafisch relais, dat getriggerd werd door een signaal en als antwoord een ander signaal produceerde. Hij stelde dat op het allerlaagste niveau deze signalen als atomen waren, dat ze een fundamentele keuze-eenheid waren, binair in aard. Ze waren waar of vals, 1 of 0.

Deze club slaagde er ook in Alan Turing aan te trekken. Deze publiceerde zijn eigen provocerende manifesto met de titel: "Kunnen machines denken?" Daarin opperde hij een test, de 'Imitation Game', die later de Turing-test zou worden genoemd. De test moest uitmaken of je te maken had met een mens of een machine. In het pamflet beschrijft hij in detail de werking van die machine, die uit drie delen zou bestaan, een 'opslagplaats' om informatie op te slaan, een 'uitvoerende eenheid' die individuele operaties uitvoert en een 'controle' die de instructielijst beheert zodat ze in de goede volgorde worden uitgevoerd. De instructielijst noemt hij een 'programma'. Hij vertelde er zelf bij dat het een oud idee was en citeerde Charles Babbage. Hij zei daarbij ook dat diens fameuze mechanische Analytical Engine nooit werd voltooid. Hij doelde daarbij op de tijdgeest van de jaren 1950, die zocht naar een dergelijke machine, maar dan gebaseerd op elektriciteit. Hijzelf dacht echter in meer algemene termen over een computer, niet als elektrische machines an sich.

Turings machine was een logische machine en hij stelde voor dat de machine de Imitation Game zou spelen. Hij voorspelde daarbij dat in de komende halve eeuw de stockagecapaciteit van deze machines zou stijgen tot 109 bits [veel meer tegenwoordig, met de miniaturisatie] en dat ze geprogrammeerd zouden kunnen worden om de Imitation Game te spelen en de mensen voor enkele minuten om de tuin zouden leiden [wat ook waar is]. Hij heeft zijn voorspelling nooit zien uitkomen. Hij werd in 1952 gearresteerd voor homosexualiteit en pleegde zelfmoord in 1954. Zijn ideeën over denkende machines kregen echter de aandacht aan beide zijden van de oceaan. Mensen die bevreesd waren over zijn voorspellingen zochten steun bij Shannon, die echter voluit achter Turings ideeën stond. Hij vond het idee dat een menselijk brein zou kunnen worden gedupliceerd met levenloos materiaal een aantrekkelijk idee, meer dan het idee van een hypothetische 'ziel'.

Rond de jaren 1950 wilden computerwetenschappers weten wat hun machines konden doen en psychologen wilden weten of de menselijke hersenen een computer was. Psychologen hadden het altijd al moeilijk gehad om uit te leggen wat ze precies onderzochten. Ze bestudeerden niet het lichaam of het bloed, maar eigenlijk de ziel. Om alles nog moeilijker te maken was er in de psychologie het probleem van de verwikkeling tussen de observator en de geobserveerde.

Psychologen zochten in verschillende richtingen. Het pad van Sigmund Freud was er maar een van vele. In de V.S.A. kende men William James en in Rusland Ivan Petrovich Pavlov. De ene favoriseerde het mentale leven, de andere dacht slechts aan gedrag. In de eerste helft van de 20e eeuw waren het vooral de gedragswetenschappers die de bovenhand haalden. Hun studies over stimuli en responses leverde praktische resultaten op. Zij hadden niets van doen met mentale zaken zoals verwachtingen, gedachten en gevoelens. Maar ook zij kenden rond 1950 de frustratie van de stilstand in hun onderzoek. Psychologen wilden immers nog steeds weten wat de geest was.

De informatietheorie van Shannon gaf de psychologen de richting aan voor verder onderzoek. Nu konden ze zelf machines bouwen die net als ratten een doolhof konden doorlopen. Terwijl de geest van de rat ontoegankelijk was, was de interne machinerie van de mechanische rat dat niet. Ook zij konden nu spreken van plannen, algoritmen en syntactische regels. De formulering van Shannon m.b.t. het fundamenteel probleem van communicatie tussen zender en ontvanger werd door psychologen geïnterpreteerd als communicatie tussen de geest en de buitenwereld.

Ogen en oren waren nu berichtenkanalen geworden, dus konden ze net als camera's en microfoons worden getest en gemeten. Men mat de informatiecapaciteit van het oor en het oog. Men deed proeven om de ruis in conversaties en beelden te meten. Donald Broadbent, een Engelse experimentele psycholoog van de Cambridge University, onderzocht de problemen van aandachtstoornissen en korte termijngeheugen. Hij zei dat het beschrijven van resultaten van proeven in klassieke stimuli- & respons-termen veel onhandiger was dan in informatie-overdrachttermen. Hij onderzocht selectieve aandacht, korte- en lange termijngeheugen, patroonherkenning, probleemoplossend vermogen. Hoort de logica voor dat laatste niet thuis in de computerwetenschappen eerder dan in de filosofie?

In de V.S.A. hielp George Miller in 1960 het Center for Cognitive Studies in Harvard oprichten. Hij was reeds bekend van zijn publicatie 'The Magical Number Seven', waarin hij, zij het overgesimplificeerd, zei dat uit onderzoek bij de mens het nummer zeven de kop op stak. Hoeveel verschillende soorten zoutoplossongen kon een mens onderscheiden: zeven; hoeveel zaken kon een mens maximaal onderscheiden in een flits: zeven, enz. Mensen, zei hij, doen dingen die de informatietheoretici 'recording' noemen, het groeperen van kleine bits informatie in grotere brokken, tekens in letters en woorden en zinnen. Dit waren volgens hem de onderliggende processen van het denken.

Dit was het begin van een beweging die de cognitieve revolutie in de psychologie heette. De eruit voortvloeiende cognitieve wetenschap combineerde psychologie, computerwetenschappen en filosofie. Sommige filosofen noemden dit moment de 'informatie-omslag'. "Zij die de informatiedraai maken zien de informatie als het basisingrediënt om de geest te maken", dixit Frederick Adams. Zoals Miller zelf zei is de geest binnengekomen op de rug van de machine.

Hoewel Shannon geen grote bekendheid verwierf – behalve dan in zijn eigen vakgebied – gaf hij toch regelmatig lezingen over het onderwerp 'informatie'. Op een van die lezingen sloot hij af met een verklaring dat in de rest van de 20e eeuw de business van het vergaren, doorzenden en verwerken van informatie een hoge vlucht zou nemen.

Terwijl andere wetenschappelijke disciplines gretig gebruik begonnen te maken van deze informatietheorie waarschuwde Shannon dat het in essentie een wiskundige theorie was, die niet zomaar klakkeloos op alles kon worden toegepast. Hij pleitte dan ook voor een voorzichte toepassing ervan in andere disciplines, met het opstellen van hypothese en experimentele verificatie.

Voor de cybernetici kwam hun wereld tot een einde in 1953 met hun allerlaatste congres. In de jaren 1950 bleef Shannon de intellectuele leider van zijn discipline. Vele proefschriften stonden in die jaren bol van de mogelijke toepassingen van de informatietheorie. De toepassingen waren legio en bijzonder productief.

Een van Shannons essentiële resultaten was de oplossing voor het probleem van de ruis in het coderen. De foutcorrectie die eruit voortvloeide was in het begin een kwellend theoretisch aardigheidje, maar met de opkomst van de ruimtevaart en de computers begon het ernstige werk. Foutcorrectie is van fundamenteel belang bij het verzenden van berichten over grote afstanden met een heel kleine zender, zoals bij satellieten. Moderne CDs, modems en digitale TVs zonder zonder deze oplossing niet kunnen werken.

Foutcorrectie mag dan het belangrijkste werk zijn dat Shannon ooit heeft verricht, zijn ander werk was even essentieel. Hij beschreef de maximalisatie van de doorgang in een netwerk met vele takken, wat zowel toepasbaar is op communicatiekanalen, treinspoornetwerken, hoogspanningsnetten of watertransportnetten. Een ander pamflet van zijn hand was 'Reliable Circuits Using Crummy Relais', waarin hij schakelfuncties, snelheid-distortietheorie en differentiële entropie bestudeerde.

Vroeger nog dan dat had hij in 1948 een pamflet geschreven over een oud probleem, namelijk hoe een machine te programmeren om schaak te spelen. Daarin toonde hij aan dat computers, die cijfermatige berekeningen maken, wel degelijk een volledig schaakspel konden spelen. Daarbij ging hij niet uit van een programma om alle mogelijke schaakspelcombinaties te kunnen berekenen – die hij stelde op 10120 – maar via redenering, net zoals een mens doet. Hij stelde daarbij ook de vraag die op ieders lippen brandde: "Kan een schaakspelende machine ook 'denken'?". Als de machine op dezelfde manier tewerk gaat als een mens, dan is het antwoord: ja. In 1952 schatte hij dat het 3 programmeurs 6 maanden zou vergen om een programma te schrijven om een machine schaak te laten spelen op amateurniveau. Hij zei daarbij dat het nog verder in de toekomst lag om een machine te programmeren om een schaakspel aan te leren i.p.v. gepreprogrammeerd te werk te gaan. Het zou traag gaan, merkte hij op; de machine zou versleten zijn voordat deze één enkel spel zou winnen.

Soms gaf hij zich ook over aan zijn eigen grillen en hij bouwde een machine die wiskundige bewerkingen kon doen met romeinse cijfers, alsook een apparaat dat een kinderspelletje met het raden naar even en oneven kon spelen. Wat al deze exploten gemeen hadden was het gebruik van algoritmen in nieuwe domeinen, het abstracte mappen van ideeën in mathematische objecten. Een ander project van hem werd minder enthousiast onthaald. Hij probeerde een machine te ontwikkelen die zichzelf kon repareren. Het woord 'Frankenstein' werd gebruikt.

Twee jaar nadat Shannon waarschuwde voor het overlopen van de concepten van de informatietheorie naar andere disciplines had ook een andere collega van hem, Peter Elias, dezelfde opmerkingen gemaakt. Concepten als 'structuur', 'patronen', 'entropie', 'ruis', 'code', enz. waren plots "... ook van toepassing op domein X, Y of Z". Elias noemde dergelijke beweringen diefstal. Hij suggereerde dat zijn collega's deze diefstal zouden inruilen voor een leven van eerlijke arbeid.

Een notoir begrip in die kringen was 'entropie', dat men gebruikte in de linguïstiek, de sociale systemen, de economie, enz. en dat men meestal gebruikte zonder te weten waarover men praatte. Waar men echter aan voorbijging is dat de informatietheorie haar ingang vond in de theoretische fysica en de menswetenschappen, presies door het begrip 'entropie'.

In de sociale wetenschappen had de invloed van de informatietheorie haar hoogtepunt achter zich gelaten. Ze had de sociale wetenschappen gekatalyseerd en voorbereid op een nieuwe era. Meer en meer werd de informatietheorie echter toegepast in de computerwetenschappen. In elk geval kon de 'informatie-omslag' niet meer ongedaan worden gemaakt.


Terug naar de inhoudsopgave


9 - Entropy en haar demonen

Het was de Duitser Rudolph Clausius die, in de loop van zijn werk in de thermodynamica in 1865, de term 'entropie' voor het eerst heeft gebruikt. Hij zocht namelijk een term die het deel van de opgewekte warmte dat kon worden gebruikt in stoommachines kon beschrijven. Van het Grieks afgeleid wil het zoveel zeggen als "transformatie inhoud". Hij observeerde dat de warmte immers niet verloren gaat, net zomin als het water dat door een waterrad stroomt verloren gaat. Maar hoe hoog ook de energie-inhoud van een gesloten systeem is, als alles in het systeem dezelfde temperatuur heeft, dan kan geen arbeid worden verricht.

Hoe moeilijk het begrip is wordt duidelijk als je weet dat James Clerk Maxwell eerst niet akkoord was met Clausius en suggereerde dat het 'beter' was om entropie het omgekeerde te noemen, namelijk dat deel dat wel kan omgezet worden in mechanische arbeid. Een paar jaar later gebruikte hij weer de oorspronkelijke definitie, zoals Clausius had bedoeld. Entropie was geen soort energie of een hoeveelheid energie, maar de onbeschikbaarheid van energie.

Met het begrip 'entropie' was het mogelijk de wetten van de thermodynamica te schrijven:
Eerste wet - De energie van het universum is constant.
Tweede wet - De entropie van het universum is steeds stijgend.

Vele andere manieren van formuleren werden sindsdien gegeven. Lord Kelvin verklaarde reeds in 1862 dat alle beweging uiteindelijk tot stilstand zou komen door de diffusie van de warmte in het universum. De hittedood dus. Kelvin hield van de term 'dissipatie', omdat daarmee duidelijk wordt dat de energie niet verdwijnt, maar verspreid en nutteloos wordt.

Het was echter Maxwell zelf die zich intens zou bezig houden met de verwarring, de chaos, als een essentiële kwaliteit van entropie. Gedissipeerde energie is energie waar wij, als mensen, niets kunnen mee doen. 'Wij' maken dus deel uit van de definitie, zo redeneerde hij. Hij schreef: "Verwarring, zoals de eraan gecorreleerde term 'orde', is geen eigenschap van materialen zelf, maar staat in relatie tot de geest die ze ontwaart."

'Orde' is subjectief, het bestaat slechts in de geest van de waarnemer. Zou een wiskundige trachten definities te geven aan zaken zoals 'verwarring' en 'orde' en het trachten te meten? Als wanorde correspondeert met entropie, dan was het ook tijd voor een wetenschappelijke benadering ervan.

In het klassieke 'ideale' geval gaat men uit van een gesloten vat met gas. De wetenschappers van de 19e eeuw konden het bestaan van atomen en moleculen wel nog niet aantonen, maar ze gebruikten deze 'hypothetische' deeltjes wel in hun studies. Warmte was eenvoudigweg evenredig met de snelheid en dus het aantal botsingen van deze deeltjes met de wand van het vat. Indien in het vat een scheidingswand wordt aangebracht en het gas aan een zijde heter wordt gemaakt dan aan de andere zijde, dan zal van zodra de scheidingswand wordt weggenomen het hete gas zich mengen met het koelere gas. De uiteindelijke situatie na enige tijd zal een gasmegsel zijn met een uniforme temperatuur. Dit macroscopisch fenomeen kan verklaard worden op microscopische schaal door de snelheden en botsingen van hete en koele gasdeeltjes. Waar de wetenschappers wel moeite mee hadden is dat het proces niet omgekeerd kon worden. Zelfs al wacht je een eeuwigheid, het gasmengsel zal zich niet spontaan scheiden in hete en koele delen. Het duurde lang voordat men rekening hield met de waarschijnlijkheid van dergelijke voorvallen. Het 'ontmengen' van de gasdelen is fysiek wel mogelijk, alleen is het uitermate onwaarschijnlijk. De tweede wet van de thermodynamica is dus meer een waarschijnlijkheidswet. Statistisch gezien zal alles neigen naar maximale entropie.

De onwaarschijnlijkheid om warmte te laten vloeien van een koud lichaam naar een warm lichaam (zonder hulp van buitenaf) is identiek aan de onwaarschijnlijkheid dat orde zichzelf zou ontwikkelen uit wanorde. Beide zijn enkel en alleen fundamenteel afgeleid uit statistiek. Het is immers zo dat het aantal 'wanordelijke staten' van materie vele malen groter is dan het aantal 'ordelijk staten' en het aantal 'zeer ordelijke staten' is gewoonweg bedroevend klein.

Uiteindelijk gingen fysici een onderscheid maken tussen de microstaat en de macrostaat. In een macrostaat zou het kunnen dat alle gas zich in de bovenste helft van het vat bevindt. De overeemkomstige microstaat zou alle mogelijke combinaties zijn van alle deeltjes – posities en snelheden. Entropie werd dus gezien als een fysiek equivalent van waarschijnlijkheid. De entropie van een gegeven macrostaat is de logaritme van het aantal mogelijke microstaten. De tweede wet van de thermodynamica is dus de uitdrukking van de neiging van het universum om van een weinig waarschijnlijke macrostaat (= orde) naar een meer waarschijnlijke (= wanorde) te evolueren.

Het was echter nog steeds vreemd om zoveel van de fycica afhankelijk te maken van enkel en alleen de waarschijnlijkheid. Kan het gezegd worden dat niets een gas ervan weerhoudt om zich te scheiden in warme en koude delen? Maxwell deed daarvoor een gedachte-experiment. Stel je voor, zei hij, dat er een eindig wezen was dat de wacht hield over een gaatje in de scheidingswand. Dat wezen kan een onderscheid maken tussen snelle en trage moleculen en kan kiezen om ze al of niet door te laten. Dat wezen kan dus de kansen laten doorslaan in een bepaalde richting. Door trage en snelle moleculen te sorteren kan hij zijde A heet maken en zijde B koud, en dat zonder dat er enig werk is verricht. Om te sorteren is enkel informatie nodig. Thomson noemde dit "Maxwells demon".

De demon ziet dat de tweede wet statistsich van aard is, niet mechanisch. Op moleculair niveau wordt die wet constant overtreden, hier en daar, volledig bepaald door het toeval. De demon vervangt toeval door doelgerichtheid en gebruikt daarbij informatie om entropie te verminderen. Maxwell heeft nooit gedacht dat zijn demon zo bekend zou worden en zo lang zou leven. Wetenschappers waren jaloers op de demon. Hij werd een bekende figuur in vele strips. Herni Poincaré zei dat de demon de loop van de geschiedenis van het universum kon omdraaien, en was dat niet juist datgene waar vele mensen van droomden?

In het begin van de 20e eeuw konden de biologen via hun sterk verbeterde microscopen zien dat de levende cellen eigenlijk kleine fabriekjes waren. De cellen werken als pompen en filters. Het leven zelf leek een organiserende kracht. De processen van het aardse leven waren wel omkeerbaar. Dus moest het organisme wel degelijk de ongecoördineerde bewegingen van moleculen kunnen controleren, dacht men.

De demon spookte door het hoofd van een briljante Hongaarse fysicus, Leó Szilárd – de latere uitvinder van de electronenmicroscoop en de nucleaire kettingreactie. Hij bedacht een ander gedachte-experiment, waarbij er geen intelligente demon aan te pas kwam. Het systeem omvatte een zuiger in een cilinder. Het systeem, zo zei hij in de jaren 1920 (nog voor de tijd van Turing) moest een geheugeneigenschap hebben met twee toestanden. Hij toonde aan dat zelfs dit perpetuum mobile moest falen omdat de 'informatie', nodig om het systeem te laten functioneren, niet gratis was. Maxwell, Thomson en de rest hadden steeds gepraat over de 'kennis' alsof het voor het rapen lag. Zij gingen voorbij aan de kost van deze informatie. Voor hen leek het alsof de informatie in een parallel universum bestond.

Informatie is echter fysiek, en Maxwells demon maakte de link. De demon converteert informatie in energie, partikel per partikel. Hij vond dat, als hij de optelsom maakt van elke meting en geheugenstap, hij exact de coversie kon berekenen. Hij deed dat ook en vond dat elke eenheid van informatie een corresponderende verhoging van entropie – specifiek: k.log(2) eenheden – met zich meebracht. Een keuze maken kost de demon dus 1 bit informatie. 'Terugbetaling' moest geschieden aan het einde van de cyclus wanneer de demon zijn geheugen weer moest vrijmaken. Deze werkwijze is de enige manier om de paradox van het perpetuum mobile tegen en gaan en terug het universum in harmonie te brengen volgens de tweede wet van de thermodynamica.

Szilárd had dus de sprong gemaakt tussen de concepten van entropie en informatie voor Shannon. Shannon las echter geen Duits en niemand had er hem op attent gemaakt dat Szilárd reeds daarover had geschreven. Shannon had dus de wiskunde achter entropie heruitgevonden.

Voor de fysicus is entropie een maat voor de onzekerheid m.b.t. de staat van een fysiek systeem. De microstaten zijn niet allen even waarschijnlijk, dus schrijft de fysicus: S = - Σ pi.log2(pi). Voor de theoretische informaticus is entropie een maat voor de onzekerheid m.b.t. een bericht; een bericht tussen vele andere dat een zender kan produceren. De mogelijke berichten zijn niet alle even waarschijnlijk, dus schreef Shannon H = - Σ pi.log2(pi).

De natuur geeft dus gelijkaardige oplossingen voor gelijkaardige problemen. Om entropie te reduceren in een vat, om nuttig werk te verrichten, betaalt men een prijs in informatie. Ook een welbepaald bericht reduceert de entropie in een verzameling mogelijke berichten (een faseruimte).

Wiener en Shannon zagen hun resultaten op een lichtjes andere manier. Wiener zei dat informatie orde betekende en geen wanorde. Hij sprak dus van negatieve entropie. Om het in andere woorden te zeggen: H is de mate van verrassing. H is het gemiddelde aantal ja-neen-vragen die moeten worden gesteld om het onbekende bericht te raden. Shannons visie bleek achteraf juist en vruchtbaar voor de latere wiskundigen en fysici.

Wij handelen allemaal als Maxwells demon. Organismen organiseren. We sorteren, bouwen, creëren symmetrie, enz. en we doen dit allemaal zonder veel energie te verspillen zolang we intelligentie kunnen toepassen op onze processen. Niet alleen mensen doen dit; alle levende wezens doen mee aan het propageren van structuur. Het zou absurde oefening zijn al deze thermodynamische processen te berekenen, maar we kunnen rustig beweren dat we entropie reduceren. Bit per bit. Vergeleken met reële organismen is de demon van Maxwell een zwakbegaafde met een computergeheugen. Levende wezens verminderen niet alleen de entropie in hun omgeving, hun samenstellende delen zijn mirakels van patronen en structuren. Het is alsof onze reden van bestaan het beperken van de entropie in het universum is.

In 1943 besloot Erwin Schrödinger, de pioneer van de kwantumfysica, dat de tijd gekomen was om zich te wagen aan het oplossen van de grootste en moeilijkste vraag van alle: wat is 'leven'? Een aantal van zijn lezingen daaromtrent gaf hij uit in een klein boekje dat de basis legde voor een ontluikende tak van de wetenschap die genetica en biochemie combineerde: de moleculaire biologie. Het was een signaal voor fysici dat de volgende reeks grote problemen in de biologie zouden opduiken.

Hij begon bij het raadsel van de biologische stabiliteit. Deze zorgde ervoor dat de structuur van een levend organisme een merkwaardige standvastigheid vertoonde in de tijd en zelf kon worden overgeërfd. "Wanneer is een stuk materie in leven?" vroeg hij. Zijn simpelste uitleg was: "Wanneer het voortdoet met iets te 'doen'". Een stukje materie komt uiteindelijk tot rust, een stabiele situatie wanneer maximale entropie is bereikt. Levende structuren blijken in een onstabiele toestand te verblijven. De enige stabiele toestand van een levend wezen is de dood.

Schrödinger voelde aan dat het ontwijken van de tweede wet (toch voor een tijdje) exact dat is wat een levend wezen op raadselachtige wijze probeert te doen. Het in staat zijn om in een soort 'perpetuum mobile' te vertoeven leidt bij zovele mensen tot het geloof in een bovennatuurlijke 'levenskracht'. Hij bespotte dat idee, evenals op het idee dat 'levende wezens zich met energie voeden'. Nee, zei hij, het organisme voedt zich met negatieve entropie. "Om het minder paradoxaal te laten klinken", zei hij, "is het essentiële deel van het metabolisme dat het organsime erin slaagt zich te bevrijden van alle entropie dat het produceert door te leven." In andere woorden zuigt het wezen ordelijkheid uit haar omgeving. Carnivoren voeden zich met herbivoren die op hun beurt planten eten. De planten onttrekken niet alleen energie maar ook negatieve entropie uit zonlicht (de energetische balans hiervan valt nog te berekenen, de berekening van de 'orde' is veel moeilijker).

Hij bekende dat er nog veel moest geleerd worden over hoe het leven de 'ordelijkheid' uit de natuur opslaat en vereeuwigt. Hij verwonderde zich over het feit dat iedere cel van een volledig organsime de volledige code van het organisme in zich draagt in de vorm van chromosomen. Hij vergeleek dat met een leger waarin iedere soldaat elk detail van het plan van de generaal kent.

Deze details zijn de discrete eigenschappen van het organisme, maar het bleef een mysterie wat precies deel uitmaakte van zo'n 'eigenschap'. Schrödinger focuste daarbij niet op wat gelijk is in organismen, maar wat verschilde van het ene naar het andere organisme. Het moest iets zijn in de chromosomen? Hij gebruikte de term 'genen', als het hypothetisch materiaal van een overerfbare eigenschap. Hij speculeerde dat ze erg klein waren, 100 tot 150 atoomlengten en bestaande uit misschien een 1000-tal atomen. En we moesten ze zien als een 4-dimensionaal object: de structuur van het organisme in elk stadium van embryo tot volwassen organisme.

Zoekend naar gelijkenissen viel het op dat er nog regelmatige structuren in de natuur bestanden: kristallen. Ze zijn relatief permanent en opgegroeid van een kleine kiem tot grote structuren. Kwantummechanica begon inzicht te geven in de krachten die speelden in de verbindingen van de moleculen. Maar Schrödinger voelde dat er iets tekort was. Kristallen zijn te ordelijk en bestonden uit te weinig verschillende moleculen. Het leven moest gewoonweg gebaseerd zijn op grotere, complexere structuren die niet zo repetitief zijn. Hij bedacht de term 'aperiodieke kristallen'. Het verschil met gewone kristallen, zei hij, was hetzelfde als tussen een repetitief patroon op muurpapier en een meesterwerk van tapijtknoopkunst zoals van Raphael.

Sommige van zijn bewonderaars waren wel overtuigd, maar zeiden dat het werk van Schrödinger te slim was om volledig overtuigend te zijn. Léon Brillouin wist dat sommige kristallen zelfreparerende eigenschappen hadden, maar verwonderde zich over het zelfreparerende vermogen van levende organismen. Hij volgde Schrödinger wel in diens betoog over het gebruik van entropie om de kleinste en de grootste schalen te verbinden. Hij zei dat de aarde geen gesloten systeem was en dat leven zich voedde met energie en negatieve entropie dat in het aardse systeem lekt. De cyclus was als volgt: eerst het creëren van onstabiele evenwichten (brandstoffen, voedsel, watervallen, ...) en dan het gebruik van deze bronnen door levende organismen.

"Levende wezen verstoren de gebruikelijke berekening van entropie", zei Brillouin. "Informatie doet hetzelfde". Een stapel afvalpapier met het gelijke gewicht van een boek heeft ogenschijnlijk dezelfde entropie, als je beide verbrand in een oven, maar niet voor de lezer ervan. Fysici doen hetzelfde door te observeren, wetten op te stellen en machines te maken met de meest onwaarschijnlijke structuren die nooit gezien zijn geweest in het universum. Hij schreef dit in 1950, toen hij overstapte van Harvard naar IBM Corp.

Het was niet het einde van de demon; deze verdween uit de thermodynamica om te migreren naar een andere discipline: de mechanische computers. Iemand schreef: "Maxwells demon stierf op de leeftijd van 62 jaar (met een pamflet van Szilárd), maar blijft rondspoken in de kastelen van de fysici als een rusteloze en liefelijke klopgeest."


Terug naar de inhoudsopgave


10 - De code van het leven zelf

Wetenschappers zijn verliefd op hun fundamentele deeltjes. Net zoals de fysici trachtten de biologen ook overerfbare kenmerken in een deeltje te vatten. In 1875 werd geopperd dat de biologen fysiologische eenheden 'plasticules' zouden noemen, zoals de fysici 'moleculen' als basiseenheden gebruikten. Het was echter in 1910 dat de Deense botanist Wilhelm Johanssen voor het eerst suggereerde het woord 'genen' te gebruiken. Hij trachtte wel de alomtegenwoordige mythe te ontkrachten dat genen de persoonlijke kwaliteiten van voorouder op nageslacht zouden overbrengen als "... het meest naïeve en oudste concept van erfelijkheid". Wat overgeërfd werd was volgens hem meer abstract, meer in de zin van een potentialiteit. De preciese aard van de 'genen' was echter nog steeds hypothetisch. In zijn werk duidde Gregor Mendel erop dat iets dergelijks moest bestaan, en hij kan dus als ontdekker ervan worden beschouwd. Maar hij heeft die term nooit gebruikt. Hij beschouwde heel het concept van erfelijkheid eerder als een algebraïsch gegeven dan het gevolg van een fysiek entiteit.

Wanneer Schrödinger het had over de 'genen', dan zat hij wel met een probleem. Hoe kon een klein stukje materiaal alle complexe code bevatten nodig voor de ontwikkeling van een organisme? Als mogelijkse oplossing ging hij te rade bij de telegrafisten en dacht aan een soort van Morse-code. Genen, zo dacht hij, moeten ook een soort code gebruiken. De genen moesten dus de code voor het specifieke ontwikkelingsplan van het organisme bevatten en ook de middelen om het uit te voeren.

In de jaren 1940 rook dat jargon van 'code', 'instructies' en 'signalen' nog naar het werk van ingenieurs en had een kunstmatige karakter, maar dat ging vlug voorbij. De nieuwe tak van de moleculaire biologie begon met het onderzoek naar de opslag en overslag van informatie. Biologen konden nu tellen met 'bits'. Henry Quastler, een Weense radioloog, schatte dat een aminozuur het informatie-equivalent van een geschreven woord had en een proteïnemolecule het equivalent van een paragraaf. Zijn collega Sidney Dancoff stelde hem voor in 1950 dat een chromosoonstreng een "... lineair gecodeerde band met informatie" was.

In 1952 organiseerde Quastler een symposium met geen ander doel dan het verspreiden van zijn ideeën over entropie, ruis, berichtgeving, differentiatie in gebieden gaande van celstructuren tot volledige biosystemen. Er werden schattingen gemaakt van het aantal bits van informatie in een bacterie (ca. 1013) tot de reductie van entropie in de omgeving van een groeiende bacterie. Quastler zelf was geïnteresseerd in het meten van de informatie-inhoud van een hoger organisme. Niet zozeer in het aantal atomen, maar in aantal instructies om het organsime te creëren, wat hem natuurlijk leidde naar de genen. "De volledige 'catalogus' van instructies is het 'genoom'", zo argumenteerde hij, "dat ergens op de chromosomen moet liggen". Het probleem was dat men niet wist hoe 'genen' vertaald moest worden in fysieke entiteiten. Waren ze discreet, of overlapten ze elkaar? Waren ze onafhankelijk van elkaar of deden ze beroep op elkaar? Al deze ruwe pogingen tot kwantificatie leidden nergens naar, want Shannons informatietheorie kon niet een-op-een worden vertaald naar de biologie. Het was van geen belang; men was reeds begonnen met de verschuiving van het denken in termen van energie naar termen van informatie.

Het waren uiteindelijk James Watson en Francis Crick die het gen vonden. Het concensus was toen reeds dat, hoe het ook functioneerde, het waarschijnlijk een proteïne moest zijn, een lange reeks aminozuren. Reeds in de jaren 1940 was men op zoek naar genen in virussen en bacteria. Het enige gemeenschappelijke aan al deze organismen was een nucleïnezuur in hun kern. Chemici die met nucleïnezuren werkten konden er nog maar weinig over zeggen, behalve dat ze opgebouwd waren uit kleinere delen, de nucleotiden. Watson en Crick dachten dat het geheim precies daarin lag en trachtten de structuur ervan te doorgronden in het Cavendish laboratorium in Cambridge. Ze konden de moleculen dan wel niet zien, ze zagen wel de diffractiepatronen ervan via X-stralenanalyse. Elke nucleotide bevatte een base, en er waren maar 4 veschillende basen.

Wat ze ontdekten werd wereldberoemd: de dubbele helix met twee lange basevolgorden die paarsgewijs aan elkaar gekoppeld waren. Vier codeletters A, G, C en T die in steeds afwisselende ketens de code van de levende wezens bevatte. Wanneer losgekoppeld, kon elke streng dienen als sjabloon voor het kopiëren ervan. De X-straaldiffractiepatronen toonden een regelmatige structuur, terwijl de volgorde van de basen het abstracte niveau van de taal voorstelde, zoals het 'aperiodiek kristal' van Schrödinger. De lengte van de molecule maakte vele permutaties van basen mogelijk zodat Watson en Crick iets opmerkten dat niet in dovemans oren zou vallen: "Het lijkt er dus op dat de preciese volgorde van de basen de code is die de genetische informatie draagt". Zij gebruikten de woorden 'code' en 'informatie' niet meer figuurlijk.

De macromoleculen van het leven bevatten informatie op een ingewikkelde manier. De mogelijke combinaties om bijvoorbeeld hemoglobine te maken zijn zo groot dat, als je alle atomen ervan willekeurig zou mengen, je de volledige leeftijd van het universum zou nodig hebben om de molecule te krijgen. De wet van de entropie is van toepassing op deze moleculen. Ze zijn ontstaan uit simpelder stukken die op hun beurt energie van de zon hebben opgenomen. De informatie voor deze macromoleculen is via de evolutie gekomen.

Voor Watson en Crick was het initiële probleem te verstaan hoe de moleculen en hun verbindingen in elkaar staken in drie dimensies. Nu echter was het probleem getransformeerd in een abstract spel van symboolmanipulatie. Naast de dubbele streng van het DNA bestaat ook de enkele streng van RNA. Deze molecule speelt kennelijk de rol van vertaler of berichtoverdrager. Verschillende niet-biologen, zoals de beroemde Gamov (fysicus en Big Bang-theoreticus), zagen dat het een wiskundige puzzel was, meer dan een chemische, een overdracht van berichten tussen alfabets. Dit was een coderingsprobleem en dat kon enkel worden opgelost met de hulp van de informatietheorie. Gamov was bezeten door het idee dat een combinatiecode moest worden gevonden om van vier basen twintig gekende aminozuren (van proteïnen) te maken. Puur afgaande op combinatierekenkunde deed het hem denken aan nucleotide-triplets, drieletterwoorden dus. Later echter toonde Crick aan dat dit verkeerd was.

Vele bekende geleerden deden mee aan de zoektocht. Zij hadden allemaal verschillende ideeën over de 'code'. Wiskundig scheen het probleem immens, zelfs voor Gamov. Gamov en Watson richtten zelfs een club op (de 'RNA Tie Club' met exact 20 leden) om een snellere communicatie van ideeën en resultaten mogelijk te maken aan beide zijden van de oceaan, zodat ze niet moesten wachten op publicaties in wetenschappelijke tijdschriften. Er ontstonden twee diametraal tegengestelde groepen m.b.t. de 'code'. De meeste biochemici dachten niet dat de code zo simpel was en wiskundig op te lossen was, zoals Gamov beweerde. Zij zochten naar manieren om de proteïneketens te ontrafelen door enzymesystemen en het koppelen van peptide-eenheden te bestuderen. Gamov en anderen waren de andere extreme groep, die niets wilden weten van de biochemische details en enkel het schokkerende simpele systeem wilden aanhangen: ieder levend wezen is bepaald door een 'lang nummer' geschreven in een vier-digitaal systeem.

Het resultaat van dit alles was dat voortaan het woord 'code' zo gemeen was geworden in de conversaties dat de mensen zelden merkten hoe uitzonderlijk het was zo'n object te vinden. Het ding gebruikte abstracte symbolen om willekeurig verschillend abstracte symbolen voor te stellen, gebaseerd op chemie op moleculair niveau. De genetiche code oefende een functie uit die vreemd genoeg quasi dezelfde was als de meta-wiskundige code die Gödel uitvond voor zijn filosofisch doel. Gödels code wisselde wiskundige uitdrukkingen en operaties in voorgewone getallen. De genetische code gebruikt triplets van nucleotiden om aminozuren voor te stellen. Douglas Hofstadter was de eerste die dit opmerkte in de jaren 1980. In beide gevallen bemerkte hij ook een kronkelige feedbacklus. Hij schreef: "Niemand had ooit kunnen vermoeden dat een set van chemische stoffen kon 'coderen' voor een andere set".

De 'Tie Club' zag in dat er niet alleen een probleem was van informatieopslag, maar ook van informatieoverdracht. DNA heeft een tweeledig doel. In eerste instantie bewaart het de informatie over het organisme gedurende eeuwen door zichzelf te kopiëren. Hoewel opgeslagen in een mooie dubbele helix is de informatie eigenlijk lineair voor te stellen. In tweede instantie brengt DNA ook het bericht over voor het vervaardigen van het organisme. De informatieoverdacht geschiedt via berichten van de nucleïnezuren naar de proteïnen, van 1 dimensie naar 3 dimensies. Deze proteïnen zijn niet alleen de mortel en de bakstenen, maar ook de de bedrading en de controlesystemen die instaan voor de groei van het organisme. Biologen begonnen dit nu klaar en duidelijk in te zien. Gamov stelde het zo: de kern van een levende cel is de opslagplaats voor de informatie en het is terzelfdertijd een informatieoverbrenger. De eigenlijke studie van genetica is destudie van de 'taal van de cellen'.

Gamov probeerde nog verschillende 'codes' uit, die allemaal fout bleken. Het triplet bleek centraal te staan in de 'code'. Een onoplosbaar probleem scheen de manier waarop de natuur 'leestekens' plaatste in de lange, ononderbroken ketens van DNA en RNA. Enkele wiskundigen, die zich op het probleem concentreerden, waren afkomstig van het Jet Propulsion Laboratory in Pasadena, Californië. Voor hen leek het op een klassiek probleem in de codetheorie van Shannon. Zij maakten een 'woordenboek' van codes, en ze dachten tevens aan 'misdrukken' Maar alle cryptanalisten van de wereld samen zouden nooit in staat geweest zijn om de code te vinden tussen het universum van mogelijke antwoorden. Biochemie bleek het antwoord te zijn. Toen de code in de jaren 1960 eindelijk werd gekraakt, bleek ze vol redundantie te zitten. Veel 'vertaalwerk' tussen nucleotiden en aminozuren bleek arbitrair te zijn, en helemaal geen mooie patronen te vormen zoals Gamov had gedacht. Sommige aminozuren correspondeerden met één enkel codon, andere met twee, vier of zes. Particles, ribosomen genaamd, schakelden langs de RNA-streng en vertaalden deze, drie basen per keer. Sommige codons waren redundant en andere bleken start- en stopsignalen te zijn. De redundantie zorgde voor fouttolerantie, zoals verwacht. Ruis komt immers ook voor in biologische berichten; fouten in DNA – de 'misdrukken' – zijn mutaties.

Nog voordat dit alles bekend was had Crick reeds een fundamenteel principe geopperd, dat hij het 'Centraal Dogma' noemde. Het was een hypothese omtrent de richting van de evolutie en het ontstaan van het leven. Het kan bewezen worden in termen van de Shannon-entropie van mogelijke chemische alfabets. Het 'Centraal Dogma' stelt dat, eenmaal 'informatie' is doorgegeven in een proteïne, het er niet meer kan uitkomen. Transfer van informatie van nucleïnezuur naar nucleïnezuur of van nucleïnezuur naar proteïne is mogelijk, maar van proteïne naar proteïne of naar nucleïnezuur niet. 'Informatie' betekent hier de preciese bepaling van de volgorde.

De genetische informatie is onafhankelijk en ondoordringbaar. Informatie werd nog nooit eerder op zo'n kleine schaal geschreven. Omne vivum ex ovo. Sydney Brenner zei: "De volledige beschrijving van het organisme is reeds geschreven in het ei. We kennen de taal, maar we weten niet wat de 'namen' zijn. Heeft het organisme bijvoorbeeld een 'naam' voor 'vinger'?" Wanneer hij 20 jaar daarvoor begon samen te werken met Crick had de moleculaire biologie zelfs nog geen naam. In de jaren 1990 echter waren geleerden wereldwijd bezig met het ontrafelen van het volledige menselijk genoom. De meest fundamentele verandering gedurende die tijdspanne was de sprong van het raamwerk van energie en materie naar informatie.

In de jaren 1950 was de biochemie vooral bezig met de zoektocht naar waar de energie en de materie vandaan kwamen voor een functionerende cel. De ontdekking van de dubbele helix deed de geleerden realiseren dat informatie in biologische systemen kon worden bestudeerd op dezelfde wijze als energie en materie. Indien je vroeger aan een bioloog had gevraagd hoe je een proteïne maakt, dan had die geantwoord dat dit een vreselijk ingewikkeld probleem was. Hij had er wellicht op gewezen dat je moest zoeken naar de energie om de peptide-bindingen te maken. De moleculaire biologen hadden dan wellicht geantwoord dat het probleem de instructies waren om de volgorde van aminozuren te vervaardigen en niet de energie; die zou voor zichzelf zorgen.

Rond deze tijd bevatte het technisch jargon woorden als 'alfabet', 'bibliotheek', 'bewerken', 'proeflezen', 'transcriptie', 'redundantie', enz. Genetica en DNA hadden niet alleen de aandacht gewekt van cryptografen maar ook van klassieke linguïsten. Bepaalde proteïnen, die capabel waren om van een relatieve stabiele staat om te schakelen naar een andere, werkten als relais die versleutelde commando's aanvaardden en ze doorgaven aan hun buren. Ze functioneerden als relaistations in driedimensionale communicatienetwerken. Brenner dacht vooruit en dacht dat de focus op de computerwetenschappen zou komen te liggen. Hij dacht aan een wetenschap, nu nog naamloos, van chaos en complexiteit. De biologen zouden een andere taal moeten leren, zei hij, meer in de richting van het fundamenteel probleem van de theorie van ingewikkelde systemen. Hij dacht aan John van Neumann en de cybernetica. Hij zocht meer in de richting van algoritmen, recepten en procedures.

Als je wilt weten wat een muis is, dan moet je je afvragen hoe een muis wordt gemaakt. De genen van de muis schakelen aan en uit en voeren dus berekeningen uit in stappen. Brenner dacht dat de moleculaire biologie in die richting moest evolueren, met het onderzoek naar computerprogramma's op hoger niveau, de algoritmen van de ontwikkeling van het organisme. Hij wou graag de twee takken in de biologie naadloos laten samensmelten: de tak van de moleculaire 'hardware' en deze van de logische 'software', van hoe dat allemaal is georganiseerd.

Het gen was begonnen als een gok van een botanist, vervolgens als een algebraïsche gemak en is uiteindelijk opgespoord als opgerolde moleculaire strengen op het chromosoom. Gunther Stent verklaarde in 1977 dat "Het gen, in feite, een lineaire reeks DNA-nucleotiden is dat een lineaire reeks van proteïne-aminozuren bepaalt." Anderen hadden meer moeite met deze definitie, ook al omdat het klassieke concept van het gen drie gelijktijdige doelen had: recombinatie, mutatie en functie. Vooral dat laatste doel bleek moeilijk te bepalen. Het woordje 'gen' was dus zwaar beladen.

Een deel van de problemen lag in een botsing tussen moleculaire biologie en evolutionaire biologie. Botsingen leveren vaak vruchtbare gevolgen op, maar vaak ook vonken. Een jonge zoöloog in Oxford, Richard Dawkins, maakte ook vonken. Hij vond dat vele collega's op een verkeerde manier naar het leven keken. "Moleculaire biologen denken dat we DNA gebruiken zoals we longen gebruiken om te ademen en ogen gebruiken om te zien. Deze zienswijze is foutief", zo zei hij. "De waarheid", zei hij, "start bij het DNA". In zijn eerste boek in 1976, 'The Selfish Gene', heeft hij het debat voor tientallen jaren aangewakkerd met de verklaring: "Wij zijn overlevingsmachines – robotvehikels blindelings geprogrammeerd om de zelfzuchtige moleculen, genen genaamd, in stand te houden."

Genen, en niet de organismen, zijn de ware eenheden van natuurlijke selectie. Ze begonnen als 'replicatoren' – moleculen die per ongeluk gevormd waren in de oersoep, met de uitzonderlijke eigenschap dat ze kopieën van zichzelf konden maken. Richard Dawkins kreeg de wind van voor van vele collega's (die zich absoluut geen robots wilden wanen), en niet in het minst van Gunther Stent. Maar zijn boek stelde een nieuwe, veelbelaagde opvatting voor van het gen. Zijn idee was niet nieuw. Een eeuw voordien had Samuel Butler reeds gezegd, bijzonder serieus overigens, dat " ... een hen enkel de manier was van een ei om een ander ei te maken". De era in dewelke Butler zijn ideeën uitwerkte was deze van Darwin en diens aanvaring met diens antropocentrische collega's. Butler zag in dat niet alles in de wereld rond de mens als subliem hoogtepunt van de schepping draaide. Dawkins ging verder en stelde gewoon dat alle biologen het bij het verkeerde eind hadden en dat alle organismen slechts de voertuigen van de genen waren.

Een deel van Dawkins' doelstelling was een verklaring te geven voor altruïsme. Dat gedrag van enkelingen gaat in tegen hun eigen voordeel. Waarom zou een vogel, die een rover ziet, iedereen in de buurt alarmeren en zichzelf zo in de focus plaatsen voor de rover? De vraag die moest gesteld worden is: cui bono? Men zou kunnen denken dat het alarmeren voor gevaar ook de soortgenoten en hun quasi identieke genen een voordeel zou opleveren, maar evolutie werkt niet op die manier. Veel gedrag van dieren kan beter verklaard worden door de zelfzucht van het individu om te proberen haar eigen genen te propageren naar een volgende generatie. Vanuit het standpunt van het gen is het maximaliseren van haar eigen voortbestaan een logischer verklaring. Als het gen zelf, samen met het organisme dat het draagt, sterft maar erin slaagt eerst kopieën van haarzelf te maken, dan is ze geslaagd in haar opzet. Het proces erachter is echter blind. Er is geen 'vooruitdenken', geen 'intentie', geen 'kennis'. Het gen 'bestaat' enkel, en sommige 'bestaan' meer dan andere, en meer is er niet.

De geschiedenis van het leven begint met het accidentele ontstaan van replicerende moleculen. De replicatoren zijn informatiedragers die overleven door kopieën van zichzelf te maken. Vele scenario's werden bedacht voor het ontstaan van deze replicatoren, zonder echte voorkeur. Sommige informatiedragende macromoleculen desintegreren sneller dan andere, sommige maken betere kopieën, sommige breken concurrende moleculen af en sommige absorberen fotonen. Ze zijn niet perfect, verre van, want de fouten maken precies evolutie mogelijk. RNA catalyseert grotere en meer informatiedragende moleculen, terwijl het stabielere DNA de tweeledige capaciteit bezit zichzelf te repliceren en een ander soort molecule te maken. Het kan zichzelf beschermen met een schil van proteïnen. Het is het prototype van Dawkins' "overlevingsmachine", eerst op cellulair niveau, dan met grotere, steeds complexere organismen. Het had zijn tijd nodig, maar het gen-gecentreerd, informatiedragend prespectief leidde tot een ander soort detectivewerk bij het traceren van de geschiedenis van het leven. Paleontologen kijken naar de fossielen om de stambomen op te stellen, terwijl biofysici kijken naar de relieken die zich in hemoglobine en in andere proteînen en enzymen bevinden. Moleculaire archeologie is in de maak. De geschiedenis van het leven is geschreven in termen van negatieve entropie. Wat eigenlijk evolueert is de informatie in al haar vormen en transformaties. Als er al zoiets zou bestaan als een bijbels gebod, dan zou het zijn: "Maak je informatie groter".

Insecten, planten en alle andere organismen zijn niet gemaakt uit een enkel gen. Een volledige collectie genen is nodig om het organisme te ontwikkelen en in stand te houden. Het gen-gecentreerd perspectief heeft biologen leren apprecieëren dat de genen van het menselijk genoom slechts een fractie zijn van alle genen die een persoon met zich meedraagt. Ook de ecosystemen van bacteria in de darmen en op de huid tellen immers mee. Al deze genen evolueren snel en flexibel mee in functie van hun eigen belang. Deze genen wedijveren niet langer alleen maar zijn geëngageerd in een groot proces van co-evolutie. Hun succes is afhankelijk geworden van hun interactie. Zoals Dawkins zei: "Selectie begunstigt die genen die slagen in de aanwezigheid van andere genen, die op hun beurt slagen in de aanwezigheid van hen."

Het effect van een gen hangt af van de interactie met het geheel en is ook afhankelijk van de omgeving en van bruut toeval. Het is niet zo eenvoudig om te praten over het effect van een gen als zijnde enkel de producent van een proteïne. Het effect ervan is veelal indirect, moeilijk te preciseren, maar de rol van het gen is wel noodzakelijk. Het is nog moeilijker om een specifiek gen voor obesitas, agressie of homosexualiteit aan te duiden. Indien je spreekt van een gen als van een specifieke streng DNA die expressie geeft aan een proteïne, dan bestaat er strikt gesproken geen gen voor bijvoorbeeld de kleur van je ogen. Je moet eigenlijk spreken van een verschil in genen die die kleurverschillen in een fenotype veroorzaken. Vanaf het prille begin heeft men in de erfelijkheidstudies gesproken van genen in een meer algemene zin. Als een volledige populatie een variatie vertoont in een eigenschap, bijvoorbeeld lichaamlengte, en als die variatie onderhevig is aan natuurlijke selectie, dan wordt bij definitie gezegd dat dit gedeeltelijk genetisch bepaald is. Maar dat wil niet zeggen dat er een specifiek gen bestaat voor lange benen.

Genetici en zoölogen en paleontologen en anderen hebben de gewoonte aangenomen te praten over "... een gen voor X" in de plaats van "... een genetische toedracht voor de variatie in X". Dawkins dwong hen verantwoordelijkheid te nemen voor de logische gevolgen van hun uitspraken. Als er een genetische variatie is in een eigenschap, dan moet er een gen of genen zijn voor die eigenschap. En het doet er niet toe dat het verschijnen van die eigenschap afhankelijk is van een onvoorstelbare verzameling aan externe factoren. Hij gaf een extreem voorbeeld: een gen voor het kunnen 'lezen'. Het lijkt absurd, want niemand kan lezen bij zijn/haar geboorte; het is immers aangeleerd. Maar draai de zaak om en vraag je af of er geen gen is voor dyslexie. Het is goed mogelijk dat een dergelijk gen reeds vroeger bestond, in de voorhistorie. Maar totdat het schrift werd uitgevonden kon het gen niet worden bedacht, laat staan gedetecteerd. Zo moet je ook aanvaarden dat er een gen bestaat voor het 'lezen', omdat er een verschil is tussen kunnen lezen en niet kunnen lezen. De reden waarom een gen zo'n complex effect kan hebben is omdat, in een gegeven staat van complexiteit van de wereld, de staat van die wereld verschilt van een alternatieve staat en dat precies dat verschil door iets heel simpel kan worden veroorzaakt. Kan er dus een gen zijn voor altruïsme? Ja, zegt Dawkins. Maar zulke genen weten niets af van altruïsme. Enkel hun effect op het fenotype is belangrijk als ze helpen de genen te propageren.

De moleclaire biologie heeft het gen gelocaliseerd in een proteïne-coderend stukje DNA. Dat was de 'hardware'-definitie. De 'software'-definitie was vager: de eenheid van erfelijkheid, de drager van het verschil in fenotypen. Dawkins ging voorbij aan beide definities. Als genen de meesters van het overleven zijn, dan kunnen het geen stukjes nucleïnezuur zijn. Dergelijk materiaal is niet bestendig. Wanneer iemand beweert dat een replicator gedurende eeuwen overleeft, dan is die replicator de som van alle kopieën. Op die manier wordt een gen niet seniel. Het springt van lichaam naar lichaam, door de generaties heen, alles manipulerend voor haar eigen overleving.

Dawkins benadrukte de potentiële quasi-onsterfelijkheid van het gen in de vorm van kopieën als haar belangrijkste eigenschap. Hier breekt het leven los van haar materiële banden. Het gen is niet de informatiedragende macromolecule, het is informatie. Je kunt het gen vergelijken met een muziekstuk. Is het muziekstuk de originele partituur, de gedrukte kopieën van die partituur of een uitvoering van dat stuk? Neen, en het is ook niet de drukgolven die door de oren worden opgevangen of de neurale signalen in de hersenen van de toehoorders. De muziek is de informatie. Op geheel dezelfde manier is een basispaar van DNA niet het gen; het codeert voor een gen. Genen zelf zijn gemaakt van bits.


Terug naar de inhoudsopgave


11 - In de meme-poel

Jacques Monod, die een gedeelde Nobelprijs had gewonnen voor het detailleren van de werking van RNA bij de transfer van genetische informatie, had geopperd dat de biosfeer een zeer zeldzame uitkomst was van een casinospel. Hij zag de biosfeer als een entiteit die de som was van alle levende wezens op de aarde, krioelend van informatie, zichzelf kopiërende en evoluerende, coderende van een niveau van abstractie naar een andere. Deze zienswijze was veel abstracter dan wat Darwin ooit had kunnen inbeelden, maar de natuurlijke selectie bleef het basisprincipe waarop alles draaide. Monod stelde voor dat, net zoals de biosfeer boven de wereld van de anorganische materie bestond, zo er ook een 'abstract koninkrijk' boven de biosfeer bestond. De inwoners van dat koninkrijk waren 'ideeën'.

Ideeën blijken ook in staat zichzelf te bestendingen, samen te smelten en te evolueren. Ideeën hebben ook 'verspreidingsmacht' en kunnen 'infectueus' zijn. Een voorbeeld daarvan zijn religieuze ideologieën die snel over grote massa's verspreiden. Ideeën zijn net zo reëel als de neuronen die ze voortbrengen en dragen. Monod waagde zich echter niet aan een theorie van natuurlijke selectie van ideeën. Dawkins wel.

Dawkins' essentiële actor was de 'replicator' en het was niet noodzakelijk dat die replicator bestond uit nucleïnezuren. Zijn stelregel was: "Alle leven evolueert via de gedifferentieerde overleving van zichzelf kopiërende entiteiten." Waar er leven is moeten er dus replicatoren zijn, en niet noodzakelijk gebaseerd op chemie. Hij schreef dan ook op het einde van zijn eerste boek in 1976 dat hij dacht dat er een nieuwe soort van replicatoren ontstaan was op onze planeet. Het staat nog in de kinderschoenen, drijvend in haar oersoep, maar het evolueert sneller dan de oude genen. Die oersoep is de menselijke cultuur. De transmissievector is de taal en het ontspruit uit het menselijk brein. Voor deze replicator zonder lichaam bedacht Dawkins een naam: 'meme'.

Dawkins schreef: "Memen propageren zichzelf in de memepoel door van brein naar brein te springen via een proces dat men over het algemeen kan aanduiden als 'imitatie'." Ze wedijveren met elkaar voor een schaars goed: onze aandacht. Voorbeelden van memen zijn ideeën. Deze ideeën komen als unieke gedachten tevoorschijn of verschijnen soms meermaals. Ze kunnen lang blijven rondhangen in de memepoel of snel weer verdwijnen. Een mooi voorbeeld ervan is de oude gedachte van een godheid. Een ander soort memen zijn deuntjes. Sommige daarvan kunnen eeuwen lang meegaan als klassieke muziekstukken. Weer andere memen zijn gezegden, typisch verbonden aan een bekend persoon. Bijvoorbeeld: "Survival of the fittest." Afbeeldingen kunnen ook memen zijn. De glimlach van de Mona Lisa is een voorbeeld ervan. Nog duidelijker memen zijn de portretten van voorname mensen. Zag Isaac Newton er werkelijk uit zoals op zijn portretten? Misschien toendertijd wel niet, maar nu wel.

Memen ontstaan in het brein en reizen naar buiten toe en vestigen bruggenhoofden op papier, in informatiebits op het internet en waar ook informatie kan gaan. Het zijn geen elementaire deeltjes, maar organismen. Het nummer 3 of de kleur blauw is geen meme, en ook simpele gedachten zijn dat niet, net zoals een enkele nucleotide ook geen gen is. Memen zijn complex, eenduidg en memorabel, eenheden met standvastigheid. Een object is geen meme. De hula hoop van 1958 was een vehikel voor de meme, maar niet de meme zelf. De transmissievector voor deze meme was de televisie, waardoor miljoenen mensen over de hele wereld aan de rage hebben deelgenomen. De meme is ook niet de danser, maar de dans.

Wij zijn hun voertuig en hun schepper. Gedurende het grootste gedeelte van ons biologisch bestaan hebben de memen slechts een vluchtig bestaan gekend. Hun voornaamste manier van overdracht was mondeling. Slechts in de laatste millenia zijn ze terug te vinden in wandtekeningen, kleitabletten en allerhande geschriften. Door onze uitvinding van het schrift hebben ze nu een lang leven beschoren. Ieder van ons kopiëren ze. In Dawkins' perspectief kopiëren ze echter zichzelf. Ze zijn gelijkaardig aan zijn 'zelfzuchtige genen'. Met 'zelfzuchtig' doelen de genetici op de eigenschap dat genen hun eigen kansen op overleven bevorderen ten koste van hun concurrenten.

Dawkins had niet de bedoeling om van de memen bewuste actoren te maken. Het zijn slechts entiteiten die een belang hebben dat kan worden bevorderd door natuurlijke selectie. Hun belangen zijn niet onze belangen. Zijn we soms niet bereid te sterven voor een idee of een principe? Dennett, een Amerikaanse filosoof, zei: "Een meme is een informatiepakket met een attitude."

Ritme en rijm helpen mensen om iets beter te onthouden en zijn tegelijk dus kwaliteiten die helpen bij het overleven van een meme. Ook de rede is een vorm van een patroon en patronen in de taal hebben een evolutinair voordeel. Net zoals genen hebben memen ook een effect op de wereld rondom hen. In sommige gevallen kunnen de effecten zeer krachtig zijn, zoals de meme voor het maken van een vuur en kunnen, zoals de meme voor CPR, een zeer gunstig effect hebben op de mensen. Maar memetisch succes en genetisch succes zijn niet gelijk. Dawkins geloofde dat memen automatisch samenklitten om systemen of machines te maken die zorgen voor hun replicatie en verspreiding. Sommige memen zijn net virussen, die grote schade kunnen aanrichten, zoals bijvoorbeeld bijgeloof, racisme en computervirussen. In het geval van een zelfmoordaanslag is de meme zelfs destructief voor de gastheer.

Wanneer Dawkins voor het eerst de meme 'meme' naar voren schoof zei Humphrey, een evolutionaire psycholoog, onmiddellijk dat deze entiteiten niet enkel metaforisch moeten worden beschouwd maar als levende structuren moesten worden aanzien. Wanneer je in iemands brein een vruchtbare meme plant, dan parasiteer je zijn hersenen en maak je hem tot een vehikel voor het uitdragen van de meme, net zoals een virus dat doet.

De meeste lezers van 'The Selfish Gene' hebben slechts oppervlakkig de ideeën over de memen gelezen. De ethologist Hamilton deed echter volgende voorspelling: "hoe moeilijk de term ook moge zijn om te omschrijven vermoed ik dat het snel in algemeen gebruik zal worden genomen door biologen en hopelijk ook filosofen, linguïsten en anderen en dat het wordt geabsorbeerd in het dagelijkse taalgebruik".

Al voor het bestaan van een taal konden memen reeds reizen. Gewoon na-apen volstaat immers om kennis te kopiëren, bijvoorbeeld om een vuur te maken. Tussen dieren is imitatie ook reeds heel lang gekend. Niet alleen mensenapen doen het, ook vogels imiteren geluiden. We kunnen dit als speciale gevallen beschouwen, want het is slechts tijdens de menselijke geschiedenis dat memen en taal hand in hand zijn gegaan. Taal dient als de eerste catalysator van cultuur; het verspreid kennis door abstractie en codering.

Lang voordat iemand zich zou bezighouden met epidemiologie was het taalgebruik ervan reeds toegepast voor stukken van informatie. De analogie met een ziektepatroon was wellicht onontkoombaar. Reeds in 1730 schreef een dichter over een 'overdraagbare' emotie, een 'oorwurm', een 'besmettelijk' gedrag. Maar in de laatste eeuw spreek men van 'virale' marketing, 'virale' e-mails, enz. Onderzoekers die het internet zelf bestuderen gebruiken niet alleen de woordenschat, maar ook wiskundige principes van epidemiologie.

De term 'virale tekst' zelf is een meme en Hofstadter verklaarde geïnfecteerd te zijn door de meme 'meme'. Maar er was ook weerstand. Er waren er immers die al tegen het principe waren dat mensen slechts verpakkingen voor genen waren, laat staan dat ze zich zouden verlagen tot robots die de willetjes van memen moeten uitvoeren. Sommigen vroegen zich af wie nu in controle was: wijzelf of de memen? Het blijkt echter dat we zelden zelf in controle zijn van onze geest.

Voor iedereen die de ideeën over memen genegen waren veranderde het landschap sneller dan Dawkins zich zelf had kunnen inbeelden in 1976. Hij schreef toen: "De computers waarin de memen leven zijn de menselijke hersenen." In 1989 echter – bij de tweede editie van 'The Selfish Gene' – heeft hij (mede beïnvloed door zijn nieuwe kennis van het programmeren) die uitspraak reeds moeten wijzigen. Hij schreef: "Het was duidelijk voorspelbaar dat elektronische computers ook na een tijdje gastheer zouden spelen voor zelf-replicerende patronen van informatie." Informatie kon immers in den beginne via verwisselbare schijven worden uitgewisseld, later via netwerken en tenslotte via e-mail op het internet. Het internet is het perfecte milieu voor de bloei van zelf-kopiërende programma's. Het gaf vleugels aan het idee van memen, want de bewustwording van memen bevorderde hun verspreiding. Hofstadter noemde de studie van memen in 1983 'memetica'. De onderzoekers ervan kwamen uit diverse disciplines zoals computerwetenschappen en microbiologie.

In bio-informatica, bijvoorbeeld, is de studie van kettingbrieven een belangrijk onderwerp. Kettingbrieven bestaan al sinds het begin van de 20e eeuw, en werden bevorderd door het gebruik van carbonpapier en later van de schrijfmachines. Ze bevatten allemaal een belangrijk bericht: "Kopieer mij!" Verschillende kettingbrieven gingen viraal en het effect ervan was zo erg dat het U.S. Post Office Department in 1936 actief moest ingrijpen om de beweging van kettingbriefschrijven te onderdrukken. Twee technologieën zorgden voor een explosie van het aantal kettingbrieven van verschillende ordes van magnitude groter dan voorheen: de fotokopiemachines in de jaren 1950 en de e-mails vanaf de jaren 1995. Een gemengd U.S.-Canadees team van onderzoekers deed een analyse van een welbepaalde kettingbrief tijdens de era van de fotokopiemachine en vond dat er zo'n 33 variaties bestonden op dezelfde brief. Soms was de variatie maar 1 letter groot, soms waren volledige woorden verkeerd gespeld en soms waren er volledige zinsdelen weggelaten. Zij rapporteerden dat "... deze brieven van gastheer naar gastheer doorgegeven werden, muterend en evoluerend." Zoals een gen was hun gemiddelde lengte ongeveer 2000 karakters, en zoals een virus dreigde de brief de lezer te zullen doden als ze niet naar anderen werd doorgezonden. Zoals genomen ondergaan kettingbrieven natuurlijke selectie. De onderzoekers gebruikten algoritmen uit de evolutionaire biologie om de evolutionaire boom van de kettingbrief op te maken. Ze konden effectief de mutatiesnelheden en mate van relatie meten.

Het moet gezegd zijn dat veel elementen van cultuur zo gemakkelijk veranderen en vervagen zodat ze niet als stabiele replicatoren zouden kunnen worden gekenmerkt. De reden daartoe en het verschil met genen ligt in de fysieke, materiële basis van de genen. Memen daarentegen zijn niet tastbaar, abstract en onmeetbaar. Genen repliceren zichzelf met bijna onfeilbaarheid. Variatie is essentieel en mutatie zeldzaam. Niet zo bij memen, die zelden exact worden gekopieerd. Hun mutatiesnelheden zouden in de biologie fataal zijn. Zelfs omschrijven wat een meme is blijkt al zeer moeilijk. Zij hebben hun 'Watson en Crick' nog niet gevonden; Dawkins zei zelfs dat ze nog geen 'Mendel' hadden.

Dit alles neemt niet weg dat memen bestaan. Door de groter wordende connectiviteit verspreiden ze zich alsmaar sneller en verder. Ze zetten aan tot bank runs, informatiecascades en financiële bubbels. Ze verspreiden zich als diëten, dubieuze medische praktijken en hechten zich als stickers op de achterruiten van de wagens. Ze zorgden voor de Y2K-paniek.

In de strijd om de ruimte in ons brein en in onze cultuur zijn de berichten de vijanden van de memen. Hun kijk op genen en memen hebben ons verrijkt. David Mitchell schreef: "De wereld van de mens is opgebouwd uit verhalen, niet uit mensen. De mensen, die door de verhalen werden gebruikt om zichzelf te vertellen, moeten niet worden beschuldigd." Margaret Atwood schreef: "Zoals met alle kennis, eenmaal je het kent kun je je moeilijk nog voorstellen dat je het voorheen niet kende." De filosoof Fred Dretske schreef in 1981: "In den beginne was er informatie. Pas veel later kwam het woord." De transitie van de informatie naar het woord kwam er pas toen natuurlijke selectie de mens vormde. We kunnen nu echter toevoegen dat de informatie zichzelf in stand heeft weten te houden.

Het grootste gedeelte van de biosfeer heeft geen weet van de infosfeer. Het is voor deze wezens een parallel universum, bevolkt met geesten. Maar voor ons zijn het geen geesten meer. Wij, mensen, leven in beide universa tegelijk. Het is alsof we voor de infosfeer een extra zintuig voor hebben ontwikkeld. Wij zijn ons bewust van de vele typen van informatie. We houden ze in leven in serverparken met airco. Maar we bezitten ze niet, want als een volgende fad of leuk deuntje ons enige tijd in bezit neemt, wie is dan de meester en wie de slaaf?


Terug naar de inhoudsopgave


12 - De zin van willekeur

In 1958 vond de elf jaar jonge Gregory Chaitin een klein boekje in de bibliotheek, 'Gödel's Proof' genoemd, en trachtte te verstaan wat erin beschreven stond. Het boekje beschreef het proces van 'mapping', het coderen van uitspraken over wiskunde in de vorm van symbolen, en het idee van meta-wiskunde. De auteur bewees erin dat formele wiskunde nooit vrij kon zijn van zelf-contradictie.

De meeste wiskundigen trokken zich weinig aan van dit bewijs, maar de filosofisch ingestelden onder hen bleven er diep door verontrust. Voor von Neumann was het bewijs van Gödel m.b.t. de onvolmaaktheid van de wiskunde een onomkeerbaar feit. Chaitin vroeg zich af of die onvolmaaktheid zou kunnen verbonden zijn met het Heisenbergs onzekerheidsprincipe in de kwantumfysica. Hij was niet de eerste. Ook John Archibald Wheeler had die vraag al gesteld aan Gödel zelf, zonder ooit een antwoord te hebben gekregen.

Wanneer Chaitin Turings bewijs van onberekenbaarheid ontdekte, dacht hij de sleutel te hebben gevonden. Hij had immers ook al Shannons en Weavers werken gelezen en was verbaasd geweest over de herformulering van entropie. Het gemeenschappelijk element in al deze werken was 'willekeurigheid'. Shannon had een link gelegd tussen toeval en informatie. Fysici vonden willekeurigheid in het atoom.

Het is een simpel woord, 'willekeurig', en iedereen weet wat het betekent, maar een definitie ervan geven is aartsmoeilijk. John Maynard Keynes bepaalde het omgekeerde ervan: "Wat we op voorhand weten, bepaald is door een oorzaak of georganiseerd is met een plan kan niet willekeurig zijn." Henri Poincré argumenteerde dat een kans een mate is van onze onwetendheid: "Toevallige verschijnselen zijn per definitie die zaken waarvan we de wetten niet kennen." Hij dacht daarbij hoe de regendruppels willekeurig vallen, hoewel de fysieke oorzaak ervan gekend is. In de fysica kan ogenschijnlijke willekeur gewoon ruis zijn of het resultaat van een zeer complexe dynamica.

Onwetendheid is subjectief en eigen aan de observator. Indien toeval bestaat, dan moet ze een eigenschap zijn van het ding zelf. De mens buiten beschouwing gelaten is de notie van een willekeurig getal vol met moeilijkheden. Bestaat er zoiets als een 'bepaald' willekeurig getal of een 'zeker' willekeurig getal? De RAND Corporation publiceerde in 1955 een boekje, genoemd 'A Million Random Digits' met willekeurige getallen geproduceerd door een elektronisch roulettewiel. Statistici namen echter bepaalde voorkeuren waar in de getallen. Niettemin werd het boekje gepubliceerd. Het boekje trouwens lag goed in de markt, omdat wetenschappers nood hadden aan willekeurige getallen in grote hoeveelheden om statitisch betrouwbare experimenten uit te voeren. De Monte Carlo-simulatie gebruikt willekeurige staalname om fenomenen te modelleren die analytisch niet konden worden opgelost. De methode werd uitgevonden door het team van Von Neumann voor het atoombomproject. Ze hadden nood aan willekeurig gegenereerde nummers om te helpen bij het berekenen van neutrondiffusie. Von Neumann begreep dat een mechanische computer met deterministische algoritmen nooit in staat zou zijn waarlijk willekeurige getallen te produceren. Hij zou het moeten stellen met pseudo-willekeurige getallen, die willekeurig genoeg waren voor het praktische doel.

Willekeurigheid kan misschien gedefinieerd worden in termen van wanorde. Een rij van getallen zoals 00000 kan moeilijk willekeurig worden genoemd. Nochtans staat ze ergens in het fameuze boekje met een miljoen willekeurige getallen. In termen van waarschijnlijkheid is deze reeks even waarschijnljk als enig ander van de 99.999 mogelijke reeksen van 5 getallen. Ook de reeks 010101 lijkt een patroon te bevatten. Om echter deze reeks uit de jungle van willekeurige getallen eruit te pikken vergt een intelligente observator. Het is nu eenmaal zo dat, gegeven een voldoende lange willekeurige reeks van getallen, iedere mogelijk kleine reeks wel ergens zal opduiken. Dat kan dan toevallig de combinatiecode van een bankkluis zijn!

Mensen zijn nu eenmaal zeer zwak in het produceren en herkennen van willekeurige getallen. Wij zijn gemaakt om patronen te herkennen; onze intuïtie faalt als het gaat om toevallige reeksen. Gegeven twee binaire reeksen, elk 50 cijfers lang:

Alice:01010101010101010101010101010101010101010101010101
Bob:10001011000101001011101101010110001100111010101010

Als Alice en Bob elk beweren dat zij de reeksen hebben gemaakt door een muntstuk op te gooien, dan zal niemand Alice geloven. Klassieke waarschijnlijkheidsleer zal echter geen harde bewijzen kunnen aanreiken om te beweren dat de reeks van Bob willekeuriger is dan deze van Alice. De waarschijnlijkheidstheorie behandelt gebeurtenissen op statistische wijze. Het houdt niet van vragen als: "Hoe waarschijnlijk is het dat dat gebeurt?" Als het gebeurt, dan gebeurt het.

Voor Claude Shannon zijn deze reeksen digits berichten. De vraag die hij zou stellen is: hoeveel informatie bevat elke reeks? Een telegrafist zou zeggen: beide betalen even veel, wat de berichten zijn even lang. Maar toch verschillen deze berichten geweldig van elkaar. Het bericht van Alice is doorzichtig, want het patroon is duidelijk. In het bericht van Bob is iedere bit van belang. Shannon beschouwde dan ook de redundantie van een bericht. Hoe regelmatiger het patroon in het bericht is, hoe voorspelbaarder het is. Hoe redundanter het bericht, hoe minder informatie het bevat. "Hoe willekeurig ..." en "hoeveel informatie ..." blijken dus een en dezelfde vraag te zijn.

Turing had zijn groot pamflet de titel 'On Computable Numbers' gegeven, maar de focus lag duidelijk op de niet-berekenbare getallen. Konden niet-berekenbare getallen en willekeurige getallen aan mekaar verwant zijn? Toen Chaitin nog maar een eerstejaars was in het City College van New York had hij toegang tot een van de grote IBM-mainframes. Hij kon een programma maken om een Turing-machine de opdracht te geven om een zeer grote reeks "010101 ..." (vergelijkbaar met het bericht van Alice) af te drukken. Dat zou een kort programma zijn. Wilde hij echter een willekeurig getal laten afdrukken (zoals het bericht van Bob), dan zou hij het hele getal teken per teken moeten invoeren in het programma.

Een ander willekeurig lijkend getal is π (3,141592653589...). Statistisch gezien komt elk cijfer met de zelfde frequentie erin voor, zo ook ieder paar van cijfers, ieder triplet van cijfers, enz. Statistici zouden het een 'normaal' cijfer noemen, maar het volgende cijfer in de reeks is altijd een verrassing. π is echter geen willekeurig getal. Zo beweren we toch, maar waarom verklaren we dat? Chaitin stelde een duidelijk antwoord voor: een getal is niet willekeurig als we het kunnen berekenen via een bepaald computerprogramma. Berekenbaarheid is dus een maatstaf voor willekeurigheid. Voor Turing was berekenbaarheid een ja-of-neen-kwaliteit. Maar wij zouden kunnen willen zeggen dat bepaalde getallen meer willekeurig zijn dan andere met minder patronen, minder ordelijk. Chaitin zei dat de patronen en de orde een uitdrukking waren van de berekenbaarheid. Algoritmen genereren patronen. We kunnen dus berekenbaarheid meten aan de hand van de grootte van het algoritme. Voor een gegeven getal is de lengte in bits van het kortste programma op een Turing-machine dat dit getal kan genereren zo'n maat van berekenbaarheid.

Chaitins algoritmische definitie van willekeurigheid geeft ook een algoritmische definitie van informatie: de grootte van het algoritme meet hoeveel informatie een gegeven reeks bevat.

Het zoeken naar patronen in de chaos is wat wetenschappers doen. Chaitin vond dat geen toevalligheid. Hij eindigde op 18-jarige leeftijd zijn eerste pamflet door de theorie van de algoritmische informatie toe te passen op de wetenschap zelf. Hij beschouwde een wetenschapper die een proces volgt die iedere seconde een lichtstraal produceert of niet. Na observatie tracht de wetenschapper de sequentie te doorgronden. Indien hij erin slaagt een algoritme te maken dat de reeks kan reproduceren, en dat algoritme is beduidend korter, dan is de gebeurtenis zeker niet willekeurig. Hij heeft dan een theorie opgebouwd. Dat is precies wat de wetenschap tracht te doen: een simpele theorie uitdenken die een grote reeks gebeurtenissen kan verklaren en die een voorspellende waarde hebben. Het is de fameuze 'Occam's razor'. Beperk je tot het strikte minimum aan oorzaken om een natuurlijk fenomeen te verklaren. Newton voegde eraan toe: "... want de natuur is gesteld op simpliciteit."

Toen Chaitin zijn pamflet inzond voor publicatie had een lezer een opmerking gemaakt dat er geruchten waren dat een geleerde in de Sovjet-Unie een gelijkaardig werk had geschreven met de titel "Drie benaderingen voor de definitie van het concept 'Hoeveelheid Informatie'". De schrijver was A. N. Komolgorov. Chaitin laste dan ook een voetnoot in, zonder het Russische werk te hebben gelezen.

Andrei Nikolaevich Kolmogorov was de prominente Russiche wiskundige van de Sovjettijd. Als 14 jarige wiskundestudent aan de Universiteit van Moskow kon hij in een tijdspanne van amper 10 jaar een indrukwekkende verzameling resultaten voorleggen in de vorm van een boekwerk – 'Foundations of the Theory of Probability' – dat een moderne klassieker werd in zijn vakgebied. Gedurende W.O.II hield hij zich bezig met praktische zaken zoals de toepassing van statistiek op artillerievuur en een schema voor de stochastische verdeling van barrageballonnen om Moskow te beschermen. Hij kreeg dan ook een hele reeks medailles voor zijn werk.

Hij las voor de eerste maal het werk van Shannon over de communicatietheorie in 1953, zij het in een gepurgeerde vorm, wegens de marxistische censuur. Hij heeft dan samen met zijn studenten een rigoureuze wiskundige theorie opgebouwd, met definities, fundamentele concepten en – wat hij dacht – nieuwe bewijzen, die (zo bleek later) ook al in het pamflet van Shannon stonden, maar die hij nooit had gelezen wegens de censuur. Gezien de Sovjetunie toch redelijk geïsoleerd was van de rest van de wetenschappelijke wereld was Kolmogorov goed geplaatst om in 1956 een lang rapport te schrijven over de theorie van informatietransmissie. Hoewel zijn collega's dachten dat Shannons werk meer technologisch was dan wiskundig dacht Kolmogorov dat Shannons inzicht en wiskundige intuïtie merkwaardig precies was.

Toen Norbert Wiener een bezoek bracht aan Moskow merkte hij op dat het werk van Kolmogorov zeer dicht aanleunde bij zijn eigen werk en vice versa. Kolmogorov echter dacht er anders over. Hij vond dat Wieners cybernetica eenheid miste, waardoor het onmogelijk was specialisten te vormen, gebaseerd op Wieners werk. Kolmogorovs resultaten neigden eerder naar de bewijzen van Shannons theorie van entropie in meer algemene zin.

Prestige in Rusland vloeide eindelijk naar eenieders werk dat elektronische communicatie en computers vooruit hielp. Niet verwonderlijk, want de telefonie in de Sovjetunie was archaïsch. In 1965 hadden ze zelfs nog geen telefonie over lange afstanden. Kolmogorov en zijn studenten genereerden opvallend veel theoretisch werk – o.a. zijn artikel 'Three Approaches to the Definition of the Concept "Amount of Information"' – dat stilletjes aan bekend raakte in het Westen.

Een probleem dat hij met deze theorie aanpakte was het probleem van willekeurigheid, iets dat de waarschijnlijkheidsleer nog steeds niet kon verklaren. De vraag die moest beantwoord worden is deze: "Hoeveel informatie is bevat is een 'eindig object'?" Hij beschreef drie manieren van aanpak: de combinatorische, de probabilistische en de algoritmische. De eerste twee manieren waren verfijningen op Shannons werk. De focus lag daarbij op de waarschijnlijkheid van een object in een verzameling van objecten. Kolmogorov vroeg zich af hoe dit te implementeren als dit object niet een eenvoudig bericht was, maar iets groots, zoals een boek, een genetisch organisme of een kunstwerk. "Is het mogelijk een roman zoals 'Oorlog en Vrede' op een aanvaardbare manier op te nemen in een set van alle romans en daarvan de waarschijnlijkheidsdistributie te postuleren?", vroeg hij zich af.

Zijn derde manier van aanpak om informatie te meten – de algoritmische – vermeed de moeilijkheden met verzamelingen van objecten en richtte de aandacht op het object zelf. Kolmogorov introduceerde een nieuw woord voor hetgeen hij probeerde te meten: 'complexiteit'. Complexiteit van een object was het omgekeerde van simpliciteit en orde. Hoe eenvoudiger het object, hoe minder informatie het bevatte. Net zoals Chaitin deed berekende Kolmogorov complexiteit in termen van algoritmen. De complexiteit van een object is de grootte van het kleinste computerprogramma dat nodig is om het object te genereren. Het scheen vanzelfsprekend, maar tot dan toe had niemand dit wiskundig verstaan. Het doet er niet toe welk computerprogramma wordt gebruikt; ze zijn allemaal equivalent, want reduceerbaar naar de taal van een universele Turing-machine.

De Kolmogorov-complexiteit is dus een cijfer dat de grootte uitdrukt, in bits, van het kortste algoritme om het object te genereren. Het is tevens de hoeveelheid aan informatie en de mate van willekeurigheid. Drie zaken zijn dus in de grond gelijkwaardig: informatie, willekeurigheid en complexiteit.

Voor Kolmogorov behoorden deze ideeën niet alleen tot de waarschijnlijkheidsleer, maar ook tot de fysica. Ook de eenvoud van kristallen en de complexiteit van een gas in een gesloten vat konden worden gemeten met behulp van het korste algoritme. Entropie was opnieuw de sleutel. Kolmogorov had vroeger werk verricht met betrekking tot turbulente stroming en verstoringen in planetaire banen. Nu begon hij het grondwerk te verrichten voor de chaostheorie van de jaren 1970: het analyseren van dynamische systemen in termen van entropie en van informatiedimensie. Het was nu zinvol om te zeggen dat een dynamisch systeem informatie produceerde, en hoe onvoorspelbaarder, hoe meer informatie.

Kolmogorov kende het bestaan niet van Chaitin en beiden wisten niet wie de Amerikaanse waarschijnlijkheidstheoreticus Ray Solomonoff was, die dezelfde ideeën had ontwikkeld. Maar geleidelijk aan zouden de grenzen tussen de talen en de afstanden tussen de Russische en de Amerikaanse geleerden verdwijnen.

Om een antwoord te kunnen geven op de vraag of een nummer 'interessant' is, moet je de omgekeerde vraag beantwoorden: "Wanneer is een nummer willekeurig?" Het antwoord, zoals Kolmogorov beweert, is wanneer het maximaal 'complex' is. Dat wil zeggen wannneer het eenvoudigste algoritme ervoor PRINT[N] is. Maar kan een wiskundige zeker zijn dat er geen eenvoudiger algoritme bestaat om het nummer uit te drukken? Voor Chaitin was dit een kritische vraag.

Hij beantwoordde dit met een tel-argument: de meeste cijfers zijn niet 'interessant' omdat er onmogelijk genoeg kleine algoritmen kunnen bestaan om ze allemaal uit te drukken. De meeste cijfers van een gegeven lengte moeten dus wel willekeurig zijn.

De logische volgende vraag is veel moeilijker om te beantwoorden. Gegeven dat de meeste cijfers willekeurig zijn, hoe kan een wiskundige dan bewijzen dat cijfer 'n' willekeurig is? De enige valabele mogelijkheid is voor ieder cijfer alle mogelijke algoritmen uit te proberen. De computer zou dus een algoritme moeten hebben om alle andere algoritmen te testen. Chaitin toonde aan dat al gauw een nieuwe versie van Berry paradox zou ontstaan. In plaats van "het kleinste oninteressante cijfer" kom je tot een uitdrukking in de vorm van "het kleinste cijfer dat we kunnen bewijzen dat je niet in minder dan 'n' lettergrepen kunt noemen". Met 'lettergrepen' bedoelt men natuurlijk de 'staten' van een Turing-machine. Dit was Chaitins versie van Gödels 'niet-compleetheid'. Complexiteit, gedefinieerd in termen van de grootte van een programma, is over het algemeen niet berekenbaar.

Chaitin kende in z'n carrière nogal wat tegenstanders onder de wiskundigen. Die laatsten waren nog steeds overtuigd van de absolute zekerheden die in een goddelijk perfecte wiskunde zouden bestaan. Chaitin bewees het tegendeel. Net zoals kwantumfysica en chaostheorie de onzekerheden op vruchtbare wijze exploiteerden stelde de algoritmische informatietheorie ook grenzen aan de perfecte wereld van de getallen. Chaitin zei: "God dobbelt niet alleen in de kwantummechanica en de non-lineaire dynamica maar ook in de theorie van de elementaire getallen."

De lessen die konden worden getrokken uit deze laatste theorie waren:

Joseph Ford, een fysicus die onvoorspelbare dynamische systemen bestudeerde in de jaren 1980 zei dat Chaitin "... op zeer charmante wijze de essentie van de materie had bevat". Hij zei dat "... chaos overal in de natuur aanwezig was en het universum vulde met ontelbare mysteries die de mens nooit zou kunnen bevatten". De mens echter tracht nog steeds alle mysteries te bevatten.

Wanneer een object (een bitstroom of een dynamisch systeem) op een andere, meer gecondenseerde manier kan worden uitgedrukt, dan is het comprimeerbaar. Shannon had in zijn orginele pamflet van 1948 reeds datacompressie onderzocht en vrijwel alle moderne algoritmen voor datacompressie kunnen worden getraceerd naar dit pamflet.

Ray Solomonoff focusde zich op het probleem van de 'inductie', het fenomeen waarbij mensen theorieën bouwen uitgaande van hun ervaringen. Zou een computer dat ook kunnen? Hij publiceerde het resultaat van zijn denkwerk in 1964, maar dat pas in 1970 door Chaitin en Kolmogorov was opgemerkt. Wanneer zowel mensen als computers naar reeksen van gegevens kijken, dan trachten ze hun willekeur en hun patronen te herkennen. Natuurwetten zijn immers niet meer dan datacompressie in actie. Solomonoff schreef: "De wetten van de wetenschap kunnen gezien worden als korte inhouden van grote hoeveelheden empirische gegevens over het universum. Elk van deze wetten kan omgevormd worden in een methode voor het compact coderen van de empirische gegevens die tot die wet hebben geleid." Een goede wetenschappelijke theorie is economisch. Solomonoff, Kolmogorov en Chaitin hebben alle drie verschillende problemen aangepakt en kwamen met hetzelfde antwoord: complexiteit.

De volgende bitstroom is niet erg complex, maar eerder rationeel:
14285714285714285714285714285714
Ze kan ook worden geschreven als "PRINT 142857 AND REPEAT" of nog compacter: "1/7". Als contrast zit in de volgende bitstroom de verrassing in het uiteinde:
101010101010101010101010101010103
Nochtans is de toegevoegde informatie minimaal, zodat het bericht kan worden gecomprimeerd. Het bevat immers een redundant deel en een arbitrair deel.
Het was Shannon die aantoonde dat iets dat niet-willekeurig is in een bericht gecomprimeerd kan worden.

Huffman-codering en dergelijke algoritmen exploiteren statistische regelmatigheden om de gegevens te comprimeren. Foto's zijn comprimeerbaar door hun natuurlijke structuur. Lichtere en donkere pixels vormen clusters en statistisch gezien zijn nabij gelegen pixels gelijkaardig. Video is nog meer comprimeerbaar omdat het verschil tussen twee beelden zeer klein is (op voorwaarde dat er geen snelle actiescenes zijn). Ook de natuurlijke taal is comprimeerbaar door haar redundanties, zoals Shannon reeds had geanalyseerd.

Willekeurige reeksen zien er 'normaal' uit, omdat elk cijfer in de reeks exact evenveel keren voorkomt als een ander cijfer. Omgekeerd kan een reeks statistisch normaal zijn, maar daarom niet willekeurig. Zoals David Champernowne (een vriend van Turing) in 1933 aantoonde met de reeks van alle getallen op een rij gezet:
123456789101112131415161718192021222324...
De reeks is compleet voorspelbaar.
Dit bewijst dat 'normale' getallen moeilijk te herkennen zijn. De rationele getallen zijn niet 'normaal', en er zijn er oneindige veel van. Ze worden echter oneidig overklasd door de 'normale' nummers. Dat wil niet zeggen dat wiskundigen kunnen bewijzen dat een nummer 'normaal' is, wel integendeel. Neem bevoorbeeld het beroemde getal π. Al vele computers hebben dit getal tot op 1 miljard cijfers na de comma ontleed en het resultaat is dat het niet repetitief is, en dus eigenlijk willekeurig. Maar dat is het niet. Een telegrafist kan simpelweg "PI" sturen, en daarmee bevat het bericht eigenlijk niet veel informatie. De ontvanger moet wel weten hoe hij/zij het getal moet berekenen, dus moeten zender en ontvanger eigenlijk een codeboek gemeen hebben. De zender zou ook het algoritme kunnen doorzenden: "Neem 4, trek er 4/3 van af, voeg 4/5 toe, trek 4/7 ervan af, enzovoort." Deze fracties convergeren naar π. Hierbij blijft het bericht echter zeer economisch, enkel het rekenwerk is arbeidsintensief.

De kwestie van gedeelde kennis aan beide zijden van een lijn brengt problemen met zich mee. Sommigen willen dit soort van problemen in termen van communicatie met een buitenaardse levensvorm uitleggen. Zelfs al zijn nummers en cijfers universeel, dan nog kennen de 'aliens' het symbool 'π' niet, noch de reeks 3,1415926... omdat ze niet decimaal 'geschoold' zullen zijn. De zender van het bericht kan immers nooit het 'mentale codeboek' van de ontvanger kennen. Chaitin zei dat we het bericht moeten opstellen zoals we dat zouden doen naar iemand die onmogelijk uit vage instructies een zinnig antwoord kan distilleren, een computer dus. Instructies voor een computer moeten compleet en expliciet zijn, een stap voor stap procedure. In andere woorden: het bericht moet een algoritme zijn. Tegen de jaren 1960 kregen de computers reeds hun instructies in bitvorm, dus was het normaal dat men ging denken in termen van informatiedensiteit van algoritmen.

Een andere vorm van een bericht is een muziekpartituur. Een dergelijk bericht van J. S. Bach werd de jaren 1970 met Voyager I en Voyager II de interplanetaire ruimte in gestuurd, maar niet gecodeerd in afdrukbare vorm. De geluidsopname werd op de klassieke manier in een enkele lange spiraalvormige groef in een ronde, met goud bedekte koperen plaat gegraveerd. Het 'bericht' heeft dus geen enkel betekenis; het is abstracte kunst. De enige mening die eraan kan worden gegeven is: "... hier is intelligent leven". Andere aardse geluiden zijn eveneens opgenomen op de plaat, alsook een naald en de instructies voor het afspelen van de geluiden.

Het is ironisch dat – nog voor de ruimtetuigen het zonnestelsel hadden verlaten – onze aardse muziek op een andere manier werd bewaard, namelijk in digitale vorm, zonder verlies, volgens de theorie van bemonstering van Shannon. Het manuscript van de muziek van Bach bevat slechts een 600-tal muzieknoten. Op een CD vertegenwoordigt dit 135 miljoen bits of in MIDI-protocol slechts enkel duizenden bits. Dezelfde melodie kan ook op een pianorol worden gezet, en is dan nog kleiner. Maar zelfs de 600 muzieknoten zijn comprimeerbaar want door de repititie in het stuk is er veel redundantie. Toch is het muziekstuk bedrieglijk simpel. Het bezit dus veel meer informatie dan eerst gedacht. In muziek, net zoals in poëzie en de kunst wordt het perfect begrijpen van een stuk niet geacht te bestaan. Perfectie zou doodsaai zijn.

Op een bepaalde manier is het gebruik van algoritmen om complexiteit te bepalen perfect, maar niet bevredigend. Zeker niet wanneer de grotere vragen over de mensheid, zoals kunst, biologie of intelligentie moeten worden beantwoord. Een miljoen nullen bevat geen informatie. Aan de andere kant van het spectrum bevat een reeks van een miljoen kruisen of munten van een geldstuk een enorme hoeveelheid informatie. Maar ze hebben iets gemeen: ze zijn beiden saai. Alles waar we om geven ligt ergens in het midden, waar patronen en willekeur elkaar kruisen.

Een collega van Chaitin, Charles H. Bennett, discussieerde graag daarover en ontwikkelde een nieuwe maat voor de waarde van een bericht. Hij noemde het "logische diepte". De hoeveelheid werk die moest worden verricht om iets te berekenen werd meestal verwaarloosd. Bennett bracht deze arbeid terug in het zicht. Hij argumenteerde dat er geen logische diepte ligt in een totaal willekeurige reeks, noch in een bericht met opvallende redundantie. Hij stelde voor de waarde van een bericht te leggen in de verborgen redundantie, de delen die enkel met moeite voorspelbaar zijn. Wanneer we waarde hechten aan de complexiteit van een object, dan vermoeden we een lange verborgen berekening. Dit is zowel toepasbaar op een muziekstuk, een gedicht, een kruiswoordraadsel of een wetenschappelijke theorie. Het verschaft de oplosser vreugde bij de oplossing ervan.

Wiskundigen en logici hebben de tendens ontwikkeld om te denken dat het verwerken van informatie vrij is van energieverbruik. Niet zoals het verpompen van water. Hoewel de informatieverwerking tegenwoordig zeer goedkoop is, blijft het echter energie vreten en Bennett suggereerde dat deze energie (of de verrichte arbeid) een maat is van de complexiteit. Hij paste dit idee van 'logische diepte' toe op het probleem van zelf-organisatie. Evolutie start met iets zeer simpel en gaandeweg vergroot de complexiteit. Wat ook het onderliggende proces is – fysiek of biologisch –, na een tijdje begint het proces op een berekening te lijken.


Terug naar de inhoudsopgave


13 - Informatie is fysiek

Kwantummechanica heeft in haar korte bestaan meer crisissen, controverses en interpretaties behad dan gelijk welk andere tak van de wetenschap. Het feit dat dit domein doordrenkt is met mysteries is daar niet vreemd aan. Voor iedere strekking binnen de kwantummechanica zijn er fervente aanhangers, op het fanatieke af. De fundamenten van de kwantmmechanica worden continu herbouwd, en met meer religieuze dan wetenschappelijke drang. Het raakt immers aan het wezen van ons bestaan.

Christopher Fuchs, een kwantumtheoreticus, zegt dat het tijd is om opnieuw te beginnen en ons te keren naar de diepere fysische principes in plaats van naar de bestaande axioma's. Hij zei dat die fysische principes kunnen worden gevonden in de kwantuminformatietheorie. Hij zei: "Kwantummechanica is altijd al omtrent informatie geweest, het is enkel de gemeenschap van fysici die dat vergeten is." Iemand die het niet vergeten is, en het eigenlijk opnieuw ontdekt heeft, is John Archibald Wheeler, misschien wel de laatste grote fysicus van de 20e eeuw. Hij is tevens de man van de epigrammen en one-liners. "A black hole has no hair" is een van zijn beroemde slagzinnen, waarmee hij bedoelde dat een zwart gat enkel massa, lading en spin heeft, niks anders. In 1989 kwam hij met de finale slagzin "It from bit" naar buiten. Zijn visie was extreem en immaterieel: informatie eerst, de rest later. Alles, elke partikel, elk veld of iedere kracht leidt haar functie, haar bestaan af van bits. Waarom ziet de natuur er gequantificeerd uit? Omdat informatie gekwantificeerd is. Het bit is het ultieme ondeelbare deeltje.

Een van de fysieke fenomenen die de informatie een centrale plaats in de fysica heeft gegeven zijn precies de zwarte gaten. Ze zijn een product van de wetten die Einstein in 1915 had opgesteld. Wanneer een ster voldoende massa zou krijgen, dan zou zij instorten op haarzelf door de toegenomen zwaartekracht. Niets zou kunnen ontsnappen uit deze constructie, geen massa, geen energie en dus zelfs het licht niet. Wheeler begon ze in 1967 'zwarte gaten' te noemen. Astronomen weten zeker dat ze er hebben gevonden, door de interferentie van de zwaartekracht die ze veroorzaken.

In het begin waren de astrofysici gefocusd op de materie en de energie die werden opgeslokt. Pas later maakten ze zich zorgen over de informatie. Een probleem stelde zich wanneer Steven Hawking de kwantumeffecten bestudeerde en in 1974 argumenteerde dat een zwart gat straling moest afgeven in de buurt van de waarnemingshorizon als gevolg van kwantumfluctuaties. Zwarte gaten zouden dus langzaam verdampen. Het probleem was dat deze straling eerder saai was, gewoon warmte. Materie die in het zwarte gat verdween bevat informatie over haar structuur, haar organisatie, haar kwantumstaten, haar microstaten. Zo lang de verdwenen informatie uit de buurt bleef – achter de waarnemingshorizon – was er niets aan de hand. Het was ontoegankelijk, maar daarom niet verdwenen. De Hawkingstraling bevat echter geen informatie, dus als het zwarte gat verdampt, wat is er dan gebeurd met de informatie? Voor de kwantummechanica kan informatie niet worden vernietigd. Het verlies aan informatie zou de 'unitariteit' schenden dat zegt dat de som van de waarschijnlijkheden gelijk moet zijn aan 1. Hawking had dan ook in 1975 een pamfet geschreven met de dreigende titel 'The Breakdown of Physics in Gravitational Collapse' (zo dreigend dat de uitgever het pas een jaar later heeft gepubliceerd met een minder dreigende titel).

Zoals Hawking verwachtte waren er felle tegenstanders van zijn theorie. Met een van de tegenstanders – John Preskill – had hij een weddingschap afgesloten dat de informatie toch niet zou worden vernietigd. Hij herzag zijn theorie pas in 2004 nadat hij het formalisme van Richard Feynman – de "som van alle histories" – had toegepast op de topologie van de tijd-ruimte. Hij zei dat de denkfout lag in het feit dat zwarte gaten niet ondubbelzinnig zwart zijn. Velen waren niet overtuigd door zijn uitleg, maar hij heeft de weddingschap ridderlijk verloren en zijn tegenstander uitbetaald in de vorm van een encyclopedie.

Charles Bennett kwam tot zijn theorie over kwantuminformatie via een geheel andere weg. Lang voordat hij het idee over 'logische diepte' had geformuleerd had hij al nagedacht over de "thermodynamica van berekeningen". Iedereen had wel eens gedacht dat het hoofdrekenwerk van een persoon calorieën zou vergen, maar niemand had ooit daarvoor de berekening gemaakt. Bennett trachtte de thermodynamica van de minst thermodynamische computer, de niet-bestaande Turing-machine, te doorgronden. Turing zelf had zich nooit zorgen gemaakt over de energie die nodig was voor zijn hersenspinsel, noch de warmte die het zou kunnen produceren. Bennett daarentegen vroeg zich af wat de fysieke kostprijs was van het logische denkwerk. Hij schreef: "Computers kunnen beschouwd worden als machines die vrije energie transformeren in verloren warmte en wiskundig denkwerk." Entropie stak opnieuw de kop op. De 'band' in een Turing-machine heeft "brandstofwaarde"; een 'band' die de cijfers van π produceert heeft een zeker brandstofwaarde en een willekeurige 'band' heeft geen brandstofwaarde. In de tijd dat Watson aan Harvard zijn genetische code doceerde was Bennett een jaar lang zijn leerassistent. Bennett behaalde zijn doctoraat met berekeningen in de moleculaire dynamica, op de computers in Harvard. Daarna verkaste hij naar Berkeley en daarna naar IBM, op zoek naar krachtiger computers voor het rekenwerk. Geen van alle maakte Turing-machines natuurlijk, maar Bennett was gefacineerd door de Turing-machine van de natuur, de RNA-polymerase, die langs een gen glijdt en stap voor stap de chemische informatie in het DNA afleest en overschrijft.

In de echte wereld van de jaren 1970 waren computers steeds meer energie-efficiënt, maar dissipeerden toch nog behoorlijk wat warmte. Von Neumann had in 1949 reeds berekend dat voor iedere elementaire logische beslissing en iedere elementaire transmissie van een bit een bepaalde hoeveelheid warmte moest worden gedissipeerd. Dit was in de jaren 1970 reeds voor waar aanvaard, maar het was verkeerd.

Rolf Landauer, Bennetts mentor bij IBM, ontdekte von Neumanns fout. Landauers carrière stond in het teken van de totstandkoming van de fysische basis voor informatie. Zijn beroemdste pamflet droeg de titel 'Information is Physical', en was bedoeld om de wetenschappers er op te wijzen dat berekeningen fysieke objecten vergen en dus de fysische wetten moesten respecteren. Een teken in een steen, een gat in een ponskaart of een elementair deeltje met een spin, alles wat een bit vertegenwoordigt heeft een 'lichaam'. In 1961 trachtte hij von Neumanns formule voor de kost van informatieverwerking te bewijzen, maar in tegenstelling daarvan kwam aan het licht dat de meeste logische operaties geen entropiekost met zich meebrengen. Het omflippen van een bit van nul naar een of omgekeerd bewaarde de informatie. Het proces is reversibel en dus blijf de entropie onveranderd. Bennett vond dat warmte alleen gedissipeerd werd wanneer informatie wordt gewist. Het wissen is een irreversibele logische operatie. Wanneer een elektronische computer een capacitor leegmaakt, dan gaat een bit verloren en pas dan wordt warmte gedissipeerd. Vergeten vergt arbeid.

De kwantumtheorie van straling – die stelde dat het observeren interfereert met de meetproces volgens het onzekerheidsprincipe – zette de mensen op het verkeerde been om te denken dat berekeningen een niet reduceerbare thermodynamische kost per stap hadden. Daar tegenover staat dat het succes van Shannons informatietheorie de mensen leidde tot het abstraheren van alle fysica rond informatieverwerking en de illusie gaven dat het om een puur wiskundig ding ging. Maar naarmate de ingenieurs door miniaturisatie dichter bij de atomaire schaal kwamen begonnen ze zich zorgen te maken over de kwantumgrenzen die interfereren met hun 'propere' manier om een onderscheid te maken tussen de staten 'nul' en 'een'. Op die schaal is de kwantuminformatiewetenschap geboren. Bennett en anderen zagen in de plaats van problemen precies opportuniteiten in de kwantumeffecten.

Het eerste experiment met kwantumcryptografie is van de hand van Bennett en zijn assistent John Smolin en dateert van 1989. Met een gesloten doos ('Aunt Martha's coffin') met een helium-neonlaser voor de uitlijning en hoogspanningscellen voor de polarisatie van fotonen zonden ze het eerste bericht ooit dat met kwantumcryptografie is versleuteld. Het was een demonstratie van informatieverwerking dat enkel via een kwantumsysteem kon worden verwezenlijkt. Kwantumfoutcorrectie, kwantumteleportatie en kwantumcomputers volgden snel daarna.

'Alice' en 'Bob' startten hun carrière in de cryptografie, maar tegenwoordig zijn ze het bezit van de kwantumcryptografen. Ze wandelen constant in verschillende kamers en spelen 'kop of munt' en zenden elkaar verzegelde enveloppen. Ze kiezen toestanden en voeren Paulirotaties uit. "Alice zendt een qubit naar Bob en vergeet wat ze heeft gedaan" is een uitdrukking van kwantumcryptografen. "Bob doet een meting en vertelt het aan Alice" is er nog zo een. In het 'Aunt Martha'-experiment zendt Alice informatie naar Bob, versleuteld zodat het niet kan worden gelezen door een derde partij (door 'Eve, the eavesdropper'). Daarvoor moeten beide partijen hun private sleutel kennen. Maar hoe kan Alice deze sleutel aan Bob overmaken? Bennett en Gilles Brassard begonnen met iedere bit te versleutelen met één enkel kwantumobject, zoals een foton. De informatie is opgeslagen in de kwantumstaten van het foton, zoals de horizontale of verticale polarisatie. Daar waar een fysiek object bestaat uit miljarden deeltjes en kan worden onderschept, gevolgd, geobserveerd en uitgewisseld is dit niet mogelijk voor een kwantumobject. De observatie van het bericht zal het bericht teniet doen. Luistervinken, hoe subtiel ook, zal worden gedetecteerd. Volgens een ingewikkeld protocol zal Alice aan haar zijde een reeks willekeurige bits genereren en is Bob in staat om een identieke reeks bits aan zijn zijde te creëren.

De eerste experimenten met de doos lieten toe kwantumbits over een afstand van 32 cm vrije lucht te zenden. Het resultaat: een absoluut onbreekbare cryptografische sleutel. Latere experimenten gingen over een optische kabel, maar Bennett experimenteerde met kwantumteleportatie. Een qubit wordt gedefinieerd als het kleinst mogelijke non-triviale kwantumsysteem. Net zoals in een klassiek systeem kan men in een qubit 2 toestanden of staten onderscheiden, 'nul' of 'een'. In tegenstelling echter tot een klassiek systeem – waarin alle toestanden in principe kunnen worden onderscheiden – is in een kwantumsysteem het onderscheid niet altijd perfect. Dit niet-perfect onderscheid is alom tegenwoordig in een kwantumsysteem door het onzekerheidsprincipe van Heisenberg. De meting van een bepaalde eigenschap van een kwantumobject zorgt ervoor dat je de andere eigenschappen niet meer kunt meten. Je kunt bijvoorbeeld het momentum van een elementair deeltje meten, maar niet haar positie. Andere eigenschappen zijn bijvoorbeeld de richting van de spin of de polarisatie. Fysisci zien deze kwantumtoestanden als een geometrisch geheel, met orthogonalen.


Voorstelling van een qubit

Dit onvolmaakte onderscheid is wat het droomachtige karakter geeft aan de kwantumfysica: de onmogelijkheid iets te observeren zonder het te verstoren, het te klonen of het aan meerdere ontvangers te verzenden. Ook het qubit heeft zo'n droomachtig karakter. Naast de toestanden 0 en 1 bezit het een hele panoplie van andere toestanden, ergens tussen 0 en 1, die ze allemaal terzelfdertijd bezit. Dit heet superpositie, een combinatie van waarschijnlijkheidsamplitudes. Het is dus een gedetermineerd ding met een wolk van ongedetermineerde dingen die erin leven, die weliswaar beantwoorden aan klare en elegante wiskundige regels. Zoals Bennett zei: "Een onwillekeurig geheel kan willekeurige onderdelen bevatten. Het is een zeer contra-intuïtieve eigenschap van de kwantuminformatiewetenschap. Het superpositieprincipe is hoe de natuur werkt. Mensen moeten er eerst niets van hebben, maar je wordt het gewoon en de alternatieven zijn veel slechter."

De sleutel tot kwantumteleportatie en vele andere kwantumfenomenen is een fenomeen dat verstrengeling ('entanglement') wordt genoemd. Het gaat uit van het superpositiebeginsel en breidt het uit in de ruimte, naar een qubitpaar dat ver van elkaar is verwijderd. Ze hebben een wel gedefineerde toestand als een paar, maar geen van beide heeft een meetbare staat op zichzelf. Het gedachte-exeriment dat aan de grond lag van dit fenomeen is van de hand van Einstein, die samen met Podolsky en Rosen in 1935 er een pamflet over schreven om dit soort paradoxen aan de kaak te stellen. Het was de Israëlische fysicus Asher Peres die in 2003 het antwoord gaf op de Einstein-Podolsky-Rosen puzzel. Hij schreef dat het pamflet niet verkeerd was als dusdanig, maar wel te vroeg kwam. Shannon moest nog zijn theorie over informatie publiceren. Informatie is fysiek, en dus is het nutteloos te praten over kwantumtoestanden zonder de informatie in overweging te nemen met betrekking tot die toestanden.

Christopher Fuchs argumenteerde dat je zowel niet van kwantumtoestanden moest spreken, want dat was een gedachtebouwsel van de observator. Beter was te spreken over kwantuminformatie. "Wat doet het kwantumteleportatieprotocol? Een volledig standaard antwoord zou nu zijn: 'Het draagt kwantuminformatie over van Alice's locatie naar die van Bob.'"

De puzzel over spookachtige acties over afstanden is nog niet helemaal opgelost. Dit soort van non-localiteit is al met verschillende slimme experimenten aangetoond, en verstrengeling blijft universeel te zijn. Het atoompaar in iedere molecule H2 blijkt verstrengeld te zijn. Het kwantumteleportatie-experiment van Bennett dateert al van 1993. Het gebruikt een verstrengeld deeltjespaar om kwantuminformatie van een derde deeltje te projecteren over een willekeurige afstand. Onderzoekers zagen al snel vele applicaties, zoals de transfer van vluchtige informatie naar geheime opslag of geheugen. Het experiment van Bennett opende nieuwe mogelijkheden voor de droom van kwantumcomputing.

Richard Feynmann koos de vreemdheid van een kwantumsysteem als het uitgangspunt in een toespraak in 1981. Hij kende het probleem van de berekeningen om kwatumfysica te simuleren met een computer. Het berekenen van iedere kwantumvariabele vereiste waarschijnlijkheden, wat de moeilijkheid voor de berekeningen exponentieel doet toenemen. "Het aantal informatiebits is hetzelfde als het aantal punten in de ruimte, dus zou je NN configuraties moeten uitrekenen. Veel te veel voor een computer. Je kunt dus onmogelijk iets simuleren door de waarschijnlijkheden te berekenen." Dus stelde hij voor vuur met vuur te bestrijden: gebruik een computer die ook berust op waarschijnlijkheden. Een kwantumcomputer zou geen Turing-machine zijn, zei hij, maar iets geheel anders.

Bennett zei dat Feynmanns inzicht erop neerkwam dat een kwantumsysteem voortdurend haar eigen toekomst berekende. Het is een analoge computer van haar eigen dynamica. Onderzoekers hadden al snel door dat een dergelijke kwantumcomputer ook andere onmogelijk geachte problemen kon oplossen.

De kracht van kwantumcomputers ligt in dat ongrijpbaar object, de qubit, waarin alle waarschijnlijkheden zijn ingebouwd. Daarbij vergeleken is het klassieke bit met haar twee toestanden een miserabel specimen van een tweedimensionale vector. Rolf Landauer zei droogweg: "Toen we leerden tellen op onze tien klassieke kleverige vingertjes werden we misleid. We dachten dat ieder getal een unieke waarde had." In de werkelijke kwantumwereld was dit niet zo.

Bij kwantumberekeningen zijn meerdere qubits verstrengeld met elkaar. Dit vermenigvuldigt hun kracht niet, maar doet ze exponentieel stijgen. In klassieke berekeningen is een bit 'een' of 'nul' en n bits geven 2n waarden. Qubits bezitten naast 0 en 1 alle andere mogelijke waarden volgens het aantal mogelijke superposities. Dit geeft de kwantumcomputer een potentieel voor parallelle verwerking dat geen klassiek equivalent heeft. Ze kan dus problemen oplossen die beschouwd werden als onmogelijk te berekenen.

Een voorbeeld van zo'n aartsmoeilijk probleem is het kraken van RSA encryptie, dat berust op een extreem groot getal dat het product is van twee grote priemgetallen. Het product maken is gemakkelijk, de omgekeerde bewerking aartsmoeilijk en – als het getal voldoende groot is – zou wellicht langer duren dan de leeftijd van het universum. Op dit soort getallen rust de internethandel van vandaag. In 1994 – nog voordat de eerste kwantumcomputer bestond – heeft een wiskundige, Peter Shor genaamd (Bell Labs), echter een algoritme geschreven voor een kwantumcomputer dat deze factoren van een product kon berekenen. En twee jaar later schreef Lov Grover een kwantumalgoritme om een enorme ongesorteerde database te doorzoeken, ook zo'n notoir aartsmoeilijk probleem. Kwantumcomputers herdefiniëren dus wat een 'gemakkelijk' en een 'moeilijk' probleem is.

Wat de kwantumcomputer haar kracht geeft maakt ze tegelijk ook extreem moeilijk om mee te werken. Informatie trekken uit het systeem is hetzelfde als het observeren en dan stort het kwantumsysteem in tot een klassiek systeem. De enige manier om het resultaat van de berekening te kennen is te wachten tot het kwantumwerk gedaan is. Kwantuminformatie is als een droom, als je die probeert te vertellen, dan verander je de herinnering ervan.

Shannon zelf heeft nooit de gevolgen gekend van zijn theorie. "Hij zou waarschijnlijk wel enthousiast geweest zijn over de verstrengelde-geassisteerde capaciteit van een communicatiekanaal", zei Bennett. "Dezelfde vorm, een veralgemening van Shannons formule, bestrijkt zowel de klassieke als de kwantumkanalen op een zeer elegante manier. Zo is het zeer algemeen vastgesteld dat de kwantumveralgemening van klassieke informatie heeft geleid tot een properder en krachtiger theorie, zowel in de informatica als in de communicatie." Shannon zelf stierf in 2001, na een levenseinde uitgewist door Alzheimer. Hij is zeker meer dan ieder ander persoon de voorbode van het informatietijdperk. Cyberspace is deels zijn creatie.

John Wheeler van zijn kant liet een bescheiden agenda na met to-do's voor de kwantuminformatiewetenschappers:

De laatste uitdaging is deze die blijft, en niet alleen voor wetenschappers: de vaststelling van 'betekenis'.


Terug naar de inhoudsopgave


14 - Na de overstroming

De meest perfecte voorstelling van "informatieverzadiging" is de beschrijving van de 'Bibliotheek van Babel', een boek van Jorge Luis Borges uit 1941. Je kon uit die bibliotheek niets leren, want het bevatte reeds alle kennis.

Wij maken onze eigen magazijnen van kennis. Informatie is persistent en moeilijk uit te wissen; de moeilijheid om te vergeten doet de verwarring toenemen. Toen Wikipedia alle bestaande encyclopedieën in de wereld begon voorbij te steken in volume realiseerden de editors zich dat vele namen verschillende identiteiten hadden. Ze werkten daarom een systeem uit van 'disambiguïteiten' (ondubbelzinnigheden). Onder de noemer 'Babel' staat het bol van de dubbelzinnigheden.

Lang voor Wikipedia schreef Borges ook al over een bedriegelijke encyclopedie met de naam 'The Anglo-American Cyclopedia' (New York, 1917) die een bonte mengeling van feiten en verzinselen bevatte en haar eigen cosmos, Tlön genaamd, projecteerde. En lang voor Borges beelde Charles Babbage zich ook zo'n bibliotheek van Babel in. Hij vond deze in de lucht. Iedere schreeuw of zucht, ooit geuit door een mens, werden en worden permanent opgetekend door de deeltjes in de lucht, zei hij. Edgar Allan Poe zag het punt dat Babbage wilde maken. In 1845 schreef hij over een dialoog tussen twee engelen, waarbij hij stelde dat geen enkele gedachte ooit kon vergaan. Ieder woord is een impuls op de lucht, die oneindig doorgaat en ieder materiedeeltje in het universum raakt. Hij dacht ook aan Laplace, en volgens diens perfectie in de algebra moest het ook zo zijn dat iedere golfbeweging kon teruggebracht worden tot haar oorsprong.

Babbage en Poe namen een informatie-theoretische visie aan op de nieuwe fysica. Laplace had immers een perfect Newtoniaans mechanisch determinisme verklaard in hetwelk niets aan het toeval wordt overgelaten. Alles beantwoordde aan fysische wetten en alles van het verre verleden tot de verre toekomst draaide volgens deze wetten. Het was nog te vroeg voor chaostheorie of de grenzen van de berekenbaarheid. Laplace vroeg ons een 'intelligentie' in te beelden, met het vermogen van perfecte kennis. Deze zou in een en dezelfde formule de bewegingen van de grootste hemellichamen tot de kleinste atomen omvatten. Voor deze intelligentie zou niets onzeker zijn, en 'verleden' en 'toekomst' zouden 'heden' zijn in haar ogen.

Dit gedachte-experiment maakte niet alleen Gods wil, maar ook de wil van de Mens nutteloos. Voor velen die het extreme Newtonianisme aangingen was dit reden voor optimisme. Babbage zag ineens in dat de natuur een grote rekenmachine was, een grotere versie van zijn eigen deterministische machine. Elk atoompje, eens verstoord, draagt zijn beweging over aan andere atomen en niets gaat verloren. Daardoor is alles wat een mens ooit zei vastgelegd in de lucht en kan men in theorie – gegeven genoeg rekenkracht – alles teruggevonden worden.

Dit was overoptimistisch natuurlijk. Maar het jaar dat Babbage zijn essay publiceerde vond Louis Daguerre zijn fotografische techniek uit. Zijn Engelse concurrent, William Fox Talbot, zag daarin iets gelijkend op een meme. "Het is alsof niet de artist de foto maakt, maar de foto met het zonlicht zichzelf maakt." Vliedende beelden konden nu worden bevroren in de tijd. Voor die tijd tekenden of schilderden artisten wat het oog mogelijks kon zien. Daar tegenover stond dat de daguerrotype het voorwerp zelf is, de informatie opgeslagen in één ogenblik. Eenmaal opslag begon, waar zou het eindigen?

Een Amerikaanse essayist maakt de link tussen fotografie en Babbages atmosferische bibliotheek. Hij vroeg zich af of het universum niet meer was dan een geheel gevuld met fonetische en fotografische structuren.

De volgende die de stap zette voor een verklaring van het universum was Alan Turing. Hij zag het universum als een computer. Die laatste, net zoals het universum dacht hij, wordt best gezien als een verzameling van staten of toestanden en op gelijk welk moment kan je de vorige en de volgende toestand kennen. Deze voorspelling kan afgeleid worden van de initiële toestand van de machine en van de inputsignalen. Het universum is bezig haar eigen bestemming te berekenen. Maar hij merkte toch op dat deze Laplaciaanse perfectie wellicht mogelijk was voor een computer, maar niet voor het universum. Het fenomeen dat hij voorstelde als de oorzaak van de imperfectie van het universum werd pas later bekend in de chaostheorie als 'het vlindereffect'.

Als het universum een computer is, dan hebben we moeite om haar geheugen aan te spreken. Als het een bibliotheek is, dan heeft die bibliotheek geen boekenrekken. Babbage was zijn tijd weeral vooruit toen hij zei dat de gesproken woorden overal en nergens waren. Hij noemde die informatie-opslagplaats een 'chaos'.

In de 3e eeuw v. Chr. bezat de bibliotheek van Alexandrië kopieën van zowat alle werken van de toen bekende wereld. Daarmee overvleugelde het Athene als het intellectuele centrum. Helaas hebben verschillende branden (sommige aangestoken) daar een eind aan gemaakt. Dat boeken werden verbrand is niet alleen van die tijd; papier is nu eenmaal een delicate drager van informatie.

Ter ere van deze verloren gegane bibliotheek heeft Wikipedia een symposium in Alexandrië georganiseerd voor honderden van haar editors in 2008. Toen al was Wikipedia uitgegroeid tot de grootste encyclopedie in de geschiedenis, meer dan alle papieren encyclopedieën in de wereld bij elkaar geteld en in 264 talen. Wikipedia houdt zich echter niet bezig met het verzamelen van gekende teksten. Haar auteurs trachten de verenigde kennis van dat ogenblik zoveel als mogelijk te bewaren. Net zoals de denkbeeldige bibliotheek van Borges lijkt Wikipedia stilletjes aan grenzeloos te worden. Het medium waarover het beschikt laat zoiets toe, wat bijvoorbeeld nooit de aspiratie is geweest van de Encyclopedia Britannica, omdat deze laatste nu eenmaal op papier was gedrukt.

Wikipedia's grondlegger, Jimmy Wales, was eerst van plan te werken met experten en academici die elkaars werken konden beoordelen. Al gauw echter kreeg de 'wiki' (van het Hawaiiaans voor 'snel') de bovenhand als een website die door iedereen kon worden bewerkt. Ze was daardoor zelf-onderhoudend. Momenteel werken vooral vrijwilligers aan de encyclopedie; op de loonlijst staan slechts 18 personen, die allemaal met giften van de 50 miljoen dagelijkse gebruikers worden betaald.

Hoewel er veel eigenaardige artikels in verwerkt zijn over vreemde onderwerpen (zoals spelletjes, imaginaire talen, enzovoort) zei Wales dat hij daar geen bezwaar tegen maakte. Iedereen was vrij om over een onderwerp van zijn/haar keuze te schrijven. Het onofficiële motto was: "Wiki in not paper." Daarmee wordt bedoeld dat er geen fysieke of economische grenzen zijn aan het aantal of de grootte van een artikel. Bits zijn vrij. Iedere metafoor rond papier of ruimte is dood, zei Wales.

Hoewel Wikipedia zeer snel als een rots van cultuur werd aanschouwd waren er toch occasionele gevechten over bepaalde onderwerpen (hoe banaal deze ook waren). Na een tijdje daalde het stof altijd neer rond een equilibrium. Maar daarmee is de dynamica van Wikipedia niet verdwenen. Alles is onstabiel en voor verbetering (of minstens verandering) vatbaar. Niets is permanent.

Dit is een geweldige tegenstelling tot de eerste papieren encyclopedieën van Diderot (Parijs 1751) en Britannica (Edinburgh 1768). Beiden hadden tot doel "... de wereldwijd verspreide kennis te inventariseren en door te geven aan de mensen die nu leven en na ons komen." Beiden werkten onder een halo van autoriteit, maar waren eigenlijk ook van tijd tot tijd herzienbaar. Nieuwe ideeën werden slechts mondjesmaat toegevoegd. Zo duurde het een volle eeuw voordat Britannica de zwaartekrachttheorie van Isaac Newton had aanvaard en opgenomen.

Autoriteit is iets waar Wikipedia niet van wil weten en academische instellingen en journalisten wantrouwen het. Toch komt die autoriteit met de tijd. Wie zou durven weerleggen dat er 18 'counties' met de naam 'Montgomery' bestaan in de V.S.A., zoals Wikipedia beweert? En ironisch genoeg bevat Wikipedia een steeds aanpasbaar artikel met de titel "Fouten in de 'Encyclopedia Britannica' die verbeterd werden in Wikipedia". Heel Wikipedia is steeds in beweging.

Door deze flexibiliteit is er natuurlijk ook het risico op vandalisme. Een anti-vandalisme eenheid en een legioen van vandalismebestrijders is dan ook geen overbodige luxe. Een gefrustreerde vandaal klaagde dat "... er een grote samenzwering bestaat op Wikipedia die ervoor zorgt dat artikels akkoord gaan met de realiteit." Dit is namelijk wat alle gebruikers op hopen, en dat is soms meer dan genoeg.

Lewis Caroll beschreef op het einde van de 19e eeuw een imaginaire plattegrond die op schaal 1/1 de hele wereld zou beschrijven, maar nooit kon worden uitgevouwen. Hij merkte op: "De boeren zouden protesteren omdat die plattegrond alle zonlicht zou verduisteren." Ook Wikipedia dreigt in die val te trappen. De vraag die moet beantwoord worden is of dat Wikipedia de hele wereld moet beschrijven.

In Wikipedia bestaan er twee diametraal tegenovergestelde stromingen: "deletionism" en "inclusionism". De eerste stroming tracht de kwaliteit te verbeteren door triviaal geachte artikels te verwijderen; de ander stroming tracht zoveel mogelijk artikels over van alles en nog wat te verzamelen. Beiden voeren soms verhitte gevechten. Maar wie kan zeggen dat een artikeltje, dat onbeduidend begint, niet kan uitgroeien tot een volwaardig stuk over een bepaald onderwerp? Wikipedia evolueert dendritisch, met vertakkingen in alle richtingen, en daarin is ze precies zoals het universum. Wales maakte zich zorgen over de biografieën van nog levende mensen. In een ideale wereld zou dit kunnen, in de praktijk niet. Maar zelfs al zou dit kunnen en al zouden pietluttige objecten als vijzen in constructies worden beschreven, dan nog zou deze verzameling niet gelijk zijn aan 'alle kennis'. In Wikipedia is er een tendens dat de gescheiden onderdelen verder van elkaar afsplitsen, zodat hun 'combinatie' niet meer relevant zijn. Charles Dickens had dit probleem ook als beschouwd in 'The Pickwick Papers'. Daarin beschreef hij een man die in de Britannica gelezen had over Chinese metafysica. Alleen bestond daarover geen artikel. De man had gelezen over metafysica onder M en China onder C.

Een andere schrijver, Nicholson Baker, zette zijn eerste pasjes in Wikipedia in 2008, maar al gauw werd het een alles opslorpende bezigheid. Hij probeerde alles wat hij maar te pakken kon krijgen in Wikipedia te stoppen; hij werd een 'inclusionist', bang om iets over het hoofd te hebben gezien. Hij besloot zijn activiteiten met 'een geheime hoop', dat alles wat ooit is geschreven, hoe klein ook, zou kunnen worden bewaard, indien niet in Wikipedia, dan in een ander vehikel dat hij "Deletopedia" wou noemen. Niet lang daarna werd Deletopedia effectief opgericht.

Vooral de eigennamen werden een probleem, met hun dubbelzinnigheden en hun dubbel gebruik. Volgens het bijbelse verhaal van de genesis werden de namen aan alle dingen gegeven door Adam. Eén naam voor één ding. Helaas is dat al lang zo niet meer. Het neerhalen van informatiebarrières geeft als gevolg dat er bittere gevechten worden geleverd voor de rechten op een naam. Het lijkt onmogelijk, maar stilaan raakt er een tekort aan namen in de moderne wereld; hoewel het aantal eindeloos lijkt is de vraag ernaar nog groter.

Reeds in 1919 worstelden de grote telegrafiemaatschappijen in de V.S.A. met een groter wordend probleem van verkeerd afgeleverde berichten. Ze richtten dan ook een 'Central Bureau of Registered Addresses' op, gelegen in het financiële district in New York. Daarin werden codes vastgelegd voor adressen. Ze waren simpel, moesten makkelijk uitspreekbaar zijn en 5 tot 10 letters bevatten. Hoewel alle geregistreerden jaarlijks een som moesten betalen voor dit privilege waren er in 1934 al zo'n 28.000 geregistreerden. De codenamen werden gegeven op een basis van 'wie eerst komt, eerst maalt'. De financier Bernard M. Baruch kon zodoende BARUCH als codenaam registreren.

Cyberspace veranderde alles. Een bedrijf in South-Carolina slaagde erin om de domeinnaam baruch.com te registreren. Een Canadees deed nog straffer: hij registreerde 1500 beroemde namen en maakte er een handeltjes van om ze te verkopen. Soms verloor hij een 'naam', zoals jrrtolkien.com, waarvan de World Intellectual Property Organization in Genève oordeelde dat hij er geen recht op had. Namen hebben waarde. Zo is geschat dat de naam Nike 7 miljard dollar waard is, en Coca-Cola nog tien keer meer.

In de studie van de namen (onomatologie) is er een axioma dat groeiende sociale eenheden leiden tot groeiende naamsystemen. Je kunt inderdaad aannemen dat in stamverband één enkele naam alleen voldoende was. Maar is grotere clanverbanden, steden of naties moesten mensen al gauw een voornaam en een familienaam hebben, of een naam die het beroep weergaf. Het internet geeft niet alleen aanleiding tot gevechten over namen, maar een schaalvergroting in naamgeving, te vergelijken met een fase-overgang. Sommige gevechten zijn ridicuul. Zo kreeg een muziekschrijver in Atlanta, Bill Wyman genaamd, een bevelschrift van de advokaten van de vorige bassist van de Rolling Stones (gekend als Bill Wyman) dat hij die naam moest opgeven. De muziekschrijver antwoordde droogjes dat die bassist eigenlijk William George Perks heette. Ook Porsche probeerde zich de naam Carrera toe te eigenen, totdat een Zwitser dorp bitsig reageerde dat zij die naam reeds langer droegen en hun goede naam door Porsche werd beschadigd.

Een handige term uit de computerwetenschap komt hierbij van pas: de 'namespace'. Het doelt op een virtuele ruimte waarin alle namen uniek zijn. De wereld heeft reeds zeer lang dit begrip gekend, gebaseerd op geografie of een andere manier van afbakenen. Je kon Ford worden genoemd, zolang je geen auto's bouwde. Dit systeem sluit dubbel gebruik uit. De Screen Actors Guild in de V.S.A. laat bijvoorbeeld maar één Julia Roberts toe in haar naamruimte. Dit neemt niet weg dat traditionele naamruimten beginnen te overlappen en samensmelten. Vele raken overbevolkt. Farmaceutische namen zijn een speciaal geval. In de V.S.A. is de Food and Drug Administration bevoegd voor de naamgeving van voorgestelde namen. Men tracht zoveel als mogelijk naamverwarring te vermijden, omdat de gevolgen dodelijk zijn. Zo werd reeds methadone (tegen opiumverslaving) gegeven i.p.v. metadate (voor ADHD). Ook in de naamruimte van de bedrijfnamen zijn er tekenen van overbevolking. Nieuwe bedrijven kunnen zich niet zomaar General Electric noemen. Bedrijven investeren miljoenen in consultants voor de naamgeving. Het is dan ook niet verwonderlijk dat de recentste grote internetbedrijven namen hebben die op het ridicule af zijn: Yahoo!, Google en Twitter.

Het internet is een naamruimte op zich. Navigatie op het internet berust op domeinnamen die elk een uniek IP-adres hebben. De namen zijn dus eigenlijk maar codes, maar toch wordt er veel belang aan gehecht. In 1993 kon iedereen een domeinnaam registreren. Wie het eerste was kreeg de naam die hij/zij koos. Vele bedrijven zagen hun naam van onder hun neus weggekaapt. Het natuurlijk gevolg ervan was dat er in 2006 een secundaire markt was ontstaan waarop die domeinnamen werden verhandeld, soms voor enorme bedragen. Voor sex.com betaalde iemand zelfs 14 miljoen dollar. Iedere naam in iedere bekende taal is inmiddels geregistreerd en grote bedrijven hebben advokaten die zich met niets anders bezighouden dan het opsporen en opkopen van domeinnamen in alle variaties. De jurische wereld van het intellectuele eigendom werd door elkaar geschud. Waar vroeger nogal wat aanvragen voor 'trademarks' werden geweigerd is dit al lang niet meer zo. Iedere combinatie van woorden in alle talen schijnt beschermd te worden.

Deze botsing van namen is echter niet nieuw in de geschiedenis. Rond de 15e eeuw kende men in Europa zo'n 500 verschillende planten. Pas toen men begon deze plantnamen via drukwerk te verspreiden viel het op dat een en dezelfde plant vele namen kende. Casper Ratzenberger, een student in de jaren 1550, begon een herbarium en trachtte alle namen van iedere plant te achterhalen. Voor het herderstasje noteerde hij 11 namen in het Latijn en het Duits. Naturalisten vormden een gemeenschap en communiceerden met elkaar en aan het einde van die eeuw had een Zwitserse botanicus een catalogus met 6000 planten gepubliceerd. Iedere naturalist was verantwoordelijk voor de naamgeving van nieuwe planten, wat al gauw leidde tot een proliferatie van namen. Duplicatie en redundantie waren het natuurlijk gevolg. Het herderstasje kende in het Engels 20 verschillende benamingen. Carl Linnaeus moest dan de taxonomie nog uitvinden. Maar wanneer hij dat deed in de 18e eeuw had hij zo'n 7700 plantensoorten en zo'n 4400 diersoorten te benoemen. Nu zijn dat er 300.000, zonder de miljoenen insecten gerekend. De tijden waren toen simpelder.

Wanneer Claude Shannon in 1949 op een blaadje papier de schaal van informatie neerpende stopte hij bij zijn hoogste schatting van de Library of Congress, 1014 bit. Hij had ongeveer goed geschat, maar de pyramide groeide voortdurend. Na bits kwamen natuurlijk kilobits. De maat voor informatie groeide exponentieel zoals men ondervond in de jaren 1960. Gordon Moore richtte Intel Corporation op in 1965 en suggereerde – bescheiden – dat binnen tien jaar zo'n 65.000 transistors op een siliconschijf zouden passen. Hij voorspelde een verdubbeling van die capaciteit ieder jaar of twee. Daarna bleek dat niet alleen het verdubbelen van het geheugen, maar ook van de rekensnelheid en het halveren van de kostprijs daaraan verbonden was.

Transmissiesnelheden werden in kilobits gerekend in 1972. Business kon met 240 kilobits/s worden gedaan op hoge snelheidslijnen. IBM stopte 8 bits in een byte en de kilobyte was geboren. Van kilobyte ging het naar megabyte, enzovoort. De internationale comitees voor standaarden adopteerden de mega-, giga-, tera-, peta- en exa- voorvoegsels uit het Grieks, maar reeds in 1991 moest men er zetta- en yotta- aan toevoegen voor wat betreft de gegevensopslagcapaciteit. Andere zaken, zoals geld, hinkten natuurlijk achterop. Alle rijkdom van alle generaties van mensen in de wereld was nog steeds kleiner dan een peta-dollar.

De jaren 1970 waren de jaren van de megabytes. Een IBM model 165 met 1 MB aan geheugen kostte 4,6 miljoen dollar. Rond 1982 was de prijs voor 1 MB op een enkele chip reeds gedaald tot 36.000 dollar. 1 GB is ongeveer de geschatte inhoud van de Oxford English Dictionary, editie 1987. Rond 2010 kon je 1 TB-schijven kopen voor 100 dollar. En 10 TB is de geschatte inhoud van de Library of Congress. Dit laatste zonder afbeeldingen of muziek. Deze bibliotheek verzamelt nu ook websites en wordt op 160 TB geschat (februari 2010). Het gaat zo snel dat een computerwetenschapper zei: "Als je knielt om een zaadje te planten, dan is er reeds een boom uit gegroeid, groot genoeg om je gemeente te verzwelgen, voordat je weer recht staat."

Een meer gebruikelijke metafoor is de 'cloud'. Al die informatie zweeft boven ons hoofd, niet zichtbaar, maar daarom niet minder reëel. Zo moet de hemel hebben gevoeld voor de gelovigen in vroegere tijden. Tegenwoordig gebeurt alles in de 'cloud': opslag van je foto's, Google zorgt voor je bedrijf in de 'cloud', e-mail gebeurt 100% in de 'cloud'. Traditionele ideeën over privacy, gebaseerd op fysieke elementen als sloten en onzichtbaarheid, worden overhoop gegooid. Geld leeft in de 'cloud' en stillaan verdwijnt cash volledig. De wereldeconomie geschiedt in de 'cloud'.

Het fysieke aspect is echter veel minder esotherisch. Servers staan in grote rijen opgesteld in enorme ruimten van 'parken', voorzien van koeltorens en dieselgeneratoren. Ze groeien symbiotisch met de elektrische infrastructuur op dewelke ze lijken en waarvan ze afhankelijk zijn. Dit zijn de echte informatiedragers; de 'cloud' is hun 'avatar'.

De informatie die door de mens werd gecreëerd was lange tijd vluchtig; het verdween in de lucht net zoals het gesproken woord. Enkel de luttele fragmenten die in steen waren gebeiteld of op papier waren neergeschreven bleven bewaard. Vandaag wordt er potentieel niets meer weggesmeten of vernietigd. Iedereen heeft een camera bij de hand. In 2010 werden er 500 miljard foto's gemaakt. YouTube 'streamde' meer dan 1 miljard video's per dag. Mensen bewaren iedere seconde van iedere dag. Waar eindigt dit?

Babbage en Poe opperden dat geen enkele gedachte verloren ging. Het is dus natuurlijk dat je je gaat afvragen hoeveel informatie het universum bevat. Door te evolueren in de tijd verwerkt het universum informatie en slaat het op. Seth Lloyd, een kwantumingenieur bij het M.I.T., heeft de berekening gemaakt. Uitgaande van de ouderdom van het universum sinds de Big Bang, rekening houdende met de lichtsnelheid, gelimiteerd door entropie, kwam hij tot de som van 10120 'operaties' en rekening houdende met elke vrijheidsgraad van elk deeltje in het universum zou het 1090 bit kunnen bevatten. De teller loopt nog steeds ...


Terug naar de inhoudsopgave


15 - Iedere dag nieuw nieuws

Net zoals de drukpers zijn de opeenvolgende technologische stappen van telegraaf, telefoon, computer en internet mikpunten geweest van reactionaire historici die het als een extra last op de schouders van de mensheid zagen. Zo ook de voorzitter van de American Historical Association die in 1962 een toespraak hield over de achteruitgang van het lezen. Het slechts van al waren de nieuwe gereedschappen en technieken om alles te kwantificeren, de 'data processors', voor de personen die het verleden wilden preserveren en optekenen, klaagde hij. Deze opmerkingen, die eerst mondeling waren gegeven, zijn daarna in gedrukte versie in het journaal van de maatschappij verschenen in 1963 en een generatie later wijder verspreid via de online versie ervan.

Elisabeth Eisenstein las de gedrukte versie in 1963. Dat zette haar aan het denken en dat denkwerk culmineerde, na een intense studie, 15 jaar later in 1979 een klassiek werk met de titel 'The Printing Press as an Agent of Change'. Daarvoor had niemand een degelijke studie gemaakt van de impact die de drukpers in de middeleeuwen in Europa heeft gehad op de maatschappij. De uitvinding van Gutenberg zorgde niet alleen voor een verplaatsing van het geschreven woord naar het gedrukte woord, maar ook de transformatie naar "data collectie-, opslag- en afhaalsystemen en communicatienetwerken". Zonder dit instrument zou er geen Renaissance, Reformatie of geboorte van de wetenschap geweest zijn. Het was een irreversibel punt in de geschiedenis en boetseerde de moderne geest.

Ze was ook geïnteresseerd in het effect ervan op de geest van haar collega historici. Vóór de drukpers waren geleerden vaak onbewust van de effecten van het medium dat hen omhulde. Preciese datering was hen onbekend en bedenkelijke chronologie leverde ondoorzichtige tijdlijnen op (van Adam tot Noah of vanaf Romulus en Remus tot ...). De vaardigheid om het verleden voor je te zien uitgespreid en een anachronisme te herkennen kwam pas na de boekdrukkunst.

Vóór de boekdrukkunst was het geschrift niet echt standvastig. Het vermogen om te dupliceren zonder fouten en het stabiel maken van het geschrift zorgde voor het verspreiden van de wetenschap (gedrukte tabellen allerhande waren daarvoor nodig). Niet zozeer de gedrukte versie van Martin Luthers thesis zorgde voor de Reformatie en het Protestantisme, maar het feit dat iedereen zich een gedrukte bijbel kon aanschaffen en er in kon lezen en ervan leren was de druppel. De permanentie van het geschreven woord was een feit geworden, niet door het papier, maar door de vele kopieën ervan die de drukkers verspreidden.

Eisenstein was het dus niet eens met haar collega's die in de nieuwe technologieën het falen van het geheugen zagen en dus van de ondergang de geschiedenis. Zij begreep dat de geschiedenis veel toegankelijker zou worden. Ze verklaarde: "In een tijd dat de ontcijfering van Lineair B en de ontdekking van de Dode Zeerollen heeft gezien is er schijnbaar weinig redenen om bezorgd te zijn over het 'verlies van het geheugen van de mensheid'. Er zijn goede redenen om bezorgd te zijn over de overbelasting van haar circuits."

Hoewel de term 'overbelasting van circuits' nieuw was, was het gevoel ervan niet nieuw. Fervente lezers kennen het gevoel, door steeds te hunkeren naar nieuwe boeken (zelden een boek twee keer gelezen), meer boeken dat tijd te hebben. Robert Burton, een geleerde uit Oxford in 1621, bezat een persoonlijke bibliotheek van 1700 boeken en verwoorde toen ook dit gevoel. Hij dacht dat informatie-overvloed toen nieuw was, hoewel hij niet klaagde, maar verwonderd was. Leibniz echter vreesde een retour naar de barbarij door de groeiende, ongeordende stapel boekwerken. Anderen noemden de drukpers een gesel voor de zonden van de geleerden. 'Overstroming' was een veel gebruikt woord voor het teveel aan informatie. Maar ook het gevoel gebombardeerd te worden met nieuwe feiten, was algemeen bekend. De waarheid scheen moeilijker te vinden in de zee van waarschijnlijke fictie.

Het gevoel is gekend onder vele namen: informatie-overbelasting, -overvloed, -angst, -vermoeidheid. Soms kan die angst samengaan met verveling. Iemand gaf de naam 'Total Noise' aan dit fenomeen. De persoonlijke verantwoordelijkheid 'geïnformeerd' te blijven leidt tot een verlies aan autonomie; om bij te blijven moet je beroep doen op anderen.

Een andere manier van kijken naar de angst is de kloof tussen informatie en kennis. Een barrage van data faalt dikwijls ons te vertellen wat we willen weten. Daarbij komt dat kennis geen garantie is voor wijsheid. Een oud gezegde dat nog meer relevant is geworden in een wereld waarin alle bits gelijk zijn en informatie gescheiden is van betekenis.

Lewis Mumford, humanist en filosoof, stelde het zo in 1970: "Ongelukkig genoeg is 'het ophalen van informatie', hoe snel ook, geen vervanger voor het ontdekken, door directe persoonlijke inspectie, van kennis die men anders misschien nooit had ontdekt, en het te volgen op zijn eigen tempo via het verder doorzoeken van relevante litteratuur." Hij smeekte voor een terugkeer naar een 'morele zelf-discipline'. Hoewel deze verklaring een vleugje nostalgie bevat is het een waarheid dat in de zoektocht naar kennis 'trager' beter kan zijn. Geduld is een deugd; overmaat is een zonde.

In 1970 was er echter nog geen sprake van databases, eerder van microfilms. Mumford klaagde over de overmaat aan boeken en waarschuwde dat – ... omdat er geen beperkingen voor de aantallen titels bestaan ... – de overmaat kan zorgen voor een vorm van intellectuele zenuwtoestand. Boeken over informatie-overdaad vervoegden ondertussen de rest van het boekenarsenaal ...

Elektronische communicatietechnologieën zagen het daglicht met ongelofelijke snelheid en zonder waarschuwing. Volgens de OED verscheen het woord 'e-mail' in 1982. Een paar jaar later waarschuwde de Zweedse computerwetenschapper Jacob Palme dat: "Het elektronische mail systeem, indien door veel personen gebruikt, kan leiden tot grote problemen van informatie-overbelasting. De oorzaak is dat het heel eenvoudig is om een bericht te versturen aan vele personen tegelijkertijd. Het geeft de zender te veel controle over het communicatieproces en de ontvanger te weinig. Mensen kunnen teveel berichten krijgen, waardoor ze tijd tekort komen om ze allemaal te lezen. Belangrijke berichten dreigen daardoor verloren te gaan in de vloed van onbelangrijke berichten. Dit probleem zal zich in de toekomst stellen voor alle gebruikers van dergelijke systemen."

Wanneer psychologen en sociologen de effecten van informatie-overbelasting bestudeerden met hun methoden kregen ze gemengde resultaten. Reeds vanaf 1963 probeerden een paar psychologen het effect van teveel informatie te kwantificeren. Ze vonden dat 'teveel informatie' – een moeilijk te definiëren begrip – veelal het beoordelingsvermogen verstoorde. Anderen probeerden de klinische effecten ervan op bloeddruk, hartritme en zo meer te meten.

Siegfried Steufert rapporteerde in een serie pamfletten in de jaren 1960 dat de relatie tussen informatie-belasting en informatie-verwerking op een omgekeerde U lijkt. Meer informatie was eerst behulpzaam, maar daarna eigenlijk schadelijk. Voor zijn studie nam hij 185 mannelijke universiteitstudenten en vertelde hij hen dat ze, net zoals commandanten in een tactisch spel, beslissingen moesten nemen op basis van informatie aangereikt door hun adjuncten. Hij loog toen hij hen vertelde dat ze zelf de hoeveelheid informatie konden regelen. Hij concludeerde dat een 'superoptimale' informatielast zwakke prestaties opleverde. Maar hij zei er ook bij dat zelfs bij zeer hoge informatiebelastingen de proefpersonen toch nog meer informatie vroegen.

Rond de jaren 1980 spraken onderzoekers met vertrouwen over the 'informatiebelastingsparadigma'. Dit was gebaseerd op een onbetwiste waarheid: mensen kunnen slechts een beperkte hoeveelheid informatie absorberen of verwerken. Vele onderzoekers merkten dat een oververzadiging niet alleen verwarring en frustratie produceerde, maar ook troebel zicht en oneerlijkheid. De experimenten omvatten vele zaken zoals meting van het geheugenverlies, meting van kanaalcapaciteit (à la Shannon) en variaties op het thema van signaal-ruis-verhouding. Minder wetenschappelijk verantwoorde bevragingen van studenten informatiewetenschappen aan de universiteit van Illinois bracht aan het licht dat ze allen lijdden aan informatie-overbelasting. Sommigen rapporteerden hoofdpijnen. De twijfelende conclusie van de studie was: overbelasting is reëel, maar is tevens een 'codewoord' en een mythe.

Over informatie spreken als een last is verwarrend, zei Charles Bennett. "We betalen om onze krant geleverd te krijgen, niet om hem weg te nemen." De thermodynamica van de berekeningen toont aan dat de informatie van gisteren plaats inneemt die Maxwells demon nodig heeft voor het werk van vandaag. Vergeten werd vroeger beschouwd als falen, een teken van seniliteit. Tegenwoordig vergt 'vergeten' arbeid en is wellicht even belangrijk als herinneren.

Feiten waren ooit duur, nu zijn ze goedkoop. George Bernard Shaw bekloeg zich erover dat, toen hij in Whitaker's Almanack het adres van het dichtsbijzijnde crematorium zocht (zijn vrouw lag op sterven), hij nergens een lijst vond van crematoria. Hij vroeg dan ook dat de almanac zo'n lijst zou toevoegen. Hij had nochtans de beschikking over een telegraafadres en een telefoon, maar het kwam niet bij hem op om daar gebruik van te maken. Feiten moesten op papier worden gezocht, zo dacht men toen.

Velen, die een telefoon bezaten in de V.S.A., zagen het algauw als een instrument voor de verlenging van hun nieuwsgierigheid. Het werd algauw zo erg dat The New York Times in 1929 zich verplicht voelde om op de eerste pagina een bede te drukken vragende dat men niet meer zou bellen naar de krant om de uitslagen van de sportwedstrijden te kennen. Tegenwoordig wordt deze informatie in 'real time' beschouwd als een geboorterecht.

Wat doe je dan, wanneer je uiteindelijk alles hebt? Daniël Dennett droomde in 1990 dat een elektronisch netwerk de economie van het publiceren van poëzie overhoop zou gooien. Dichters zouden hun werk rechtstreeks en voor zeer weinig geld aan een publiek van miljoenen mensen kunnen verdelen. Een Engelse uitgever produceerde 4 jaar na een gelijkaardige ingeving van hemzelf de English Poetry Full-Text Database: 165.000 gedichten van 1250 dichters over 13 eeuwen. Het werk was natuurlijk niet bedoeld om te lezen zoals een boek. Je kon er wel in bladeren naar onbekende stukjes gedichten. Een schrijver voor The New Yorker die de database had bestudeerd riep uit: "Nooit heb ik zo'n prachtig toonbeeld van de kracht van de menselijke incompetentie aanschouwd – en terzelfdertijd van de zegen van de menselijke vergetelheid."

De CD-ROMs van deze database zijn al achterhaald; alles staat nu op het internet. Het verleden ontvouwt zich in het heden, zij het dat de verschillende media verschillende tijdshorizonten hebben. Het geschreven woord is drie millenia oud, een opgenomen geluidsfragment pas anderhalve eeuw. Oude, vergeelde kranten worden opnieuw leesbaar gemaakt. De redacteurs kunnen dus constant hun eigen verleden informatie hergebruiken onder de tilels "100 jaar geleden ..." of "50 jaar geleden ...". Alles wat ooit is geschreven, gecomponeerd, gefotografeerd, enzovoort ligt nu te wachten aan onze vingertoppen. Een vraag voor een muziekstuk wordt aan lichtsnelheid beantwoord. Het nadeel ervan is dat de vrager zich daarna afvraagt wat er nog allemaal beschikbaar is en er een verslavende cyclus begint van verlangen en malaise.

Strategieën voor het stelpen van de informatie-overbelasting begonnen te voorschijn te komen. Ze berusten allemaal op twee acties: filteren en zoeken. De overbelaste consument zal zijn heil zoeken in filters om het kaf van het koren te scheiden. Toen Dennett zijn 'complete poëzienetwerk' bedacht zag hij onmiddellijk het probleem: "Geen enkel liefhebber van poëzie zou willen waden in de duizenden bestanden van dat netwerk, ploeterend door de bagger op zoek naar goede gedichten." Filters waren nodig: editors en critici. Deze laatsten bloeien door de vraag en door de begrensde capaciteit van de geest. Wanneer informatie goedkoop is wordt aandacht duur.

Voor diezelfde reden bestaan er zoekrobots in cyberspace: om naalden in een hooiberg te vinden. Een bestand kan bestaan, maar als niemand van haar bestaan afweet, dan is ze voor eeuwig verloren op het internet. Zelfs August De Morgan, Babbages vriend, wist als in 1847 dat voor een onbenoemd boek een bibliotheek gelijk staat aan een warenhuis voor papierafval. Opdat een boek in een bibliotheek zou gewild zijn moet het bekend zijn.

Een niet-geïndexeerde website op het internet is hetzelfde als een misplaatst boek in een bibliotheek. Dat is de reden waarom de succesvolle en machtige informatiebedrijven gebouwd zijn op filteren en zoeken. Wikipedia gebruikt ook deze twee elementen: een krachtige zoekmachine, voornamelijk via Google, en een grote collaboratieve filter die de ware feiten van de valse proberen te scheiden. Zoeken en filteren is alles wat er tussen ons en de 'Bibliotheek van Babel' staat.

Je zou denken dat deze strategieën eigen zijn aan de tijd van het internet, maar niets is minder waar. Feitelijk bestond reeds zeer vroeg in de geschiedenis de nood aan het catalogeren en indexeren van het geschreven woord. De Dominicaanse monnik Vincent de Beauvais trachtte reeds in de middeleeuwen zijn eigen versie te schrijven van alle toen bestaande kennis in zijn werk Speculum Maius (De grote spiegel), dat bestond uit 80 boeken en 9885 hoofdstukken. Zijn rechtvaardiging was dat "... de grote hoeveelheid boeken, de weinige tijd en het falende geheugen niet toelaten dat alles wat geschreven is op gelijke wijze te onthouden." Toen Robert Burton zijn fameuze "Nieuw nieuws elke dag" de wereld instuurde, was dit ter rechtvaardiging van zijn 'meesterwerk' The Anatomy of Melancholy, een bedenkelijke compendium van alle voorgaande kennis. De historicus Ann Blair verwoordde het simpeler: "De perceptie van een overaanbod van boeken was de brandstof voor de productie van nog meer boeken." En met hun eigen arbeid hebben de botanici door een overaanbod van werken ook in de 16de eeuw de nood gevoeld om nieuwe werkroutines en standaardisatie van beschrijvingen te genereren. De natuurhistorie, die eruit voortvloeide, was geboren om informatie te kanaliseren.

Wanneer nieuwe informatietechnologieën het bestaande landschap veranderen, dan brengen ze ontwrichting. De balans tussen informatieproducenten en informatieconsumenten is overhoop gegooid. De markt lijkt verward: informatie kan tegelijk spotgoedkoop en te duur zijn. De oude manieren om kennis te organiseren werken niet langer. Wie zal zoeken en wie zal filteren? Wie heeft er iets te zeggen en wie luistert? Vraag het aan bloggers en tweeters: wat is erger, te veel monden of te weinig oren?


Terug naar de inhoudsopgave


Epiloog

De uitputting, de oververzadiging, de druk van de informatie is van alle tijden. In 1962 schreef ene Marshall McLuhan dat "... we vandaag zover gevorderd zijn in de elektrische era als de Elisabethanen in de typografische en mechanische era. En we ondervinden dezelfde verwarring en besluiteloosheid die zij hebben ondervonden door simultaan te leven in twee contrasterende samenlevingsvormen en ervaringen."

Er zijn echter verschillen met vroeger. We zijn nu al een halve eeuw verder en kunnen de grootte van de schaal inschatten en hoe groot de effecten van de verbondenheid zijn. McLuhan dacht dat dit zou leiden tot "... een centraal zenuwstelsel dat de aarde zou omvatten ..." en "... de finale fase van het bestaan van de mens in zicht is: de technologische simulatie van bewustzijn, wanneer het creatieve proces van 'kennen' zich collectief over de hele mensheid zou uitstrekken."

Een 19e eeuwse romantische voorstelling van een 'wereldomvattend collectief bewustzijn' door de miljoenen mensen die met elkaar verbonden zijn lijkt met het huidige netwerk nog meer waarschijnlijk. Sommige zagen in dit nieuwe 'wezen' een natuurlijk product van de evolutie, een manier voor de mensheid om haar speciale bestemming te bereiken. De Franse filosofen Edouard Le Roy en Pierre Teilhard de Chardin vonden reeds in 1928 dat het absoluut noodzakelijk was dat de mens zich boven het lager niveau van de natuur moest verheffen om het te domineren. Zij stelden voor om de 'noosfeer' te creëren, de sfeer van de geest, die zij de nieuwe huid van de wereld noemden. Sommigen vonden dat nonsens, anderen gebruikten dit idee voor hun science-fictionromans. De pioniers van het internet vonden het idee een halve eeuw later ook aardig.

In 1937 werd in Parijs een 'Wereld Congres voor Universele Documentatie' gehouden van bibliothecarissen die een systeem bediscussieerden om alle boeken wereldwijd te indexeren. Het doel ervan was gelijklopend met wat H. G. Wells in 1938 in zijn boek World Brain promootte: een manier om de kennis van de hele wereld voor iedereen toegankelijk te maken. Wells vond dat we "... geen ditactors, geen oligarchen of klassedominantie meer nodig hadden, maar een wereldwijd verspreide intelligent bewustzijn." Hij was lid van dit congres voor Engeland en voorzag "... een soort brein van de mensheid, een cortex die het geheugen inhoud en een perceptie van de huidige realiteit voor de hele mensheid." Hij wilde een universele encyclopedie die echter niet statisch was maar in constante verandering onder de leiding van wijze mensen. Zou Wells Wikipedia hierin herkend hebben? Alleen zou zijn 'wereldbrein' een autoriteit zijn, maar gedecentraliseerd, zodat het overal kon worden gereproduceerd. "Het zou kunnen de vorm van een netwerk hebben", zei hij. Wanneer hij de term 'netwerk' bezigde was dat nog altijd in zijn tijdgeest een fysiek netwerk gemaakt van kabels en draden. Tegenwoordig is een netwerk een abstract object, en haar domein is informatie.

Met de geboorte van de informatietheorie – zoals Shannon die heeft geformuleerd – werd informatie bewust van haar betekenis ontdaan. Dat was nu eenmaal gemakkelijker om mee te werken. Velen waren daar echter tegen gekant en vonden trouwens dat de theorie enkel over "biep bieps" ging. Enkel wanneer 'begrip' begint, in het menselijke brein, wordt informatie geboren, was hun argument.

Epistemologen houden zich bezig met kennis, niet met signalen. Zoals Fred Dretske zei: "Schoonheid is in het oog van de toeschouwer, en informatie in het hoofd van de ontvanger." Maar hij voegde er wel aan toe dat het onderscheid maken tussen informatie en betekenis de filosoof bevrijdt. De ingenieurs hebben een opportuniteit en een uitdaging voorgebracht: te verstaan hoe betekenis kan evolueren. Hoe het leven, door informatie te verwerken en te coderen, de stappen zet naar interpretatie, geloof en kennis. Toch kan niemand tevreden zijn met een theorie die evenveel waarde hecht aan valse of aan ware uitspraken. Jean-Pierre Dupuy, een filosoof uit Parijs, schreef: "Hoe meer we 'communiceren' zoals we doen, hoe meer we een helse wereld creëren."

Is die pessimistische uitspraak waar? Leven we in een wereld met informatie-overdaad, met valse teksten, anonieme kwezelarij, ononderbroken gepraat? Ooit werd gedacht dat er zoiets als een perfecte taal zou bestaan. De novelist Dexter Palmer schreef: "... dat de woorden die in het woordenboek van God staan een een-tot-een overeenkomst hebben met hun definities zodat, wanneer God directieven geeft aan zijn engelen, zij volledig vrij zijn van dubbelzinnigheid." Helaas is dit niet waar in onze wereld. Leibniz dacht dat, indien de natuurlijke taal niet perfect kon zijn, ten minste de wiskunde, een taal met rigoureus toegekende symbolen, dat wel kon zijn. Opnieuw helaas heeft Gödel ook deze droom beëindigt.

Perfectie schijnt tegennatuurlijk te zijn. Informatietheorie heeft ons gedwongen dit te erkennen. Palmer zei: "We zijn gedwongen in te zien dat woorden niet de ideeën zijn waarvoor ze staan, maar slechts reeksen inktpatronen. ... taal is niet iets met definitieve zekerheid, maar met oneindig veel mogelijkheden." Oneindig veel mogelijkheden is goed, niet slecht. De betekenisloze wanorde van woorden is iets dat moet worden gezien als een uitdaging en zou geen angst moeten inboezemen. Talen moeten de moeilijke taak uitvoeren om een oneindige wereld aan objecten en sensaties te projecteren op een eindige ruimte. De wereld is in constante verandering, altijd het statische met het efemere mengend en de taal moet mee evolueren. De taal van ieder individu is trouwens verschillend. We kunnen daardoor overweldigd worden of aangemoedigd.

Meer en meer worden de lexicons opgeslorpt door het netwerk. Ze worden gepreserveerd, zelfs terwijl ze worden aangepast, maar steeds toegankelijk en doorzoekbaar. Alles wordt in de 'cloud' bewaard, het ware en het valse naast elkaar. Twitter werd als geen ander communicatiekanaal overstelp met spot. Hoe kun je nu communiceren als je maar 140 tekens mag gebruiken? Maar tegelijk was het via Twitter dat ooggetuigen noodinformatie konden doorspelen over de terreuraanslag in Mumbai in 2008 of van het protest in Teheran in 2009. Waren aforismen niet beschouwd als vorm van eerbare geschiedschrijving? De Library of Congress heeft beslist om ook alle 'Twitterberichten' te preserveren voor het nageslacht; het is immers een vorm van intermenselijk communicatie.

Netwerken hebben trouwens enkele zaken naar boven gebracht die individuen over het hoofd hadden gezien. Een voorbeeld daarvan is dat enkele honderden muziekopnames van een Engelse pianist naderhand plagiaat bleken te zijn van andere pianisten. Je kunt je afvragen of dit wel een voorbeeld is van de befaamde 'wisdom of the crowds' (de titel van een boek van James Surowiecki uit 2004)? Misschien, maar het omgekeerde bestaat ook: 'the madness of the crowds' zoals Charles Mackay in 1841 in een chroniek aanhaalde. Hij doelde daarbij op het feit dat "... mensen gek worden in menigten, met alle gekende gevolgen als manieën, kruistochten, massahysterie, lynchpartijen ...". Collectief zelfbedrog en collectief kwaad hebben reeds lang geleden ravages aangericht.

Maar kennis in een netwerk is verschillend van beslissingen in groepsverband, waarbij kopieergedrag en na-apen veelal de doorslag geven. De kennis in een netwerk schijnt te ontstaan door accretie en kan meer gewicht geven aan uitzonderingen en eigenaardigheden. De uitdaging bestaat erin deze te herkennen en er toegang toe te krijgen. Een voorbeeld hiervan is wat Google presteerde in 2008, door een waarschuwingssysteem te bouwen voor griepepidemieën, gebaseerd op het aantal keren dat iemand in een bepaalde regio zocht naar het woord 'griep'. Het slaagde er zo in om een week voor de gespecialiseerde Centers for Disease Control and Prevention uitbraken van griep te detecteren. Het klassiek harde probleem werd dus opgelost niet via artificiële intelligentie, maar door data mining van miljarden zoekopdrachten in 300 talen. Het ging uit van de collectieve kennis.

Dit staat een schril contrast met de staat waarin de zoekrobots zich bevonden in 1994. Toen iemand vanaf een console in de universiteit van Californië een vraag stelde i.v.m. 'censuur' kwam als antwoord dat "... de antwoorden op deze algemene vraag meer dan 800 hoofdingen bedroegen ..." en dat "... dit geen nuttige resultaten zou opleveren en veel te lang zou duren ... ". Twee jaar later was het volume aan internetverkeer reeds jaarlijks met een factor 10 gegroeid en ingenieurs van de Digital Equipment Corporation hadden een soort zoekrobot gecreëerd, AltaVista genaamd, dat toen de 10 miljoen pagina's van het internet had geïndexeerd. Natuurlijk zaten er in de antwoorden van de zoekmachine veel trivia, maar de ontwerpers wilden absoluut geen 'vaste' bibliotheekcatalogus maken, maar een woordzoekmachine voor een netwerk zonder grenzen.

Dan kwam Google in 1998. De ontwerpers ervan (Brin en Page) zagen in – net als anderen – dat het internet een soort grafiek was met knooppunten (nodes) en verbindingen (links). Elke link vertegenwoordigde volgens hen een uitdrukking van waarde; hoe meer inkomende links, hoe groter de waarde. Ze vonden een recursieve manier om alles te waarderen: de rangorde van een pagina hangt af van haar inkomende links en de waarde van de link hangt af van de rangorde van de pagina die de link bevat.

Terzelfdertijd deed de opmars van het internet nieuwe theorieën onststaan in vele vakgebieden. Vermeldenswaardig is een publicatie van de hand van Duncan Watts en Steven Strogatz in 1998, waarin de 'small-world'-theorie werd uitgelegd, die stelde dat twee vreemden via een gemeenschappelijke vriend elkaar toch kenden. Dit werd later beter gekend als de 'zes graden van vrijdom', dat stelde dat iedereen op deze planeet slechts zes tussenpersonen verwijderd is van elkaar. Het idee is echter contra-intuïtief, omdat vele netwerken clusters vertonen (neuronen in de hersenen bijvoorbeeld, epidemies van besmettelijke ziekten, ...). Clusters beletten propagatie. Sommige nodes hebben echter links naar ver verwijderde objecten en andere nodes hebben een groot aantal verbindingen. Watts en Strogatz ontdekten in hun wiskundige modellen dat er zeer weinig van deze speciale nodes nodig zijn, zelfs in een zeer geclusterd netwerk, om de gemiddelde 'vervreemding' te reduceren tot praktisch niets en zo de 'small world' te maken.

Het feit echter dat je in cyberspace slechts een paar nodes van elkaar verwijderd bent neemt niet weg dat je daarom nog niet weet welke nodes je precies moet 'aanspreken' om je doel te vinden. En er is niet altijd een algoritme om dat te vergemakkelijken. Het netwerk heeft een structuur waarin paradoxaal alles dicht bij elkaar ligt en toch ver verwijderd is; het kan zowel overbevolkt als eenzaam aanvoelen.

Er wacht geen deus ex machina in de coulissen, geen demon van Maxwell om ons te helpen filteren en zoeken. Het is de keuze die ons informeert; het resultaat selecteren vergt werk en vergeten vergt nog meer werk. Het is de vloek van de allesomvattende wetenschap dat ieder antwoord aan je vingertoppen ligt – via Google of Wikipedia of een andere informatiebron – en toch vragen we ons nog af wat we precies weten.

We zijn allen de behoeders van de 'Bibliotheek van Babel' en we zijn de bibliothecarissen ervan. Net zoals Borges beschreef zijn we enerzijds dolgelukkig dat we alles wat maar gekend kan zijn hebben verzameld, maar anderzijds wanhopig omdat we het juiste 'boek' niet kunnen terugvinden. De bibliotheek zal voortbestaan, het is het universum. Voor ons geldt dat niet alles is geschreven. We kunnen door de boekenrekken wandelen, boeken verplaatsen al zoekend naar 'betekenis' en tussen de nutteloze informatie soms onze eigen gedachten en die van anderen verzamelen. En af en toe herkennen we glimpen van schepsels van informatie.


Terug naar de inhoudsopgave