UU
HOME cs.uu.nl


CENTER FOR ALGORITHMIC SYSTEMS


Diesrede 2003 | Literatuur | Homepage | Uitgave


Interactief, intelligent en nog veel meer

Het veranderende beeld van de informatica



Rede door Prof.dr Jan van Leeuwen ter gelegenheid van de 367ste Dies Natalis
van de Universiteit Utrecht, 26 maart 2003.


Versie zoals uitgesproken

Waarde toehoorders

Op 19 mei 1990, een jaar voor het World Wide Web werd geboren, ging in het Mitzi E. Newhouse Theater op Broadway een bijzonder toneelstuk in premi\`ere. Het stuk, Six Degrees of Separation, gaat over de gebeurtenissen die plaatsvinden als een onbekende jongeman zich met mooie praatjes binnendringt in het leventje van Louisa en Flanders Kittredge. In de loop van het stuk nemen zowel de sympathie als de argwaan toe: de vreemdeling weet alles over het gezin! Louisa verklaart dit als volgt:

`I read somewhere that everybody on this planet is separated by only six other people. Six degrees of separation. Between us and everybody else on this planet. ... I find that A] tremendously comforting that we're so close and B] like Chinese water torture that we're so close. Because you have to find the right six people to make the connection. It's not just big names. It's anyone.'

Het stuk geeft niet aan waar Louisa dit gelezen heeft, maar het moet een artikel van de socioloog Stanley Milgram geweest zijn. In 1967 vroeg Milgram aan zo'n 100 willekeurig gekozen mensen in Kansas en Nebraska om een document te versturen aan een hen volslagen onbekende persoon in Boston. Hij gaf als instructie mee dat het document alleen maar verstuurd mocht worden via een persoon die men w\'el persoonlijk kende. Elke tussenpersoon werd gevraagd om dezelfde instructie te volgen. Tot zijn verrassing constateerde Milgram dat uiteindelijk een flink aantal documenten op de juiste plaats aankwam, met ketens van 2 tot 10 tussenpersonen en een gemiddelde van maar 6 stappen: `six degrees of separation'! Deze kleine gemiddelde afstanden zijn sindsdien in veel sociale netwerken waargenomen. Milgram noemde het heel toepasselijk de `kleine wereld' eigenschap.

Informatica

Vier jaar geleden werd aangetoond dat ook het World Wide Web de `kleine wereld' eigenschap heeft! Met de zoekmachine AltaVista werden 200 miljoen webpagina's met daartussen 1,5 miljard hyperlinks onderzocht. Daarbij bleek allereerst dat webpagina's heel vaak onderling bereikbaar zijn via een pad van opeenvolgende hyperlinks. Verrassenderwijs bleek ook dat de afstand tussen twee willekeurige pagina's die via een pad verbonden waren, gemiddeld niet meer dan 16 hyperlinks bedroeg. Negeer je de richting van de hyperlinks, dan daalt de gemiddelde afstand zelfs tot ongeveer 6: `six degrees of separation'! Zou het Web misschien dezelfde wetmatigheden volgen als andere sociale netwerken met de `kleine wereld' eigenschap? En wat zouden die wetmatigheden zijn? Misschien herkent u dit probleem niet direct als een informaticaprobleem. Toch is het dat. Het is zelfs een h\'e\'el actueel probleem, omdat we denken dat het antwoord tot veel betere zoekmachines zal leiden.

Vanmiddag wil ik u wat meer vertellen over het tegenwoordige informatica-onderzoek. Veel van dit onderzoek vindt u in het Instituut voor Informatica en Informatiekunde, waaraan ik vrijwel sinds de oprichting ben verbonden. Informatica als `ontdekkende' wetenschap. Om u dat te laten zien, neem ik mee op een kleine excursie door het vakgebied. Eerst noem ik enkele fundamentele kwesties, vervolgens geef ik wat voorbeelden van het onderzoek waartoe die kwesties leiden, en ten slotte kijk ik met u naar de uitdagingen die voor ons liggen. Daarna komen we weer terug bij het Instituut.

Typerende kwesties

Bij informatica denkt iedereen automatisch aan de computers en software die bedrijven op de markt brengen. Ik wil u een ander beeld van de informatica schetsen. Informatica onderzoekt met computers de wereld om ons heen. De gedachte is dat alle systemen, in de natuur of door de mens bedacht, te herleiden zijn tot `het communiceren en verwerken van informatie'. Vanuit deze gedachte worden systemen op elk denkbaar terrein onderzocht en gemodelleerd, om ze vervolgens met ICT-middelen te kunnen representeren en gebruiken. Het is wetenschappelijk \'en maatschappelijk \'e\'en van de prachtigste ontwikkelingen van de afgelopen vijftig jaar. Maar tegen welke fundamentele kwesties loop je aan? Ik noem er vanmiddag vier, die ik typerend vind.

Kwestie \'e\'en is de beperkte eindigheid. Iedereen die met computers werkt loopt hier tegenaan, en niet alleen omdat zelfs een schijf van 1000 Gigabyte uiteindelijk wel een keer vol is. De kwestie is dat je al bij kleine problemen tegen de grenzen van het haalbare kunt aanlopen. Ik geef een eenvoudig voorbeeld. Stel we hebben 100 dozen en twee wagens. We willen de dozen zo verdelen over de twee wagens dat beide precies even zwaar beladen worden. K\'an dat eigenlijk wel? Als alle dozen even zwaar zijn, is de oplossing simpel: 50 dozen op wagen 1, en 50 op wagen 2. Zijn de dozen niet even zwaar, wat dan? Omdat er voor elke doos twee mogelijkheden zijn, wagen 1 of wagen 2, zijn er in beginsel 2^{100} verdelingen denkbaar. Bestaat er een verdeling waardoor de wagens precies even zwaar beladen worden en kan een computer berekenen of er een is? Stel we hebben een computer die maar liefst 1 biljoen instructies per seconde kan uitvoeren (wat gewone computers ver te boven gaat) en stel dat we 100 van die computers tegelijk kunnen laten rekenen. Het stuk voor stuk onderzoeken van alle 2^{100} mogelijkheden kost dan minstens 300 miljoen jaar! Dit is dus onuitvoerbaar. En dit is nog maar een klein probleem als u het vergelijkt met de echte beladingsproblemen in de transportsector. De enige optie is om een slimmere oplossing te bedenken. De fundamentele vraag is hoe je grotere problemen kunt aanpakken en de grens van het redelijk oplosbare zo v\'er mogelijk kunt leggen.

Kwestie twee is modelleerbaarheid. Werken met computers kan niet zonder modellen. Modellen van \'alles. Ik neem het World Wide Web weer als voorbeeld. Om het Web te gebruiken heb je een snelle manier nodig voor het opvragen, classificeren en ordenen van informatie. Een paar jaar geleden werd bedacht dat het belang van een willekeurige webpagina wel eens afgelezen zou kunnen worden aan de structuur van het Web. Het idee is: hoe vaker naar een pagina verwezen wordt, hoe belangrijker die pagina is. Op grond van dit idee zijn modellen gemaakt om voor elke webpagina een rang te kunnen berekenen. Het beste model is door de ontwerpers van de zoekmachine Google gemaakt, waardoor deze zoekmachine nu alle andere verslaat in het ordenen van webpagina's. Google paginarang is zelfs een status voor websites geworden: de Universiteit Utrecht staat in de Nederlandse top-100 zelfs op plaats vijf, hoger dan enige andere universitaire instelling in Nederland. Het voorbeeld laat ook zien dat modellen vaak ontzettend groot zijn: Google werkt met maar liefst ruim 3 miljard webpagina's. De vraag naar goede modellering ontstaat overal zodra je de informatiestromen in een systeem wilt begrijpen. De vraag ontstaat als je een biologisch systeem wilt simuleren, als je processen in een bedrijf wilt modelleren of misschien wel een organisatie als geheel (zoals in ERP-systemen), als je de kennis of besluitvorming van een groep experts wilt modelleren en ga zo maar door. Modellen moeten ook steeds preciezer, mooier, groter, natuurgetrouwer en, bovendien, gemakkelijker te maken zijn, en op elke redelijke computer kunnen werken.

Nog meer kwesties

Kwestie drie die hoog op de agenda staat is bruikbaarheid (`usability'). Bruikbaarheid betekent letterlijk: geschikt voor gebruik, voor een bepaald doel of een bepaalde functie. Het is van cruciaal belang bij informatiesystemen! Bruikbaarheid leidt tot onderzoeksvragen zoals: hoe kunnen we een systeem optimaal afstemmen op de mensen die ermee willen werken en op de organisatie van een bedrijf. Je moet rekening houden met de producten en diensten die een bedrijf wil leveren, met de eisen van de klant, met de leveringsketens waarop moet worden aangesloten en met de verwachtingen van het management. Bruikbaarheid is \'e\'en van de meest ingrijpende maar ook minst begrepen eisen die gesteld worden aan informatiesystemen. E\'en van de problemen wordt goed verwoord in de `onmogelijk-te-leren Wet van Gelernter': een bedrijf moet een systeem pas vervangen als het nieuwe beter is, niet omdat het nieuwe nieuwer is. Menig bedrijf zit in z'n maag met een nieuw systeem dat geen verbetering oplevert, of dat niet goed aansluit op de reeds gebruikte systemen. Invoering van nieuwe systemen vergt meestal ingewikkelde omschakelingen en veel tijd, vooral als delen van de organisatie van een bedrijf ook nog moeten worden aangepast. Je vindt dit terug in de `productiviteitsparadox': ondanks de grote investeringen die het bedrijfsleven in ICT doet, blijft een direct meetbare stijging van de productiviteit vaak lang uit. Hoe moet dit opgelost worden? Het antwoord kan enorme economische waarde hebben.

Kwestie vier is programmeerbaarheid, ofwel: realiseerbaarheid in termen van computerprogramma's. De vereisten voor moderne software zijn zo complex dat deze nog maar nauwelijks te realiseren zijn. Bijvoorbeeld, een geautomatiseerd administratiesysteem voor een bedrijf moet honderden, misschien wel duizenden functies realiseren die waarschijnlijk nooit eerder goed beschreven waren, inclusief functies waarvan mensen nooit beseften dat die er waren of dachten dat die nodig waren. Je loopt hier niet alleen tegen de kwesties aan die we al eerder zagen: omvang, modellering en eisen qua bruikbaarheid. Hoe en in welke vorm is te specificeren wat eigenlijk gemaakt moet worden? Hoe moet je omgaan met die specificaties als ze duizenden pagina's in beslag nemen? Hoe is het gewenste systeem te maken? En: hoe weet je dat je gemaakt hebt wat de bedoeling was? Een afdoend wetenschappelijk antwoord is nog altijd niet gevonden. De kwestie is: kunnen we eigenlijk wel de complexe systemen bouwen die in de toekomst nodig gaan zijn?

De grenzen van het eindige

Geachte toehoorders. We zitten inmiddels `six degrees' diep in de materie en moeten naar de volgend halte op onze excursie. Tot welk onderzoek leiden de vier genoemde kwesties? Ik geef enkele voorbeelden. De eerste kwestie die ik noemde, is de beperkte eindigheid. In de praktijk wil iedereen steeds grotere problemen oplossen en aan ons is de vraag: tot hoever kun je met de beschikbare reken- en geheugencapaciteit van een computer gaan? Als voorbeeld noemde ik de vraag of 100 willekeurig gegeven dozen z\'o over twee wagens zijn te verdelen dat beide precies even zwaar beladen worden. Het aantal mogelijkheden om de dozen te verdelen is al z\'o groot dat geen enkele computer die allemaal in redelijke tijd kan bekijken. Dit moet slimmer, maar hoe? Sinds ongeveer 1960 weten we dat oplosmethoden liefst polynomiaal begrensd zijn. In het voorbeeld betekent dit dat de rekentijd hoogstens evenredig is aan `het aantal dozen en het aantal bits van hun gewichten' tot de derde of de vijfde macht, of zoiets. Met zo'n oplosmethode kan een gewone pc het probleem voor 100 dozen al gauw in een paar seconden oplossen, en voor 100.000 dozen in een halfuurtje. De moeilijkheid is dat tot nu nog niemand een polynomiaal begrensde oplosmethode voor ons probleem gevonden heeft! Zou zo'n methode wel bestaan?

Het dozenprobleem lijkt overigens simpel genoeg. Voor een willekeurige verdeling van de dozen over de twee wagens, is heel snel uit te rekenen of het een goede oplossing is: tel de gewichten van de dozen op beide wagens op en kijk of er hetzelfde uitkomt. Dit is een polynomiaal begrensde `verificatiemethode'. De vraag is nu: heeft ieder beslisprobleem met een polynomiaal begrensde verificatiemethode automatisch ook een polynomiaal begrensde oplosmethode? Dat zou een prachtig resultaat zijn! De vraag is echter al meer dan dertig jaar onbeantwoord, en er is inmiddels 1 miljoen dollar uitgeloofd voor de oplossing ervan!

Om de alsmaar groter en ingewikkelder wordende problemen te kunnen aanpakken is een flink aantal oplosmethoden bedacht, maar de grenzen van het eindige zijn in veel gevallen nog onbegrepen. Sommige onderzoekers zoeken inspiratie bij processen in de biologie of de fysica, om nieuwe rekenmechanismen te ontdekken ('quantum computing'). Anderen recruteren alle grote computers op het Internet om samen te rekenen (`grid computing'). E\'en gebied in de informatica heeft juist baat bij de beperkte eindigheid en dat is de cryptografie. Een goede geheime code moet voor derden niet te kraken zijn. De veiligheid van het betalingsverkeer op Internet bijvoorbeeld, berust op enkele getaltheoretische problemen waarvan vermoed wordt dat ze niet in redelijke rekentijd oplosbaar zijn.

Kwesties van modelleren

Laten we vervolgens kijken naar modelleerbaarheid. Om een probleem met de computer op te lossen, heb je een goed model nodig. Als voorbeeld noemde ik het World Wide Web. Met welk model kun je voorspellen waar belangrijke informatieclusters ontstaan of juist verdwijnen? Een goed model zou ook het volgende verschijnsel moeten kunnen verklaren. Stel we noemen het aantal hyperlinks dat naar een webpagina verwijst even het `gewicht' van die pagina. U kunt zich voorstellen dat er heel veel webpagina's van klein gewicht en relatief weinig van groot gewicht zijn. Het blijkt dat het aantal webpagina's bij toenemend gewicht afneemt volgens een machtswet (`power law'): bij een twee keer zo hoog gewicht neemt het aantal webpagina's met een factor van iets meer dan driekwart af. Dergelijke machtswetten zijn al bijna 100 jaar geleden geobserveerd in grafieken waarin het aantal steden in een land werd uitgezet tegen het aantal inwoners en zelfs in de verdeling van babynamen is het waargenomen. Helaas hebben we nog altijd geen goed model dat de machtswet in het Web verklaart, en dus ook geen goed model van het Web!

Heel veel onderzoek wordt gedaan om modellen te realiseren op computers; de mogelijkheden voor modellering zijn enorm toegenomen. De voorbeelden vari\"eren van besliskundige netwerken voor artsen tot virtuele omgevingen voor ruimtelijke simulaties, van de werking van inwendige organen tot de informatiestromen in organisaties. In het ene geval willen we de kennis van experts begrijpen en vormgeven, in het andere geval de fysische realiteit, althans de menselijke perceptie van die realiteit. In alle gevallen moet een model operationeel zijn en een afspiegeling van een stukje werkelijkheid in meest complete vorm. Wat maakt modelleren anders in de informatica, in vergelijking tot andere gebieden? Het verschil is dat in de informatica modellen bestaan uit programma's. In allereenvoudigste vorm is dit de essentie, waar je het ook toepast. Bestaande modellen blijken dan vaak ontoereikend als je vanuit die optiek werkt. En dit leidt vaak tot prachtige nieuwe ontdekkingen, of het nu om biologische, scheikundige, medische, cognitieve of economische processen gaat.

Nieuwe grondslagen

De derde kwestie die ik noemde was: bruikbaarheid. Ik heb u verteld welke ingewikkelde problematiek achter deze term schuil gaat. Systemen moeten de mens dienen, en dat stelt hoge eisen aan hun functionaliteit en interactieve mogelijkheden. Het is een ingewikkelde zaak om uit te vinden hoe systemen het best bij mensen of organisaties passen. Zelfs psychologie komt hieraan te pas. E\'en manier om de bruikbaarheid van systemen te vergroten is om ze `intelligent' te maken: optimistisch jargon voor informatiesystemen die leren van en zich aanpassen aan de omgeving waarin ze werken. Een mooi voorbeeld zijn computerondersteunde leeromgevingen: deze moeten zich optimaal kunnen aanpassen aan de persoon die leert, met al diens eigenaardigheden. Met een leeromgeving moet een natuurlijke interactie mogelijk zijn, welke zich \'o\'ok aan de gebruiker aanpast. Elke leeromgeving wordt daarmee anders en evolueert, afhankelijk van de persoon die ermee werkt. Interessant is dat het vertrouwde beeld van de computer als rekenmachine hierdoor volledig achterhaald is.

In de grondslagen van de informatica zoals die lang geleden werden geformuleerd, stonden begrippen als eindige berekening en berekenbaarheid centraal. Maar op tegenwoordige systemen zijn die begrippen nauwelijks meer toepasbaar: de systemen werken interactief in een onvoorspelbare omgeving, hun programmatuur leert en verandert in de tijd en ze zijn zoals dat heet, `always on'. Ze zijn mobiel, kennen hun geografische locatie en nog veel meer. Dit vraagt om een nieuwe grondslagentheorie die beter aansluit. We zoeken bijvoorbeeld inspiratie in de evolutiebiologie, met haar kennis van evoluerende systemen. Zie je een systeem als een stelsel van samenwerkende intelligente componenten, dan dringt zich ook een analogie met de speltheorie op. Deze klassieke theorie wordt op dit moment volledig vernieuwd, nu binnen de informatica. Laten we verder gaan met onze laatste kwestie: programmeerbaarheid.

Programmeerbaarheid

De grote, complexe programma's van tegenwoordig zijn nauwelijks nog te maken met de bestaande programmeertechnologie. De programma's bestaan typisch uit duizenden bestanden, gemaakt door teams van tientallen of honderden programmeurs, en vaak weet niemand meer precies wat verandert in het geheel als in een van de bestanden iets wordt gewijzigd. De correctheid van de software die nu op uw pc draait is nog altijd niet te garanderen, precies om die reden. De beveiliging van software tegen inbreuk door derden is ook nog verre van opgelost en faalt niet zelden door onvermoede fouten in standaard software. De vraag aan ons is: met welke abstracties en methoden kun je de systemen ontwikkelen die interactief en intelligent zijn en waarin alle denkbare eisen qua bruikbaarheid zijn vorm te geven. Hoe kun je een maximum aan functionele effecten uitdrukken in een zo compact mogelijk, maar tegelijk zo overzichtelijk en bruikbaar mogelijk kader. En het antwoord moet in een praktische programmeeromgeving vorm krijgen!

Hoe praktisch een programmeeromgeving is, hangt van veel factoren af. Wie bijvoorbeeld in een grafische context levensechte gezichten en expressies van emotie wil vormgeven heeft, zeer waarschijnlijk, niets aan de methoden voor protocollen in telecommunicatie-netwerken. En het werken met multimediale informatie, van audio tot video, vraagt een geheel andere programmeeraanpak dan het ontwerp van een groot financieel beheersysteem. Ook moet aangesloten kunnen worden op de enorme hoeveelheid oude, maar nog altijd werkende software uit het verleden (`legacy software'). En nu hebben we het alleen nog maar over de programmeertechnologie.

Een voorwaarde om een systeem te realiseren is dat alle beoogde functies van het systeem in detail beschreven zijn, op een manier die verificatie toelaat (`formele methoden'). Veel ontwikkeltrajecten gaan er echter vanuit dat zulke beschrijvingen vooraf niet helemaal bekend zijn en pas gaandeweg precies ingevuld worden. Industri\"ele software is echter zo groot en complex dat mensen de bouw ervan nauwelijks meer aankunnen. IBM heeft dit zelfs tot een van de gr\'o\'otste problemen van de IT-sector verklaard. Als mogelijke oplossing wordt gedacht aan systemen van autonome componenten die zichzelf opbouwen en aanpassen aan de eisen die de omgeving aan hen stelt (`autonomic computing'): programma's dus die programma's bouwen en onderhouden.

Visies uit het verleden

Waarde toehoorders. Ik heb u enkele van de vele kwesties laten zien die in de informatica worden bestudeerd. Bij de laatste halte op onze excursie wil ik kijken naar de uitdagingen die voor ons liggen. Maar eerst nog even een blik op het verleden.

Veel onderzoekers hebben in het verleden hun visie op het toekomstig profiel en profijt van de ICT gegeven. Bijvoorbeeld, in een opmerkelijk essay gaf Bush, Vannevar Bush wel te verstaan, al in 1945 een accuraat beeld van de `personal computer'. In hetzelfde essay beschreef hij de grondgedachte van hypertext, hyperlinking en browsing! In 1950 beschreef Alan M. Turing dat software de menselijke intelligentie zou kunnen evenaren. En 50 jaar geleden werd ook al precies beschreven welke grote mogelijkheden computers hadden in het wetenschappelijk rekenen, in de besliskunde, in de weersvoorspelling en in de bedrijfstoepassingen. Ook werd al de grote complexiteit voorzien van het invoeren van systemen in organisaties. Een voorbeeld van recenter datum is het volgende.

Rond 1990 beschreef Mark Weiser van Xerox PARC hoe de leefomgeving van ieder mens veel aangenamer zou kunnen worden gemaakt met behulp van `onzichtbare technologie'. Hij dacht aan het inbouwen van talloze onderling communicerende computertjes in de dagelijkse woon- of werkomgeving (`ubiquitous computing'). Elektronicabedrijven hebben het idee omarmt als een van hun belangrijkste visies op de toekomst. In verschillende grote onderzoeksinstituten zijn proefomgevingen gebouwd om te ontdekken welke omgevingsintelligentie (`ambient intelligence') mensen nuttig en plezierig vinden. Binnen Philips Research is zelfs een compleet huis ingericht, het `Home Lab', om intu\"{i}tieve omgevingen te testen. Ook in het zesde kaderprogramma van de Europese Gemeenschap wordt hoog ingezet op de technologie voor interactieve, intelligente omgevingen.

Ontdekkende wetenschap

Als er \'e\'en visie is die anno 2003 domineert dan is het wel: de doorbraak van de informatica in \'alles om ons heen. Om dit aan te tonen zou ik nu een gloedvol betoog moeten houden over bio-informatica, juridische informatica, ICT in de gezondheidszorg, de digitale overheid, enzovoorts. Prachtige toepassingen, \'en reden waarom het informatica-onderzoek hoger dan ooit op de agenda staat. Welke uitdagingen liggen eigenlijk voor ons? Die vraag wil ik op een aantal manieren beantwoorden.

De huidige visie is dat `grote' wetenschappelijk uitdagingen centraal moeten staan in het onderzoek. De Amerikaanse Computer Research Association heeft vorig jaar al geprobeerd de toonaangevende problemen te bepalen. Boven aan de lijst staan: adaptieve leeromgevingen, cognitieve ondersteuning met computers, het ontwerpen van absoluut betrouwbare en veilige systemen en het bouwen van foutbestendige informatiesystemen uit miljarden autonome delen. Onderzoekers in Engeland hebben daar afgelopen najaar nog eens een schepje bovenop gedaan: zij kwamen met een groot aantal wetenschappelijke uitdagingen waarin stuk voor stuk de informatica als ontdekkende wetenschap naar voren komt. De voorbeelden lopen uiteen van ge\"{i}ntegreerde media tot de modellering van het centrale zenuwstelsel.

In Nederland wordt de wetenschapsvisie op de informatica bepaald door de Nationale Onderzoeksagenda Informatica, de NOAG-i. Deze onderzoeksagenda beschrijft de deelgebieden die voor Nederland het meest belangrijk en kansrijk zijn, zoals software engineering en intelligente systemen. De huidige onderzoeksagenda noemt zeven gebieden, in minstens vier waarvan Utrecht sterk is. De onderzoeksagenda is \'e\'en van de uitgangspunten voor het landelijke onderzoeksbeleid dat de nieuwe ICT-kennis, patenten en innovaties voor de Nederlandse industrie \'en de hoog opgeleide onderzoekers voor onze kenniseconomie moet opleveren. Prioriteiten in het Nederlandse wetenschapsbeleid!

Voor Utrecht liggen er niet alleen wetenschappelijke uitdagingen. De landelijke trend lijkt gericht op de vorming van enkele grote clusters in belangrijke deelgebieden van de informatica. Er is sprake van clusters in de telematica, embedded systems, software engineering, multimedia en fundamentele ICT. Het is hierbij interessant dat de clustering nauwelijks strookt met de huidige indeling van het vakgebied in landelijke onderzoeksscholen en dat de dynamiek van de informatica dus een heel andere is! Hoe dan ook, Utrecht zal positie moeten kiezen in dit veld. Kiezen we niet voor een deelgebied, en waarom zouden we, dan lijkt een sterke Utrecht School of Information Technology die zich juist br\'e\'ed opstelt, het beste alternatief. We zullen onze Utrechtse positie in het onderzoek ook waar moeten maken naast \`en met de zorg voor de ruim 700 actieve studenten die nu al aan ons Instituut studeren. En daarmee keren we terug bij het beginpunt van onze excursie.

Tot slot

Op 1 september aanstaande zal het precies 25 jaar geleden zijn dat de toenmalige `interfacultaire Vakgroep Informatica' een georganiseerd programma van colleges ging aanbieden, toen bestemd voor de vele studenten die een bijvak Informatica wilden volgen. Op 1 september zal het ook precies 20 jaar geleden zijn dat de zelfstandige opleiding Informatica van start ging. Drie jaar geleden is de opleiding Informatiekunde toegevoegd. Beide opleidingen tezamen zijn nu goed voor de ruim 700 studenten die ik noemde, een aantal dat nog steeds stijgt. Informatica is de grootste opleiding in de sector Natuur in Nederland, en Utrecht neemt daarvan een groot deel voor haar rekening. Informatiekunde is landelijk zelfs de grootste opleiding in haar soort.

Aan het begin noemde ik dat het beeld van de informatica nogal eens wordt bepaald door de software die op de markt beschikbaar is en door de `solutions' die IT-bedrijven aanbieden. Linux, Windows, UML, Java, C++, C#, VB.NET, Flash-MX, JavaScript, ASP en PHP, Web Services, SQL, en XML, daar lijkt het allemaal om te draaien. Ik heb u op deze Di\"es een ander beeld willen schetsen: dat van een wetenschapsveld gewijd aan het doorgronden van alle systemen die interactief, intelligent en nog veel meer zijn. Een wetenschapsveld gewijd aan het begrijpen van die ongrijpbare materie waarin alles om ons heen en alle kennis zich aan ons manifesteert: informatie.

Het blijft natuurlijk verstandig om altijd een echte computer-wizard in de buurt te hebben, \'e\'en die nooit verder weg is dan ... six degrees of separation!

Ik heb gezegd.

Korte versie

Literatuur

  1. R. Albert, H. Jeong, en A-L. Barabasi. Diameter of the World-Wide Web, Nature 401 (1999) 130.

  2. A. Arasu et al. Searching the Web, ACM Transactions on Internet Technology 1 (2001) 2-43.

  3. A-L. Barabasi. The physics of the Web, PhysicsWeb, July 2001.

  4. A. Broder et al. Graph structure in the Web, Computer Networks 33 (2000) 309-320.

  5. V. Bush. As we may think, in: The Atlantic Monthly, July 1945.

  6. Clay Mathematics Institute, Millennium prize problems, P vs NP.

  7. R.F. Clippinger, B. Dimsdale, en J.H. Levin. Automatic digital computers in industrial research I, SIAM J. 1 (1953) 1-15, delen II - VI, ibidem.

  8. Computer Research Association. CRA Conference on ``Grand Research Challenges'' in Computer Science and Engineering, Warrenton, Virginia, 2002.

  9. European Commission, DG Information Society. Technologieen van de Informatiemaatschappij - Een thematische prioriteit voor onderzoek en ontwikkeling in het zesde kaderprogramma van de Gemeenschap, Information Society Technologies, werkprogramma 2003-2004, website.

  10. M. Faloutsos, P. Faloutsos en C, Faloutsos. On power-law relationships of the Internet topology, Proc. ACM SIGCOMM'99, pp 251-261, 1999.

  11. D. Gelernter. Tapping into the beam, in; J. Brockman (Ed.), The next fifty years - Science in the first half of the twenty-first century, Vintage Books, New York, NY 2002, pp 230-242.

  12. Google. Our Search: Google Technology.

  13. J. Gray. What next?: A dozen information-technology research goals, J.ACM 50 (2003) 41-57.

  14. J. Guare. Six degrees of separation, 2nd edition, Vintage Books, New York, NY 1994.

  15. IBM. Autonomic computing: IBM's perspective on the state of information technology, IBM Systems Journal Vol 42 (1), 2003.

  16. Informatica Platform Nederland (IPN), Adviescommissie Informatica (ACI). Nationale onderzoeksagenda informatica 2001-2005, NWO Exacte Wetenschappen/Informatica, Den Haag, 2001.

  17. IST Advisory Group (ISTAG). Scenarios for ambient intelligence in 2010, Februari 2001, (pdf) (zie ook: ISTAG reports).

  18. R. Jones. The 10 technologies that will help you stay employed, article.

  19. J.O. Kephart, D.M. Chess. The vision of autonomic computing, IEEE Computer January 2003, pp 41-50.

  20. J. Kleinberg. Authoritative sources in a hyperlinked environment, J.ACM 46 (1999) 604-632.

  21. S. Milgram. The small world problem, Psychology Today 1 (1967) 61-67.

  22. Ministerie van Onderwijs en Wetenschappen. Informatica-stimuleringsplan - Beleidsvoornemens ter bevordering van Informatica en Informatietechnologie in Nederland, '1-Gravenhage, 1984.

  23. M. Mitzenmacher. A brief history of generative models for power law and lognormal distributions, in: Proc. Thirty-Nonth Ann. Allerton Conference on Communication, Control, and Computing, 2001, pp 182-191.

  24. C.H. Papadimitriou. Algorithms, games and the Internet, in: Proc. 33rd Annual ACM Symposium on Theory of Computing (STOC 2001), ACM Press, 2001, pp. 749-753.

  25. Philips. Great expectations, 2002.

  26. D. Saha, A Mukerjee. Pervasive computing: A paradigm for the 21st century, IEEE Computer 36 (2003) 25-31.

  27. W.J. Scheper. Business IT alignment - Oplossing voor de productiviteitsparadox, Deloitte & Touche, 2002.

  28. Software Technology Outreach. Programme themes.

  29. The Globus Project, website.

  30. The Oracle of Bacon at Virginia - The center of the Hollywood universe, website.

  31. Top500 supercomputer sites, website.

  32. A.M. Turing. Computing machinery and intelligence, Mind 59 (1950) 433-460.

  33. UK Computing Research Committee. Grand challenges for computing research, website.

  34. J. van Leeuwen, J. Wiedermann. The Turing machine paradigm in contemporary computing, in: B. Enquist and W. Schmidt (Eds), Mathematics Unlimited - 2001 and Beyond, Springer-Verlag, 2001, pp 1139-1155.

  35. Voelspriet, zoeknieuws, website.

  36. D.J. Watts, S.H. Strogatz. Collective dynamics of `small-world' networks, Nature 393 (1998) 440-442.

  37. M. Weiser. The computer for the twenty-first century, Scientific American 265:3 (1991) 94-104.


Uitgave

Een samenvatting van deze toespraak verscheen in: TINFON 12 (2003) 63-65 (zie ook TINFON 12 (2003) 91).

Verdere links


Last modified: December 2011