PEHR SÄLLSTRÖM

Att hantera risk, slump och komplexitet

Ursprungligen publicerad i DIALOGER 42 (1997)

Version date 2020-05-15

Det kanske allra mest utmärkande för nittonhundratalets fysik och teknologi är att man lärt sig kalkylera med slumpen, med det obestämda och oförutsägbara. Det har varit förutsättning för utforskandet av mikrokosmos, men också för den långt drivna miniatyriseringen av elektroniska komponenter. Sammanhängande därmed är förmågan att handskas med komplexitet − med det i hög grad sammansatta.

 

I traditionell teknologi var principen för maximal tillförlitlighet att man tillverkade maskinerna med stor precision, tog till rejäla mar ginaler för att garantera hållfasthet och slitstyrka. Apparaterna var stora, tunga, gedigna − och inte sällan rena mästerverk av hantverkskunnande. I samma mån var de dock även skrymmande och mycket kostsamma. På så sätt kunde sannolikheten för felfunktion, liksom för olyckshändelser, hållas på försumbar nivå, i de fall där det var viktigt att göra det. (Exempelvis när det gäller ett kärnkraftverk, ett tåg eller ett flygplan.)

Kvantfysiken förde emellertid med sig insikten om att det finns en ofrånkomlig obestämbarhet i de processer på submikroskopisk nivå som i samverkan bygger upp den makroskopiska värld vi kan hantera och som vi erfar med sinnena. Även om det vanligtvis inte märks, så återspeglas denna grundläggande obestämdhet även i sinnevärlden: hållfasthet är inte något absolut − det finns alltid en viss sannolikhet att det skall uppstå en spricka i ett metallrör, exempelvis. Med andra ord: det finns inget sätt att genom tillverkningen eller valet av material garantera att det inte skulle kunna ske. Riskbedömningar handlar alltid om sannolikhetsöverväganden. Dessutom kan även makroskopiska system, om de tillförts tillräckligt mycket energi, uppföra sig på ett oberäkneligt sätt − ett s.k. kaotiskt beteende.

I praktiska livet förhåller vi oss ganska irrationellt till problemet risk. Uppståndelsen kring Estoniakatastrofen − eller kring kraftverkshaveriet i Tjernobyl − visar att vi inte gärna vill se den ovannämnda sanningen i ögonen. Vi spelar på lotteri och hoppas vinna en miljonvinst och i nästa stund sätter vi oss i en bil och kör miltals i hög fart på vägarna och tar obekymrat för givet att vi inte skall råka ut för en olycka, fastän sannolikheten för att det skall inträffa är avsevärt mycket större än för att vinna på lotteri!

Vi finner nöje i spel. Det spännande med att spela (vare sig det nu gäller att spela på aktiemarknaden eller att spela ett sällskapsspel, som t.ex. schack) är dock det mått av oförutsägbarhet som inslaget av slump − eller ovissheten om vad motståndaren skall göra för drag − innebär. Om man redan från början kunde räkna ut vem som skulle vinna är det inte roligt längre. Samtidigt är det inte likgiltigt vad man gör för drag. Det finns utrymme för list och omdöme. Spelet har ju sin spelplan och sina regler, som leder till ett visst mönster i hur det utvecklar sig.

Skulle det kunna gå att matematiskt behandla även sådana system, där det finns ett kraftfullt inslag av slumpmässighet, eller i varje fall oförutsägbarhet? John von Neumann var en av de matematiker som djärvt tog itu med den frågan, och på ett mycket skarpsinnigt sätt analyserade den. Redan vid unga år (1926) framlade han en "spelteori" som hade hög grad av generalitet. Den har sedermera vidareutvecklats och ytterligare generaliserats av andra. Faktum är att man kan utveckla exakta teorier om inexakthet. Man kan göra vissa förutsägelser om det oförutsägbara. Nämligen om man flyttar den matematiska behandlingen av problemen till en nivå, där det handlar om sannolikheter och statistiska fördelningar. De fysikaliska system som traditionellt gick att snyggt behandla matematiskt och som beskrevs av ekvationer som gick att lösa för hand, var i stor utsträckning förenklade och snarast idealiseringar i förhållande till den praktiska verkligheten. Men om nu matematiken inte bara skall ge oss en elegant idealbild av verkligheten utan dessutom vara praktiskt användbar för att utveckla en alltmer sofistikerad teknologi, då blir de system av ekvationer man ställer upp dessvärre strax praktiskt taget olösbara med traditionella, analytiska metoder. Så är exempelvis fallet, om vi vill beskriva förloppen i atmosfäriska system, för att kunna göra väderleksförutsägelser.

John von Neumann insåg att datorerna − maskiner som snabbt och outtröttligt kunde utföra beräkningar − var det erforderliga hjälpmedlet. Därför intresserade han sig för utvecklandet av dessa. Han omnämns i datorernas historia som en av pionjärerna. Bland annat ledde han datorprojektet vid Institute for Advanced Study i Princeton. Men låt oss komma ihåg att von Neumanns intresse för datorer trots allt inte gällde maskindesign, per se, framhåller William Aspray i en artikel. Nej, han såg datorn som ett forskningsinstrument, jämförbart med cyklotronen eller ett 100 tums teleskop. Han ville påskynda utvecklingen av detta instrument, så att man skulle kunna ta itu med de forskningsuppgifter som han insåg krävde ett sådant. Hans insatser, vad gäller datorer, omspänner mycket mer än ideer om designen av hårdvara och mjukvara; de innefattar numerisk analys, "scientific computation" och teorin för automater. Redan från första början gjorde han jämförelser mellan datorn och den mänskliga hjärnan som informationsbehandlande system, i syftet att av det mänskliga nervsystemet lära sig något som kunde tillämpas på konstruktionen av mer kraftfulla datorer. Hans målsättning var att utveckla en helt generell teori om informationsbehandling, som omfattade både tekniska och biologiska system. Hans första projekt i den riktningen var att konstruera en logisk teori för automater som skulle baseras dels på ett arbete av McCulloch och Pitts (1943) om nevronala nätverk, dels på Alan Turings arbete om beräkningsbarhet. Därnäst föreslog han hur denna logiska teori kunde utvidgas till att bli en probabilistisk teori om automater, baserad på Shannons och Wieners arbeten inom kommunikationsteori och cybernetik. Syftet med denna probabilistiska teori var att utforska komplexiteten hos biologiska och teknologiska informations-behandlande system, och de mekanismer genom vilka sådana system kunde fungera pålitligt med opålitliga komponenter. Det ledde honom även in på frågan om vad som ger sådana system förmågan till självreproduktion.

Det är exempelvis synnerligen praktiskt, om man vill bygga en koloni på planeten Mars, att man skickar dit en maskin som har förmågan att där, på plats, av befintligt material, bygga andra maskiner − inklusive kopior av sig själv. Ett annat tillämpningsområde för denna teori om självreproducerande system är inom kemin. Mikrodatorer "bygger" kemiska molekyler av önskat slag i önskad mängd.

Så långt William Aspray. Åter till frågan om datorerna som forskningsinstrument. I ett anförande 1954 säger von Neumann bland annat att han förutser de snabba datamaskinernas användning framför allt på tre områden: luft, vatten och jord. Alltså, för att beskriva de meteorologiska fenomenen, för att beskriva tidvattenrörelserna hos oceanen samt för att beskriva hydrodynamiken hos den flytande kärnan i jordklotets inre. Låt gå för det, men numeriska beräkningar och kalkyler är väl ändå inte "riktig" matematik, tycker de rena matematikerna. John von Neumann håller inte med om det. Att finna på strategier för att effektivt utföra beräkningar med en dator och kriterier för hur man leder beräkningen fram till en lösning är nämligen en uppgift som öppnar ett helt nytt område för sofistikerad abstrakt teoribildning. Så snart det är frågan om komplicerade ekvationer och ekvationssystem, är den maskinella behandlingen av problemet ingalunda någon trivialitet. Framför allt kan arbetet med denna typ av problem ge ideer och uppslag av mer renodlat matematisk art.

John von Neumann var inte hågad att göra förutsägelser om framtida teknologi. Därtill var han alltför van vid sannolikhetsresonemang. Erfarenheten visar, säger han, att de gissningar vi gör beträffande vilka sociala och politiska konsekvenser som teknologiska förändringar kommer att ge upphov till, vanligtvis är felaktiga. Men Israel Halperin drar sig dock faktiskt till minnes ett tillfälle då han hörde von Neumann i ett anförande förutsäga, att framtida matematiker skall komma att använda datorer i stället för papper och penna, när de utforskar och prövar sina ideer, ifråga om vissa komplexa problem. Man får väl säga att denna förutsägelse besannats, i synnerhet sedan de grafiska presentationsformerna kommit till och man har utformat högnivå program som behändigt kan utföra kombinationer av algebraiska och numeriska beräkningar.

En nackdel med att vänja sig vid att tillgripa automatiska beräkningsprogram är att de kan få oss att acceptera klumpiga matematiska problemformuleringar. Förr var man tvungen att söka sig fram till eleganta matematiska formaliseringar, kännetecknade av optimal enkelhet, för att överhuvudtaget kunna använda sig av dem. Ett slentrianmässigt bruk av datorer är inget ideal. Man måste veta vad man gör, och vart man är på väg. Men, likväl, datoranvändning öppnar en helt ny värld av möjligheter till matematisk behandling av problem med verklighetsanknytning, till exempel inom ekonomin, detta notoriskt svårtacklade erfarenhetsfält.

James Glimm beskriver i en artikel von Neumanns vision av "scientific computing". Naturvetenskapen genomgick en total förvandling under sjutton- och artonhundratalen, i och med integral- och differentialkalkylen. Datorernas inflytande på naturvetenskapen kommer emellertid att bli minst lika revolutionerande. De kommer att möjliggöra att man på bred front kan övergå från kvalitativa till kvantitativa utsagor; från beskrivningar till förutsägelser. Denna vision är inget mindre än den andra halvan av den vetenskapliga revolutionen, konstaterar Glimm. Den första hälften var insikten om att framgångsrika vetenskapliga teorier kan uttryckas i matematiska begrepp och ekvationer. Den andra hälften innebär att dessa ekvationer nu också kan lösas − utan förenklande appoximationer, eller att man håller sig till idealiserade fall − nämligen genom numeriska beräkningar, som supersnabba datorer får utföra åt oss. John von Neumann är grundläggaren av modern "scientific computing". Glimm konstaterar att von Neumanns vision kvarstår som uppnåbar, ehuru svårigheterna visat sig vara avsevärt större än vad han förutsåg.

Ett av de forskningsområden som initierades av John von Neumann är teorin för hur tillförlitliga beräkningar skall kunna utföras av maskiner med otillförlitliga komponenter. Det kan i första ögonblicket låta som en omöjlighet, att en dator som lite då och då, slumpmässigt, inte fungerar som den skall, likväl skulle kunna räkna rätt. Men det handlar om att finna på beräkningsprocedurer som är självkorrigerande. Insikten om denna möjlighet − att det skulle kunna vara acceptabelt med maskiner som inte fungerar perfekt − är typiskt för von Neumanns tänkesätt och har haft en avgörande betydelse för informationsteknikens utveckling. Närmare bestämt för att den möjliggör den miniatyrisering och snabbhet som kännetecknar modern datateknik. Självfallet är det av vikt för militära ändamål att konstruera informations- och ledningssystem som delvis kan slås ut utan att upphöra att fungera. Men även vår vardagselektronik berörs. Ett exempel: när laserpickupen i en CD-spelare läser information på skivan, erhålls cirka 200 fel i sekunden, i förhållande till originalet. Men det spelar ingen roll. Genom en listig konstruktion av koden kan man kraftigt reducera sannolikheten för att detta får destruktivt inflytande på den reproducerade musiken.

Denna gardering mot slumpmässig felfunktion har en viss "kostnad" − informationens behandling blir mer komplicerad − även det något som von Neumann gav sin in på att försöka säga något generellt om. (Ifråga om en vanlig CD för musik visar sig denna "kostnad" bl.a. däri att det bara är en tredjedel av flödet av binära tecknen på skivan som motsvarar det registrerade ljudförloppet.) Dock, som alltid i von Neumanns tänkande, handlar det inte bara om teknologi och maskin-konstruktioner. Förutsättningen för att vi skall kunna förstå hur den mänskliga hjärnan arbetar − eller f.ö. vilket som helst organiskt informationsbehandlande system − är just att vi genomskådar hur de "mjuka" och slumpmässigt varierande komponenterna i sådana system i samverkan kan leda till erforderlig precision och exakthet i funktionen hos systemet som helhet.

*

Vem var John von Neumann?

Johann föddes i Budapest 28 december 1903 som den äldste av tre söner till bankmannen Max von Neumann. Visade tidigt uppenbar fallenhet för matematik och fick privat undervisning, för att inte få sitt intresse förstört genom tradig skolmatematik. Hade redan vid nitton års ålder nått en viss ryktbarhet och publicerat sig i ämnet. Bedrev kemistudier vid universitetet i Budapest och avlade ingenjörsexamen 1925. Doktorsgrad i matematik 1928. Docent i Hamburg 1929-30, därefter Princeton university. Från 1933 professor i matematik vid Institute for Advanced Study. Fick amerikanskt medborgarskap och medarbetade från 1943 i atombombs- och vätebombs-projekten. Från 1944 engagerad i datorutveckling. Efter kriget flitigt anlitad för medverkan i diverse statliga råd och kommittéer samt som vetenskaplig rådgivare åt IBM. Dog den 8 februari 1957.

Det berättas att när Eugene Wigner (teoretisk fysiker, nobelpristagare 1963 och även han av ungerskt ursprung) vid ett tillfälle besökte Budapest och intervjuades i teve fick han bland annat frågan, om det var sant att forskningspolitiken i USA under fyrtiotalet och det tidiga femtiotalet hade styrts av John von Neumann. Wigner svarade, med den noggrannhet som var så karakteristisk för honom: "Nåja, inte precis. Men när von Neumann hade analyserat ett problem stod det klart vad som var att göra."

Typiskt för John sägs också ha varit att han älskade att berätta vitsar - inte så mycket för att underhålla som för att få tillfälle att diskutera vad som var meningen med ett skämt, vad slags budskap man vill framföra, när man ger det formen av en vits.

Det berättas också att han som ung var fascinerad av Goethes Faust, del 2.

 

REFERENSER
James Glimra: Scientific computing; Von Neumann's vision, today's reality, and the promise of the future. Artikel i J.Glimm, J.Impagliazzo and LSinger (editors): The Legacy of John von Neumann. Proceedings of Symposia in Pure Mathematics, Volume 50. American Mathematical Society, Providence, Rhode Island 1990.
William Aspray: The origins of John von Neumann's theory of automata. (Finns i ovannämnda rapport)
Herman H.Goldstine och J.v. Neumann: On the principles of large scale computing machines. (Finns i ovannämnda rapport)
Luc Baert et al. (ed.): Digital and Compact Disc Technology, Sony Service Center (Europe) 1992.

 

(C) Pehr Sällström (1997), denna version 2020-05-15.