Vad är Solomonoff-induktion?

Solomonoff-induktion är en matematiskt rigorös, idealiserad form av induktion, det vill säga att förutsäga vad som kommer att hända i framtiden baserat på tidigare erfarenheter. Det är en del av algoritmisk informationsteori. Detta induktionsschema är teoretiskt optimalt, dvs med tillräckligt med data kommer det alltid att kunna tilldela sannolikheter till framtida händelser med högsta möjliga noggrannhet. Det enda problemet med Solomonoff-induktion är att det inte går att beräkna — det vill säga att det skulle krävas en dator med oändlig processorkraft för att kunna köras. Men alla framgångsrika induktiva system och maskiner – inklusive djur och människor – är approximationer av Solomonoff-induktion.

Varje verbalt argument som innehåller råd för bättre induktion, i den mån det faktiskt fungerar, fungerar genom att locka lyssnaren att modifiera sin induktiva strategi på ett sådant sätt att det bättre approximerar teorin. Tanken att induktion kan formaliseras matematiskt på detta sätt är ganska djupgående, och många generationer av logiker och filosofer sa att det inte kunde göras. Teorin växte ur arbete av Ray Solomonoff, Andrey Kolmolgorov och Gregory Chaitin på 1960-talet. Deras underliggande motivation var att formalisera sannolikhetsteori och induktion med hjälp av axiom, på samma sätt som algebra och geometri har formaliserats. Teorin bygger på en induktiv regel som kallas Bayes’ teorem, som beskriver ett exakt matematiskt sätt att uppdatera föreställningar baserat på inkommande data.

En svaghet i Bayes teorem är att det beror på en tidigare sannolikhet för en viss händelse. Till exempel kan sannolikheten för att en asteroid ska träffa jorden under de kommande 10 åren ges på basis av historiska data om asteroidnedslag. Men när urvalsstorleken för tidigare händelser är låg, såsom antalet gånger en neutrino har upptäckts i en neutrinofälla, blir det mycket svårt att förutsäga sannolikheten för att händelsen ska inträffa igen baserat enbart på tidigare erfarenheter.

Det är här Solomonoffs induktion kommer in. Genom att använda ett objektivt mått på komplexitet som kallas Kolmogorov-komplexitet, kan teorin göra en välgrundad gissning om sannolikheten för att någon framtida händelse inträffar. Kolmogorovs komplexitet är baserad på en princip som kallas Minimum Description Length (MDL), som bedömer komplexiteten hos en sträng av bitar baserat på den kortaste algoritmen som kan mata ut den strängen. Även om Kolmogorov-komplexiteten ursprungligen endast tillämpades på bitsträngar, kan den översättas till att beskriva komplexiteten hos händelser och objekt.

Solomonoff-induktion integrerar Kolmogorovs komplexitet i Bayesianska resonemang, vilket ger oss berättigade förhandsavgöranden för händelser som kanske aldrig ens har hänt. Den tidigare sannolikheten för en godtycklig händelse bedöms utifrån dess övergripande komplexitet och specificitet. Till exempel är sannolikheten för att två slumpmässiga regndroppar i en storm träffar samma kvadratmeter ganska låg, men mycket högre än sannolikheten för att tio eller hundra slumpmässiga regndroppar träffar den kvadratmetern.

Vissa forskare har studerat teorin i samband med neuroanatomi, och visar hur optimal induktion är en organiserande princip i utvecklingen av djur som behöver exakt induktion för att överleva. När äkta artificiell intelligens skapas, kommer principerna att vara en trolig inspiration bakom dess konstruktion.