Vad är den tekniska singulariteten?

Den tekniska singulariteten, eller helt enkelt ”singularitet”, är ett mångfacetterat begrepp inom futurismen med flera överlappande och ibland motstridiga definitioner. Den mest korrekta och framträdande definitionen av singulariteten gavs av Vernor Vinge i hans essä, The Coming Technological Singularity. Det hänvisar till den punkt där övermänsklig intelligens skapas tekniskt. Dessa övermänskliga intelligenser skulle sedan kunna använda sin hjärna och expertis i uppgiften att skapa ytterligare eller mer kraftfulla övermänskliga intelligenser, vilket resulterar i en snöbollseffekt med konsekvenser utöver vår nuvarande förmåga att föreställa oss.

Termen ”Technological Singularity” myntades i analogi med singulariteten i mitten av ett svart hål, där naturkrafterna blir så intensiva och oförutsägbara att vår förmåga att beräkna materiens beteende under dessa omständigheter sjunker till noll. Ofta nämnt i samband med idén om övermänsklig intelligens i Singularity-dialoger är föreställningen om accelererande tekniska förändringar. Vissa har hävdat att när lutningen av tekniska framsteg ökar, kommer den att kulminera i en asymptot, som visuellt liknar en matematisk singularitet.

Denna föreställning om singulariteten är emellertid inte densamma som Vinge avsett; hänvisar till uppkomsten av övermänsklig intelligens, tillsammans med övermänskliga tankehastigheter. (Inklusive smarthet, förmåga att förstå och skapa begrepp, omvandla data till teorier, göra analogier, vara kreativ och så vidare.) Även om övermänskliga intelligenser som skapar ytterligare övermänskliga intelligenser verkligen skulle resultera i accelerationen av tekniska framsteg, skulle framstegen inte bli oändliga, i den meningen som en matematisk singularitet skulle antyda.

Eftersom övermänskliga intelligenser per definition skulle vara smartare än någon människa, är vår förmåga att förutsäga vad de skulle vara kapabla till med en given mängd tid, materia eller energi osannolikt att vara korrekt. En övermänsklig intelligens kanske kan skapa en fungerande superdator av billiga och lättillgängliga komponenter, eller utveckla fullfjädrad nanoteknik med inget annat än ett atomkraftsmikroskop. Eftersom förmågan hos en övermänsklig intelligens att designa och tillverka tekniska prylar snabbt skulle överträffa mänskliga ingenjörers bästa ansträngningar, kan en övermänsklig intelligens mycket väl vara den sista uppfinningen som mänskligheten någonsin behöver göra. På grund av deras övermänskliga geni och de teknologier som de snabbt kunde utveckla, kan handlingarna av intelligenser som kommer ur en Teknologisk Singularitet resultera i antingen utrotning eller befrielse av hela vår art, beroende på attityden hos de mest kraftfulla övermänskliga intelligenserna gentemot människor.

Oxford-filosofen Nick Bostrom, chef för Oxford Future of Humanity Institute och World Transhumanist Organization, hävdar att hur övermänskliga intelligenser behandlar människor kommer att bero på deras initiala motiv i ögonblicket för deras skapelse. En snäll övermänsklig intelligens skulle, genom att vilja bevara sin vänlighet, skapa snälla (eller snällare) versioner av sig själv när självförbättringsspiralen fortsatte. Resultatet kan bli ett paradis där övermänskliga intelligenser löser världens problem och erbjuder samförståndsförstärkning av intelligens till människor. Å andra sidan skulle en illvillig eller likgiltig övermänsklig intelligens sannolikt producera mer av samma sak, vilket skulle resultera i vår oavsiktliga eller avsiktliga förstörelse. Av dessa skäl kan den tekniska singulariteten vara den enskilt viktigaste milstolpen som vår art någonsin kommer att möta.

Flera vägar till övermänsklig intelligens har föreslagits av Singularity-analytiker och förespråkare. Den första är IA, eller Intelligence Amplification, som tar en existerande människa och förvandlar henne till en icke-mänsklig varelse genom neurokirurgi, hjärn-dator-gränssnitt eller kanske till och med hjärn-hjärna-gränssnitt. Den andra är AI, eller artificiell intelligens, skapandet av ett dynamiskt kognitivt system som överträffar människor i sin förmåga att forma teorier och manipulera verkligheten. När någon av dessa teknologier kommer att nå den tröskelnivå av sofistikering som krävs för att producera övermänsklig intelligens är osäkert, men en mängd experter, inklusive Bostrom, nämner datum inom intervallet 2010-2030 som troliga.
Eftersom singulariteten kan vara närmare än vad många skulle anta, och eftersom de första motiven för den första övermänskliga intelligensen kan avgöra ödet för vår mänskliga art, ser vissa filosofaktivister (”singularitärer”) singulariteten inte bara som ett ämne för spekulationer och diskussion, men som ett praktiskt ingenjörsmål som meningsfulla framsteg kan göras mot i nutid. År 2000 grundades Singularity Institute for Artificiell Intelligens av Eliezer Yudkowsky för att uteslutande arbeta mot detta mål.