I en typisk dator, gjord enligt vad som kallas Von Neumann-arkitektur, bor minnesbanker i en isolerad modul. Det finns bara en processor, som bearbetar instruktioner och minnesskrivningar en efter en, med hjälp av en seriell arkitektur. En annan metod för datoranvändning är det neurala nätverket. I ett neuralt nätverk, som består av tusentals eller till och med miljontals individuella ”neuroner” eller ”noder”, är all bearbetning mycket parallell och distribuerad. ”Minnen” lagras i de komplexa sammankopplingarna och viktningarna mellan noder.
Neuralt nätverk är den typ av datorarkitektur som används av djurhjärnor i naturen. Detta beror inte nödvändigtvis på att det neurala nätverket är ett i sig överlägset bearbetningssätt än seriell beräkning, utan för att en hjärna som använder serieberäkning skulle vara mycket svårare att utvecklas stegvis. Neurala nätverk tenderar också att hantera ”brusiga data” bättre än seriella datorer.
I ett neuralt nätverk för feedforward tar ett ”indatalager” fyllt med specialiserade noder in information och skickar sedan en signal till ett andra lager baserat på informationen som det tagit emot utifrån. Denna information är vanligtvis en binär ”ja eller nej”-signal. Ibland, för att gå från ett ”nej” till ett ”ja”, måste noden uppleva en viss tröskelmängd av spänning eller stimulering.
Data flyttas från indatalagret till det sekundära och tertiära lagret, och så vidare, tills det når ett slutgiltigt ”utdatalager” som visar resultat på en skärm för programmerare att analysera. Den mänskliga näthinnan fungerar baserat på neurala nätverk. Noder på första nivån upptäcker enkla geometriska egenskaper i synfältet, som färger, linjer och kanter. Sekundära noder börjar abstrahera mer sofistikerade funktioner, såsom rörelse, textur och djup. Den slutliga ”utgången” är vad vårt medvetande registrerar när vi tittar på synfältet. Den initiala ingången är bara ett komplext arrangemang av fotoner som skulle betyda lite utan den neurologiska hårdvaran för att förstå det i termer av meningsfulla egenskaper, som idén om ett bestående objekt.
I backpropagating neurala nätverk kan utdata från tidigare lager återgå till dessa lager för att begränsa ytterligare signaler. De flesta av våra sinnen fungerar på detta sätt. De initiala uppgifterna kan leda till en ”utbildad gissning” vid det slutliga resultatet, följt av att titta på framtida data i samband med den utbildade gissningen. I optiska illusioner gör våra sinnen kvalificerade gissningar som visar sig vara felaktiga.
Istället för att programmera neurala nätverk algoritmiskt måste programmerare konfigurera ett neuralt nätverk med träning eller känslig inställning av individuella neuroner. Till exempel skulle träning av ett neuralt nätverk för att känna igen ansikten kräva många träningskörningar där olika ”ansiktslika” och ”oansiktslika” objekt visades för nätverket, åtföljda av positiv eller negativ feedback för att locka det neurala nätverket till att förbättra igenkänningsförmågan.