Natur & Kulturs
Psykologilexikon
Här kan du hitta ordet du söker i Natur & Kulturs Psykologilexikon av Henry Egidius.
Lexikonet rymmer ca 20 000 sökbara termer, svenska och engelska, samlade under 11 500 bläddringsbara ord och namn i bokstavsordning.
Lexikonet uppdateras kontinuerligt av Henry Egidius.
Sökresultat
- Uppslagsord som matchar "neuronnät, neuralt nätverk":
neuronnät, neuralt nätverk
1. neural network [ˈnjʊərəl ˈnɛtwɜːk, USA-uttal: ˈnʊrəl ˈnɛtwɜːrk]
2. artificial neural network [ɑːtɪˈfɪʃl ˈnjʊərəl ˈnɛtwɜːk, USA-uttal: ˌɑːrtɪˈfɪʃl ˈnʊrəl ˈnɛtwɜːrk], ANN
1. Biologiskt neuronnät (biologiskt neuralt nätverk), ett nät i en levande hjärna av nervceller som är kopplade till varandra och fungerar tillsammans.
2. Artificiellt neuronnät (artificiellt neuralt nätverk): Digitalt informationsbehandlande system med parallellt arbetande program och minnesfunktioner. I texter om informationsbearbetning med datorer avses i regel denna betydelse.
I motsats till de traditionella datorerna som bearbetar en information i taget sekventiellt (i rad efter varandra) kan dator med parallella nät sprida varje information i stora nätverk. Om en del av nätverket tas bort, försvinner inte informationen utan blir bara mera diffus och mindre precis.
Djupa neuronnät, djupa neurala nätverk (eng: deep neural networks, DNNs) kan av sig själva förändra bearbetning av information och i den meningen lära nya mönster. Sådant lärande sker vid maskininlärning (eng: machine learning) och kallas djupinlärning (eng: deep learning, deep structured learning, hierarchical learning, deep machine learning).
Artificiella neuronnät (artificiella neurala nätverk) är uppbyggda av element som har ett funktionssätt som i vis mening fungerar som nervceller, neuroner (därav namnet).
Historisk bakgrund
Forskningen om artificiella neuronnät har sitt ursprung i Donald Hebbs (1904-1985) teori om reverberatoriska banor (kretslopp som håller fast intrycken i minnesenheter) i nervsystemet.
Det första artificiella neuronnätet skapades av nervfysiologen Warren McCulloch (1898-1969) och Walter Pitts (1923-1969) 1943, båda amerikaner De skapade ett enkelt artificiellt neuronnät med hjälp av elektriska kretsar.
De engelske matematikern Alan Turing (1912-1954) beskrev 1936 i en tidskriftsartikel en teoretisk modell av ett datorprogram och en dator, som kom att kallas Turingmaskin. Efter andra världskriget, år 1946, konstruerade han datorn ACE (automatic computing engine). Han förutspådde att datorer skulle kunna bli så starka att man inte skulle kunna skilja ett samtal med en maskin från ett samtal med en människa, det så kallade turingtestet, något som till viss del blev verklighet i början av 2020-talet med generativ AI.
Ett flertal 1950‑talsdatorer byggdes med ACE som förebild.
På 1950-talet utvecklades AI till en vetenskap under ledning av den amerikanske ekonomen och beslutsteoretikern Herbert Simon (1916-2001). Han och några forskare runt honom hade en vision om den nya teknikens möjligheter.
Som den egentlige upphovsmannen till AI räknas den amerikanske matematikern John McCarthy (1927-2011), som också var expert inom det då nya området kognitionsvetenskap. Han presenterade termen AI och sin definition av artificiell intelligens på en konferens 1956 på Dartmouth College i New Hampshire, USA, där Herbert Simon och Allen Newell (1927-1992) spelade en ledande roll.
Forskningen tog ett stort steg framåt när den japanske dataforskaren Kunihiko Fukushima (f 1936) utvecklade det första flerskiktade neuronnätet under 1970-talet med konvolutionella lager (eng: convolutional layers), det vill säga vikta lager som genom bågformen överlappade varandra. Denna teknik kallas 'faltning' eller 'konvolution' som är en [exturl:matematisk operation|https://sv.wikipedia.org/wiki/Faltning].
År 1979 grundade Newell American Association for Artificial Intelligence och var det första året föreningens ordförande.
När mängden strukturerad och ostrukturerad data ökade till stordata (eng: big data) utvecklades på 1990-talet djupinlärning, som i huvudsak är artificiella neuronnät med flera dolda lager (eng: hidden layers) mellan lagren för indata och utdata. Djupinlärning gör det möjligt att samla in och bearbeta större datamängder, inklusive ostrukturerad data. Begreppet artificiell intelligens, som råkat i vanrykte, kom åter till heders och kom att skrivas och uttalas AI.
Det stora genombrottet för AI kom i november 2022 med ChatGPT. Det var en händelse som kom att inleda en ny tidsepok. Dataåldern blev AI-eran eller AI-åldern. Psykologin påverkades starkt genom att man för olika AI-fenomen använder psykologiska termer från 1900-talet och genom att relationen mellan människa och artificiell intelligens får stor betydelse på alla områden.
För mer information [exturl:klicka här|https://nordvpn.com/sv/blog/neurala-natverk/].
Relaterade sökord: artificiell intelligens (AI), datornätverk, expertsystem, djuplärande, kognitionsforskning, LAN, maskininlärning, MoE-arkitektur, neuralt nät, neurokognition, neuronnätstopologi, nätverk, nätverksarkitektur, perceptionssimulering, RNN, sekventiell, transformer, symbolic processing, WAN.
Ordformer:
Plural: neuronnätverk, neurala nätverk (eng: neural networks, neural nets).
Terminologi: Tidigare användes termen neuralt nät, NN, för det som nu kallas artificiellt neuronnät (artifiellt neuralt nätverk), ANN, på engelska även connectionist system.
'Neuronnät' eller 'artificiellt neuronnät är den term som rekommenderas av Svenska datatermgruppen. Men inflytandet från engelskan har gjort att den vanliga formen av uttrycket i svenskan har blivit 'neuralt nätverk', plural: 'neurala nätverk'.
'Djupa neuronnät' (eng: deep neural networks) är den rekommenderade beteckningen på nätverk i flera lager. Vanligare är dock formen 'djupa neurala nätverk'.
["Donald Hebb","reverberatorisk","Alan Turing","turingtestet","generativ AI","artificiell intelligens","expertsystem","nätverksarkitektur","datornätverk","Digitalt","kognitionsforskning","kognitionsvetenskap","djupinlärning","djuplärande","ChatGPT","sekventiell","neurokognition","djupinlärning","neuronnätstopologi","LAN","WAN","perceptionssimulering","MoE-arkitektur","maskininlärning","neuralt nät","transformer","nätverk","term","RNN","symbolic processing",""]