image

Vad är ett neuralt nätverk?

Ett neuralt nätverk är en form av konstgjord intelligens som en del hävdar är inspirerad av hjärnan och dess nätverk av nervceller. De består hursomhelst av en samling enheter som är anslutna till varandra, vilket gör att de kan bearbeta information och lära sig från erfarenheter. Neurala nätverk används för att lösa många typer av problem inom områden som bildigenkänning, taligenkänning och språkförståelse.

Neurala nätverk och maskininlärning

Maskininlärning är en bred kategori som inkluderar flera olika tekniker för att låta en dator lära sig från data, inklusive neurala nätverk. Neurala nätverk är en specifik teknik för maskininlärning, och skiljer sig från andra tekniker som till exempel beslutsträd och regressionsanalys.

Neurala nätverka anses vara den mest avancerade typen av maskininlärningsalgoritmer, och kräver som regel mer data än andra typer av maskininlärningsalgoritmer för att prestera bra. Men med mer data, presterar de oftast bättre för komplexa problem än andra typer av algoritmer.

Skillnaden mellan neurala nätverk och andra tekniker för maskininlärning ligger i deras kapacitet att hantera komplexa relationer i data och lära sig dessa relationer utan att de behöver explicit programmeras.

Neurala nätverk består av flera lager av noder som samverkar med varandra för att ta beslut, vilket gör dem bättre lämpade för mer komplexa problem jämfört med enklare tekniker som beslutsträd och regressionsanalys.

Olika typer av neurala nätverk

Det finns många olika typer av neurala nätverk, men de vanligaste inkluderar:

  1. Feedforward neurala networks (FFN): Dessa är de enklaste formen av neurala nätverk och data flödar från indatalager till ett eller flera dolda lager och sedan till ett utdatalager.
  2. Convolutional neural networks (CNN): Används främst för bildigenkänning och är utformade för att hantera 2D-bilddata.
  3. Recurrent neural networks (RNN): Används för att analysera sekventsiell data, som till exempel ljud- eller textdata.
  4. Autoencoders: En speciell typ av neurala nätverk som används för dimensionell reduktion och återkonstruktion av data.
  5. Generative adverserial networks (GAN): En annan speciell typ av neuralt nätverk som används för att generera nya, realistiska data på basis av existerande data.
  6. Radial basis functional networks (RBFN): Används för klassificering och regresionsproblem och har en unik topologi med radiala basfunktioner som mappar indata till rum med högre dimensionalitet.
  7. Hopfield-nätverk: Ett enkelt neuralt nätverk som används för problem som optimering och binär klassificering.
  8. Boltzmann maskiner (BM): En form av generativ modell som använder den statistiska fysikens principer för att generera data.
  9. Deep Belief Networks (DBN): En hierarkisk form av generativt modell som använder flera lager av gömda neuronala nätverk för att lära sig en fördjupad representation av data.
  10. Long-Short-Term Memory (LSTM) nätverk: En variant av RNN som är utformad för att hantera långa tidssekvenser och behålla information från långt tillbaka i tiden.
  11. Transformers: En annan variant av RNN som används för språkförståelse och är särskilt effektiv för parallell behandling av sekvensdata.

Hur fungerar neurala nätverk?

Neurala nätverk fungerar genom att de simulerar den mänskliga hjärnan säger en del. Andra hävdar att det inte riktigt stämmer. Oavsett var man står i den frågan så består de av en samling noder, kallade neuroner, som är organiserade i lager. Varje neuron tar in indata från andra neuroner och använder en matematisk funktion för att beräkna sin egen utdata. Dessa utdata från en neuron fungerar som indata till andra neuroner i nästa lager.

Processen med att träna ett neuralt nätverk består i att justera vikterna (matematiska koefficienter) på länkarna mellan neuronen, så att nätverket ger den mest exakta utdata som är möjlig för en given uppgift. Träningen görs genom att använda en träningsdatamängd som innehåller historiskt indata och motsvarande kända utdata. Genom att jämföra sina egna förutsägelser med de korrekta utdata för varje träningsinstans, justerar nätverket sina vikter för att öka sin noggrannhet under träningsprocessen.

När ett neuralt nätverk har tränats, kan det användas för att göra förutsägelser för nytt okänt data. Genom att tillämpa samma matematiska funktioner och vikter som den lärde sig under träningen, kan nätverket göra förutsägelser om utdata för nya tidigare okänd indata.

Feedforward Nätverk (FFN)

Feedforward neurala nätverk används för ett brett spektrum av användningsområden, inklusive:

  1. Klassificering: Nätverken används för att kategorisera data i en av flera möjliga klasser inom olika applikationsområden, till exempel bildigenkänning eller språkigenkänning.
  2. Regression: Nätverken används för att göra prognoser och förutsägelser om numeriska utdata, till exempel väderprognoser eller försäljningsprognoser.
  3. Konvertering: Nätverken används för att konvertera ett format till ett annat, till exempel text till tal eller tal till text.

Feedforward neurala nätverk fungerar genom att ta emot indata från en datamängd och skickar dem genom en serie lager med neuroner, som är anslutna med vikter (matematiska koefficienter). Indata är först bearbetade i det första gömda lagret, och resultatet från det lagret fungerar sedan som indata för nästa lager. Detta fortsätter tills informationen når det sista, utdata-läget.

Vikterna på länkarna mellan neuronen är de viktigaste parametrarna som förändras under träningen. Genom att använda en algoritm som Stochastic Gradient Descent (SGD) justeras vikterna för att minimera skillnaden mellan förväntad och faktisk utdata. När träningen är klar kan nätverket användas för att göra förutsägelser för nytt okänt indata.

Det är viktigt att notera att feedforward neurala nätverk är “vanliga” neurala nätverk och fungerar inte för problem som behöver behandla tidssekvenser eller återkopplingsinformation. För dessa typer av problem används Recurrent Neural Networks (RNN) eller Convolutional Neural Networks (CNN).

Convolutional Neural Networks (CNN)

Convolutional Neural Networks (CNN) används för många olika användningsområden inom bild- och videobearbetning, inklusive:

  1. Bildklassificering: Nätverken används för att kategorisera bilder i en av flera möjliga klasser, till exempel att avgöra om en bild innehåller en hund eller en katt.
  2. Bilddetektering: Nätverken används för att identifiera objekt i bilder, till exempel att hitta en bil i en parkeringsbild.
  3. Bildsegmentering: Nätverken används för att märka upp bilder och markera viktiga delar, till exempel att märka upp en person i en bild.

CNNs fungerar genom att använda konvolutionslager för att extrahera funktioner från bilddata. Varje konvolutionslager använder ett konvolutionsfilter för att generera en “feature map” från indatabilden. Dessa feature maps används sedan som indata för flera ytterligare konvolutionslager, som bygger på informationen från de tidigare lagen.

Efter en serie konvolutionslager används poolingslager för att sammanfatta informationen från en region i bilden och reducera storleken på feature maps. Detta hjälper till att göra nätverket mer robust mot små förändringar i bilddata.

Så småningom går informationen från de sista konvolutions- och poolingslagen in i ett gömt lager, där informationen bearbetas för att generera utdata. Träning sker genom att justera vikterna (matematiska koefficienter) på länkarna mellan lagen, precis som för feedforward neurala nätverk.

Det är viktigt att notera att CNNs är speciellt anpassade för att hantera bilddata och är ofta mycket mer effektiva än andra typer av neurala nätverk för bild- och videoprocessingproblem.

Recurrent Neural Networks (RNN)

Recurrent Neural Networks (RNN) används för en mängd olika användningsområden inom naturlig språkbehandling och serieanalys, inklusive:

  1. Textgenerering: Nätverken används för att generera ny text baserat på en träningsdatamängd, till exempel för att generera en fortsättning på en given text eller för att skapa nya satser med en viss ton.
  2. Textklassificering: Nätverken används för att kategorisera text i en av flera möjliga klasser, till exempel att avgöra om en recension är positiv eller negativ.
  3. Språköversättning: Nätverken används för att översätta text från ett språk till ett annat.
  4. Taligenkänning: Nätverken används för att konvertera tal till text och för att analysera tal för att till exempel identifiera svar på frågor.

RNNs fungerar genom att använda samma parametrar för alla tidssteg i en serie, vilket gör det möjligt för nätverket att bibehålla information från tidigare steg. Detta gör dem särskilt lämpliga för problem där information från tidigare steg är viktig för att förstå aktuell information, som i tidsserier eller språk.

För varje tidssteg tar RNNs in indata och bearbetar den tillsammans med informationen från det föregående tidssteget, som sparas i en “minnescell”. Denna information används sedan för att generera utdata för tidssteget.

Träning sker genom att justera vikterna (matematiska koefficienter) på länkarna mellan lagen, precis som för feedforward neurala nätverk.

Det är viktigt att notera att RNNs har en tendens att drabbas av problemet med gradientsmärta, där gradienterna som används under träningen för att justera vikterna blir mycket små eller till och med noll. Detta gör träningen av RNNs ofta svårare än för andra typer av neurala nätverk.

Autoencoders

Autoencoders är en typ av neurala nätverk som används för olika användningsområden, inklusive:

  1. Bildkomprimering: Autoencoders kan användas för att komprimera bilder genom att lära sig en kodning som representerar bilden med färre antal parametrar än den ursprungliga bilden.
  2. Bildgenerering: Autoencoders kan användas för att generera bilder på ett sätt som är likt den ursprungliga bilden.
  3. Anomalidetektering: Autoencoders kan användas för att detektera anomalier i datamängder, till exempel genom att lära sig vad som är “normal” i en datamängd och sedan identifiera avvikelser från det normala.

Autoencoders fungerar genom att lära sig en kodning som representerar indata på ett mer kompakt sätt än den ursprungliga indatan, och sedan använder den lärda kodningen för att återskapa indata. Denna återskapade indata jämförs sedan med den ursprungliga indatan för att generera en förlustfunktion, som används för att justera vikterna (matematiska koefficienter) i nätverket under träningen.

Autoencoders består oftast av två delar: en encoder som kodar indata till en representativ vektor, och en decoder som återskapar indata från den representativa vektorn. Träning sker genom att minimera förlusten mellan den återskapade och den ursprungliga indatan.

Generative Adversarial Networks (GNN)

Generative adversarial networks (GAN) är en typ av neurala nätverk som används för en mängd olika användningsområden, inklusive:

  1. Bildgenerering: GANs kan användas för att generera fotorealistiska bilder, till exempel genom att lära sig en distribution över bilderna i en träningsmängd och sedan generera nya bilder från den inlärda distributionen.
  2. Textgenerering: GANs kan också användas för att generera text, till exempel genom att lära sig en distribution över ord eller fraser i en träningsmängd och sedan generera nya fraser från den inlärda distributionen.
  3. Musikgenerering: GANs kan också användas för att generera musik eller andra ljudkompositioner.

GANs fungerar genom att ha två delar: en generator och en diskriminator. Generatorn är ansvarig för att generera nytt data som försöker imitera den träningsdata som den har sett, medan diskriminatorn är ansvarig för att avgöra om de data den ser är verkliga eller genererade. De två delarna tränas tillsammans genom att generator försöker generera data som diskriminator inte kan avgöra som falska, medan diskriminator försöker bli bättre på att avgöra om data är verkliga eller falska.

Radial Basis Function Network (RBFN)

Radial Basis Function Network (RBFN) är en typ av neuralt nätverk som används inom områden såsom reglering, klassificering och signalbehandling. RBFN använder radiala basfunktioner som aktiveringsfunktioner för att beskriva komplexa mönster i data.

RBFN fungerar genom att först förutbestämma ett antal basfunktioner med hjälp av exempel på träningsdata. Dessa basfunktioner representerar olika regioner i “feature-space” där varje funktion är starkast aktiverad. När RBFN får ny indata kommer den att mäta dess närhet till varje basfunktion och aktivera den som är närmast. Utdata från RBFN bestäms sedan av en linjär kombination av aktiveringen från varje basfunktion och ett set av vikter (matematiska koefficienter).

RBFNs används ofta när det finns en komplex fördelning i data som inte är lätt beskrivbar med linjära modeller. De är också använda som ett första steg för att reducera dimensionerna i ett dataset för att förbättra prestanda hos mer komplexa modeller.

Long-Short-Term Memory (LSTM)

Long-Short-Term Memory (LSTM) är en typ av riktad cyklisk graf (RNN) som är speciellt utformad för att hantera långa tidsförhållanden i data. De har främst använts för följande användningsområden:

  1. Textgenerering: LSTM används för att generera text, såsom poesi eller samtal, baserat på en träningsmängd av text.
  2. Textklassificering: LSTM används för att klassificera text, såsom att avgöra om en recension är positiv eller negativ.
  3. Tidsserieanalys: LSTM används för att analysera tidsbaserade data, såsom aktiekurser eller väderprognoser.

LSTM fungerar genom att använda en minnescell som kan bära information från en tidspunkt till en annan. Detta gör det möjligt för LSTM att hantera långa tidsförhållanden i data, eftersom informationen kan bäras över en längre tidsperiod.

LSTM använder också en mekanism för att välja vilken information som ska tas med från minnescellen och vilken information som ska förloras. Detta gör det möjligt för LSTM att samtidigt hantera både relevant och irrelevanta information i data.

Transformers

Transformers är en ny generation av neurala nätverk som är speciellt utformade för att hantera serier av data, såsom text eller ljud. De har främst använts för följande användningsområden:

  1. Textgenerering: Transformers används för att generera text, såsom poesi eller samtal, baserat på en träningsmängd av text.
  2. Textklassificering: Transformers används för att klassificera text, såsom att avgöra om en recension är positiv eller negativ.
  3. Maskinöversättning: Transformers används för att översätta text från ett språk till ett annat.
  4. Naturligt språkbehandling (NLP): Transformers används för uppgifter som såsom parameterutläsning.

Transformers fungerar genom att använda en mekanism som kallas self-attention, vilket gör det möjligt för modellen att titta på hela serien av data samtidigt, istället för en bit i taget som vid tidigare nätverk. Detta gör det möjligt för Transformers att hantera både långa och korta tidsförhållanden i data, vilket är särskilt användbart för naturligt språkbehandling.

Transformers har blivit mycket populära på grund av deras framgångsrika prestanda på många NLP-uppgifter och deras förmåga att hantera stora mängder data på ett effektivt sätt.

Vilken typ av neuralt nätverk bör användas?

Val av rätt typ av neuralt nätverk för ett specifikt problem är en viktig del av utvecklingen av ett system. Följande är några faktorer som bör övervägas när man väljer rätt typ av nätverk:

  1. Typ av data: Om data är bilder, är det troligt att en CNN-baserad lösning är mer lämplig än en FFN-baserad lösning. Om data är serier av data, såsom text eller ljud, kan en RNN eller en Transformer-baserad lösning vara mer lämplig.
  2. Problemtyp: Om problemet är en klassificeringsuppgift, såsom att avgöra om en bild innehåller en hund eller en katt, är en FFN eller en CNN vanligtvis ett bra val. Om problemet är en regressoringsuppgift, såsom att förutspå värdet på en aktie, kan en FFN vara ett bra val.
  3. Storlek och komplexitet på data: Stort och komplex data sätter stora krav på modellens prestanda och kapacitet. För dessa typer av problem är det ofta bättre att använda mer avancerade nätverk, såsom en CNN eller en Transformer, för att få bättre resultat.
  4. Tillgänglighet på träningsdata: Det är viktigt att ha tillräckligt med träningsdata för att träna en modell och undvika överanpassning. För stora och komplexa data sätter det stora krav på modellen och träningsdata, och då är det ofta bättre att använda mer avancerade nätverk.

Det är viktigt att komma ihåg att det inte finns ett enda nätverk som är bäst för alla problem, och att det är viktigt att experimentera med flera nätverkstyp och validera deras prestanda på specifika problem för att välja det mest lämpliga nätverket.

Magnus Unemyr

Author, speaker and consultant in the aras of marketing automation, artificial intelligence, and the Internet-Of-Things. Contact me if you need help! Learn more.