Redan innan de första datorna byggts hade forskare som Norbert Wiener, Claude Shannon och Alan Turing funderat på tänkande maskiner, det som nu kallas för Artificial Intelligence. Men det finns fortfarande ingen tydlig definition vad AI är, delvis eftersom det inte ens finns någon definition vad intelligens är.
Det har inte saknats ansatser till att definiera AI. En av de mest kända är Turing-testet, skapat 1949 av Alan Turing, som baserat på svårigheterna att definiera intelligens istället utgår från hur maskinens beteende uppfattas. Om en människa inte kan avgöra om maskinens svar är mänskligt eller inte, kan maskinen anses vara intelligent.
De flesta bedömare är dock eniga om att generell artificiell intelligens ännu inte existerar. Däremot finns det människor som anser att det kommer vara möjligt att uppnå inom kort. Denna förutsägelse har gjorts förr, ett flertal gånger, men det har fortfarande inte hänt.
AI blev 1956 formellt en akademisk disciplin efter en konferens på Dartmouth University där termen Artificial Intelligence myntades av John McCarthy. De närmaste åren efteråt gjordes massiva framsteg inom AI, delvis för att olika regeringar öste pengar över forskningen om AI.
Bland annat skapades ELIZA, världens första chatbot, ett program som kan tolka och använda mänskligt språk, av Joseph Weizenbaum mellan 1964 och 1967. Fastän ELIZA inte kunde lära sig något var svaren så övertygande att de flesta användare fick en känslomässig anknytning, något som kallas Eliza-effekten.
Framstegen var stora men datornas beräkningskapacitet var för liten, och under 1970-talet avstannade utvecklingen märkbart. En känd forskare, Hans Moravec, formulerade en paradox; datorer var duktiga på att lösa "intelligenta" problem som att lösa matematiska problem, men urusla på "ointelligenta" problem som att känna igen ett ansikte.
På 1980-talet började så kallade expertsystem växa fram och bli framgångsrika, system som kunde lösa problem inom ett visst område, baserade på inmatad kunskap inom det området. De undvek därmed de "ointelligenta" problemen, och avsaknaden av allmänkunskap ("commonsense knowledge") som "alla" människor har. Det visade sig dock att dessa system var svåra att underhålla, och användandet avtog sakta.
Sedan tidigare var neurala (icke-linjära) nätverk kända, men de fick förnyad relevans 1982 när John Hopfield visade att de kunde minnas mönster, samtidigt som Geoffrey Hinton visade en generell metod att träna neuronnnät med många lager, så kallad backpropagation, inom djupinlärning ("deep learning"). De belönades med Nobelpriset 2024 för sina insatser.
Det ledde till att Yann LeCun på Bell Labs 1990 lyckades använda ett konvolutionerande neuronnät (CNN) som kunde tolka handskriven text framgångsrikt. Liknande artificiella neuronnät har sedan dess används för mönstertolkning som ansiktigenkänning och taligenkänning, samt för generering av tal, musik, bild och film.
Under tiden gjorde utvecklingen (Moore's lag säger att processorns hastighet kommer fördubblas varannat år) datorer allt snabbare, och 1997 lyckades Deep Blue slå världsmästaren Garry Kasparov i schack. Faktum är att Deep Blue var ungefär 10 miljoner gånger snabbare än en schackdator från 1951.
2005 vanns DARPA Grand Challenge av ett självkörande fordon från Stanford som körde 211 km genom obanad terräng, och 2007 vanns DARPA Urban Challenge av ett team från CMU vars autonoma fordon körde 88 km genom en urban miljö med existerande trafikfaror och gällande trafikregler.
En milstolpe skedde 2012 när AlexNet, utvecklat av Alex Krizhevsky, överlägset vann ImageNet Large Scale Visual Recognition Challenge med hjälp av deep learning, eller djupinlärning. Sedan dess används metoden vid all mönsterigenkänning av bilder, filmer, musik, text och tal.
Djupinlärning är en del av maskininlärning ("machine learning") som använder neuronnät för uppgifter som klassificering, regression och representationsinlärning inspirerat av biologisk neurovetenskap. Adjektivet "djup" används eftersom man staplar neuronnät ovanpå varandra i många lager, från minst tre lager till tusentals lager, eller ännu fler.
Mer: ML
Google började använda neuronnät för tolkning av söktexter 2016, och 2017 släppte man rapporten "Attention Is All You Need" med en arkiktektur för transformation ("transformer") baserat på en uppmärksamhetsmekanism ("attention mechansism") utvecklad 2014 av Bahdanau et al.
Detta var startskottet för användningen av stora språkmodeller ("Large Language Model, LLM"), och begreppet Generativ AI. Flera företag och organisationer grundades för att utveckla Allmän AI ("Artificial General Intelligence (AGI)"), såsom OpenAI och Google DeepMind.
En LLM baseras på de massiva informationsmängderna på Internet, och en fråga returnerar det statistiskt mest sannolika svaret. Google lanserade BERT och OpenAI släppte GPT-1 2018. Sedan dess har flera nya versioner släppts, fast mest uppmärksamhet fick OpenAI när de släppte ChatGPT som en lättanvänd prompt för allmänheten 2022.
Mer: LLM
Sedan dess har allt fler insett att man inte alltid kan lita på svaret från dessa system, fastän systemet ger sken av att vara bomsäkert. Man säger att systemet hallucinerar. Problemet är att det statistiskt mest sannolika svaret inte alltid är rätt svar. En anledning kan vara att informationen på Internet inte alltid är relevant.
En lösning kan vara att enbart ge relevant information till språkmodellen. Det kan innebära att man till exempel instruerar språkmodellen att enbart använda den interna dokumentationen i företaget eller organisationen. Metoden kallas för "Retrieval Augmented Generation" (RAG), på svenska Förstärkt Generering från Hämtning.
Mer: RAG
källa: en.wikipedia.org/wiki/Artificial_Intelligence
Sidan skapad 18 mars 2025
Sammanställt av Christer Tärning.