kunstig intelligens

Kunstig intelligens. Ekspertsystemer. Når en ekspert løser problemer, indgår der ofte en sekvens af handlinger baseret på logisk behandling af information i en bestemt rækkefølge. Medicinske ekspertsystemer (EP) er et eksempel på anvendt kunstig intelligens, som forsøger at formalisere de følgeslutninger, læger foretager, når de stiller diagnoser. Her er udfordringen for EP-ingeniøren at kortlægge de procedurer og slutninger, den medicinske ekspert foretager for at stille en given diagnose. Som led i kortlægningen kan anvendes et rutediagram som vist på figuren. Det illustrerer den information, der skal opnås, og dermed de undersøgelser, der må foretages for at stille en korrekt diagnose og evt. udføre en behandling, hvis en patient har forstørret skjoldbruskkirtel. Indledningsvis foretages en scintigrafi for at undersøge, om der er knuder i kirtlen. Det foregår ved, at kirtlen afbildes efter indsprøjtning af et radioaktivt sporstof, som vil samle sig på forskellig måde alt efter, om der er knuder eller ej, og efter, om eventuelle knuder er varme (stor koncentration af sporstof) eller kolde (ingen koncentration). Fund af en kold knude kræver udelukkelse af kræftsygdom, hvorfor scintigrafien må suppleres med ultralydundersøgelse. Herved kan knuden vise sig at være et uskyldigt væskefyldt hulrum (cyste) eller et fast vævsparti; i dette tilfælde udtages vævsprøve (biopsi), der bringer endelig diagnostisk klarhed. I visse af de tilfælde, hvor kræft kan udelukkes som årsag til forstørrelse af kirtlen, kan det være nødvendigt at supplere undersøgelserne med blodprøver for at afklare, om kirtelforstørrelsen er ledsaget af forhøjet stofskifte; en medicinsk behandling heraf er som regel tilstrækkelig, men kan undertiden kræve en operation, der ikke behøver at være så omfattende som ved kræft i kirtlen. I det viste eksempel er det en forholdsvis overskuelig proces at stille en diagnose, men i mere komplicerede tilfælde er det nemt at begå fejl; tanken med et ekspertsystem er, at det skal tjene som et redskab, lægen kan bruge i beslutningsprocessen, ikke fungere som selvstændig kunstig ekspert.

.

Artikelstart

Kunstig intelligens, KI, programmerede maskiner, som efterligner et eller flere aspekter af den menneskelige intelligens som evnen til abstrakt tænkning, analyse, problemløsning, mønstergenkendelse, sprogbeherskelse og -forståelse, fornuftig handling o.l. En skakcomputer er et eksempel herpå.

Kunstig intelligens er også betegnelsen på et tværfagligt forskningsfelt, Artificial Intelligence (AI), hvor man dels udforsker systemer, der kan udvise intelligent adfærd, dels konstruerer disse syntetisk i det omfang, det er muligt, ved udvikling af nye typer programmer og bearbejdning af viden.

Endelig undersøges grundene til, at man måske aldrig kan realisere målet med denne forskning i sin mest ambitiøse form: at efterligne den fulde menneskelige intelligens uden begrænsninger.

Forskningsområdet har rødder i datalogi, kybernetik og symbolsk logik og er desuden forbundet med kognitionspsykologi, kognitionsforskning, robotik og kunstigt liv.

Historie

Den kunstige intelligens' historie er sammenvævet med computerens. Udviklingen af de programmerbare digitale computere efter 2. Verdenskrig betød, at man i princippet havde mulighed for at afprøve en gammel rationalistisk hypotese om den menneskelige tænknings natur, som går tilbage til filosoffer som Thomas Hobbes og G.W. Leibniz.

Deres idé var simpel og radikal; de mente, at al tænkning skyldes virkningen af en indre kalkule (et program), dvs. et system af rent mekanisk natur, som processerer en række simple regneenheder eller symboler efter bestemte regler svarende til logikkens regler for korrekt logisk slutning eller aritmetikkens regler for korrekt talbehandling.

Dette forblev længe blot en hypotese. Selv da Charles Babbage i 1820'erne designede sin differensmaskine, en forløber for den moderne computer, var den så indviklet en konstruktion, at den ikke kunne realiseres med den tids teknologi. Men Ada Augusta Lovelace, som arbejdede sammen med Charles Babbage, bemærkede allerede i 1842, at en sådan maskine ikke blot ville kunne behandle tal, men stort set alt, der kunne reduceres til en begrænset mængde symboler. Man kunne altså forestille sig en maskine, der automatisk efter bestemte procedurer udfører instruktioner, som svarer til beregninger, og at disse beregninger ikke blot repræsenterer matematiske problemer, men i det hele taget problemer, der kan underkastes rationel analyse og løses ved logiske slutninger (se inferens).

I første halvdel af 1900-t. udvikledes grundlaget for kunstig intelligens og informationsteknologi generelt i form af særlige sammenkoblinger mellem teorier om tænkning, logik, automatik, formelle sprog og matematik. Man nåede frem til en afklaring af, hvad det præcis vil sige, at et problem er beregneligt efter en mekanisk procedure, bl.a. gennem Alan M. Turings model fra 1936 af en abstrakt maskine, Turingmaskinen, der kunne udføre enhver udførbar beregning. Alfred Tarski viste, hvordan man kunne konstruere en matematisk semantik for formelle sprog. Kurt Gödel påviste sammenhængen mellem bevis, sandhed og logisk følge. Claude Shannon viste i 1938, at elektriske kredsløb kan implementere alle operationer i boolesk logik, og efter 1945 udvikledes von Neumanncomputeren, den moderne serielle computer.

Alt dette var forudsætninger for den bro, man forestillede sig, AI skulle bygge mellem det tankemæssige, man ellers havde opfattet som noget rent immaterielt, og det maskinelle, som ofte ansås for noget rent fysisk og åndløst. Ligesom konstruktionen af regnemaskiner lignede et eksistensbevis på, at en bestemt sektion af den menneskelige tænkning, nemlig talbehandling, kunne mekaniseres, så kunne man forestille sig, at intelligent tænkning dybest set havde form af en indre og ubevidst kalkule eller et "tankesprog", som kunne opdages, og som indeholdt en nøje defineret grammatik af rent syntaktiske regler, herunder de logiske regler for gyldige ræsonnementer. Tænkte mennesket på basis af et sådant logisk-matematisk opbygget tankesprog, og lod dette sig finde, kunne man implementere det i en maskine, så dens processer kunne behandle de repræsenterede tanker vha. dette sprogs syntaktiske regler.

Som et egentligt forskningsfelt, hvor man begyndte at præcisere denne formodning i forsøget på at konstruere intelligente systemer, begyndte AI først omkring 1955. Tre faktorer er helt essentielle for idéen om tænkning som en art indre formelt sprog:

1) De enkelte tankeelementer antages at være ordnet i en kombinatorisk syntaktisk struktur (en grammatik), dvs. den består af veldefinerede arrangementer; elementerne svarer til ord, arrangementerne til sætninger, men det antages ikke, at de ligner kendte ord eller sætninger.

2) Indholdet af tanke-elementerne, det, de betyder, er systematisk bestemt ved deres sammensætning. Betydningen er kompositionel, på samme måde som betydningen af en sætning i store træk kan ses som fastlagt af dens grammatik og betydningen af de enkelte ord.

3) Endelig er tankerækkerne, den intelligente proces, specificeret alene af syntaktisk fastlagte regler; dvs. de kan udføres af mekanismer, der kun styres af formel syntaks. Semantikken, dvs. indholdet eller meningen, antages at følge med af sig selv. Her ligger analogien med bevisteori: Et arguments formelle gyldighed afgøres alene af, om det følger formelt gyldige slutningsregler. Hvis dette er opfyldt, vil sandheden af de oprindelige præmisser bevares i nye, afledte sætninger.

I sidste halvdel af 1950'erne udviklede man på basis af disse idéer de første programmer, der kunne spille skak eller bevise matematiske teoremer, dvs. maskiner, der løste problemer ikke blot ved beregning, men ved logisk deduktion. Blandt de forskere, der fra begyndelsen tegnede AI, var trioen Allen Newell (1927-92), J. Cliff Shaw (1922-91) og Herbert A. Simon (1916-2001), som på den første AI-konference i 1956 præsenterede et logikprogram, der skulle løse problemer ved at lede i et søgerum af mulige løsninger, hjulpet af visse tommelfingerregler, samt John McCarty (1927-2011) og Marwin Minsky (1927-2016), der sammen grundlagde AI-Laboratoriet ved MIT, USA, i 1958.

Det blev fra begyndelsen debatteret, hvorvidt det, de tidlige AI-programmer kunne udføre, virkelig var "intelligent". Alan M. Turing havde allerede i 1950 foreslået Turingtesten som operationelt kriterium på intelligens: Maskinen er intelligent, hvis en person, som må udspørge maskinen og et andet menneske om hvad som helst, ikke på svarenes indhold (dvs. spørgerens læsning af de skriftlige svar) kan skelne mellem maskinens svar og menneskets svar. Den skriftlige form skal sikre, at det ikke er minespil eller stemmeføring, der afgør sagen. Endnu har ingen AI-programmer bestået denne test.

Paradigmer

Man kan groft skelne mellem to forskellige forskningsprogrammer i AI svarende til to opfattelser af intelligensens struktur: Det klassiske symbolparadigme, som har været og til dels stadig er dominerende inden for AI, og det konnektionistiske paradigme, der har rødder tilbage til kybernetikken.

Ifølge symbolparadigmet må tænkning forstås som logisk manipulation med symboler efter bestemte regler. Tilsvarende må et AI-system beskrives på flere hierarkiske niveauer af information: fra den basale maskinkode, der er repræsenteret vha. rent fysisk hardware, over programmeringssprogets beskrivelse af den måde, informationen repræsenteres og behandles på, til selve det overordnede semantiske og intentionelle niveau (videns- eller meningsniveauet), hvor systemets hensigtsmæssige og rationelle kompetence angives.

Det konnektionistiske paradigme er især blevet udviklet i 1980'erne. Man taler her om distribuerede systemer for at understrege, at databehandlingen i princippet sker parallelt i et netværk af mange regneenheder og ikke serielt i én central enhed som i et klassisk AI-system. Vha. neurale netværk modelleres "intelligent adfærd" som et hensigtsmæssigt forhold mellem input- og outputsignaler til det kunstige netværk af "nerveceller", dvs. beregningsenheder med mange forbindelser, hvis indbyrdes styrke kan modificeres gennem træning mod et kendt datasæt.

Inden for dette paradigme udforskes ofte opgaver, som indebærer en form for mønstergenkendelse, -indlæring, og -kategorisering, fx af ansigter (mand eller kvinde?) eller røntgenbilleder (rask eller syg?). Disse systemer er ofte populære i de dele af AI, der tilstræber psykologisk realisme (jf. kognitionsforskning) og arbejder med problemer med vage kategorier.

Det klassiske symbolparadigme viderefører en rationalistisk opfattelse af tænkning som funderet i en på forhånd given logisk og sekventiel struktur (det indre tankesprog e.l.). Det konnektionistiske svarer mere til den empiristiske opfattelse i filosofien, hvor tænkning er erfaringsbaseret, og hvor tankernes indhold langsomt opbygges og afspejler det ofte billedagtige mønster, der måtte vise sig i de simple input af sansning, som tilføres kroppen eller maskinen. De to paradigmer har tilsvarende hver deres fortrin og svagheder; symbolparadigmet egner sig bedre til at modellere sproglige evner til sætningskonstruktion end neurale netværk, som til gengæld er overlegne til opgaver, der ikke beror på eksistensen af eksplicitte regler.

For begge paradigmer gælder, at de systemer, der konstrueres, ikke nødvendigvis efterligner et menneskes måde at løse en opgave på. Ofte spiller teknologisk udvikling af nyttige værktøjer en lige så stor rolle. Ud over anvendelse af AI-teknikker i forskning, biblioteksvæsen, sundhedsvæsen og i industriel produktion til processtyring spiller potentialet for militær udnyttelse af AI-teknologi (angrebs-, forsvars- og overvågningssystemer) en væsentlig rolle, ikke mindst for den fortsatte finansiering af AI-forskningen i USA, Europa og Japan.

Forskningsområder

Emnerne i AI-forskning er overlappende. Gennemgående er temaer som vidensrepræsentation (bl.a. i ekspertsystemer), søgning (fx efter information generelt eller gode træk i spil), kontrol samt indlæring. Man har fx søgt at modellere opdagelse af matematiske begreber i programmer som AM (Automated Mathematician) fra slutningen af 1970'erne, et AI-system, der dels oplagrede et sæt tommelfingerregler, heuristikker, om opdagelse og vurdering af matematiske begreber, dels repræsenterede de basale begreber fra mængde- og talteori.

En stor del af forskningen i AI har beskæftiget sig med at finde heuristiske procedurer for at indfange det aspekt ved rationel tænkning, der ikke beror på ubrydelige regler eller gennemgang af enhver tænkelig mulighed, hvad der ofte fører til "kombinatorisk eksplosion", og heller ikke på blind tilfældighed, men en art hensigtsmæssige tommelfingerregler for valg af næste skridt. Det viser sig ofte uhyre vanskeligt at indlejre en sådan type rationel sensibilitet, fx matematikerens evne til at generalisere begreber og til at indse, hvor dette ikke er muligt. Denne indsigt omfatter tilsyneladende mere, end hvad man kan indlejre som regler i et automatisk system. Hypotesen i klassisk AI, hvorefter intelligens skulle svare til at besidde en stor database samt et sæt logiske slutningsregler, forekommer dermed utilstrækkelig, da intelligens i så fald reduceres til logicitet.

Det er imidlertid langtfra umuligt at bruge AI-systemer som støtte for menneskelige beslutninger inden for begrænsede felter som spil, rumudnyttelse ved lastning af skibe, tidsskemalægning i virksomheder o.l. Men hvor de rent deduktive systemer i matematik og logik er monotont voksende (dvs. ekspanderende; de forkaster aldrig viden), er mennesker ikke-monotone; vi reviderer hele tiden meninger under indtryk af forandring og nye erfaringer. Mange af begrænsningerne ved de tidlige AI-systemer har inspireret nye forskningsområder, fx alternative former for ræsonneren, såsom ikke-monotone logikker, fuzzy logic, og kausale, rumlige og tidslige former for ræsonneren, altsammen områder, hvor formalisering af de menneskelige kompetencer er langt vanskeligere.

Et stort forskningsfelt er sprogsystemer, som kan udføre talegenkendelse, tekst-til-tale-generering og automatisk oversættelse. Et problem er her, at pålidelig oversættelse synes at forudsætte forståelse. Menneskers brug af naturligt sprog baserer sig nemlig ikke kun på formelle regler, men også på situationsforståelse og viden, ikke bare om sprogets syntaks, men også om indhold (semantik) og den videre mening i brugen af forskellige udtryk. Inden for snævre områder kan man dog formalisere segmenter af det naturlige sprog (fx juridiske lovtekster).

Syn (vision) er et selvstændigt AI-felt, der bl.a. omfatter forskning i linje- og teksturdetektion, dybdesyn, objektgenkendelse, mønstergenkendelse i billedbehandling og sensomotorisk kontrol i robotter. Forskningen er stadig på et eksperimenterende stadium og ret langt fra resultater med fx selvkørende biler eller robotter, der fejer gader og opsamler skrald. Såkaldt autonome agenter, ofte modelleret over insekters bevægelsesmåde, er et felt, hvor AI grænser op til kunstigt liv.

Kommentarer

Din kommentar publiceres her. Redaktionen svarer, når den kan.

Du skal være logget ind for at kommentere.

eller registrer dig