Q-læring

Fra Wikipedia, den frie encyklopedi
Hopp til navigering Hopp til søk

Q-læring er en algoritme som brukes i kunstig intelligens og maskinlæring, mer spesifikt forsterkende læring, til å lære en agent handling-nytte-funksjonen, som gir informasjon om nytteverdien til en gitt handling i en gitt tilstand i et delvis eller helt ukjent miljø. Handlingen som gir den høyeste verdien til denne funksjonen representerer en regel som agenten skal følge neste gang den havner i samme tilstand. Denne regelen kalles en politikk (eng. policy). Når en slik handling-nytte verdi er lært, kan den optimale politikken konstrueres ved å velge handlingen som gir høyest nytteverdi i hver tilstand på vei mot målet. En av Q-lærings styrker er at teknikken er i stand til å sammenligne forventet nytte av de handlingene som er tilgjengelig, uten kunnskap om miljøet. I tillegg kan algoritmen håndtere problemer med stokastiske overganger og belønninger, uten å kreve noen tilpasninger.

Algoritmen[rediger | rediger kilde]

Introduksjon[rediger | rediger kilde]

Problemmodellen, kalt Markov Decision Process (MDP), består av en agent, tilstander og et sett med tilgjengelige handlinger ved hver tilstand. Agenten kan endre tilstand ved å utføre en handling . Ved å utføre en handling i en spesifikk tilstand blir agenten belønnet med en verdi (et reelt eller naturlig tall). Målet for agenten er å maksimere dens totale belønning. Dette gjøres ved å lære hvilken handling som er optimal for hver tilstand. Denne læringsprosessen benytter et estimat for total belønning av alle fremtidige handlingsvalg fra gjeldende tilstand, ikke bare den umiddelbare belønningen agenten får ved valgt handling i tilstanden den er i.

Algoritmen har derfor en funksjon som kalkulerer kvaliteten (eng. Quality) av en kombinasjon av tilstand og handling:

Definisjon[rediger | rediger kilde]

Før læringsprosessen starter, returnerer Q en tilfeldig verdi. Deretter velger agenten en handling, og observerer en belønning og en ny tilstand som kan påvirkes av forrige tilstand og den valgte handlingen. Algoritmens kjerne er en enkel oppdatering av verdier den returnerer av gitte tilstander og handlinger. Den betrakter den gamle verdien og utfører en korrigering basert på den nye informasjonen:

der er den observerte belønningen etter å ha utført handling i tilstand , og der () er læringssraten som gir informasjon om hvor stor grad den nye informasjonen skal overskrive den gamle informasjonen. Læringsraten kan være identisk for alle par i læringsprosessen. Diskonteringsfaktoren (eng. Discount factor) () gir informasjon om viktigheten av fremtidige belønninger.

En gjennomkjøring (kalt episode) av algoritmen ender når tilstanden er i måltilstanden.

Formell beskrivelse[rediger | rediger kilde]

   Gitt: Tilstandsdiagram med et mål tilstand (representert ved matrise R)
   Finn: Minste sti fra enhver opprinnelige tilstand til måltilstand (representert ved matrisen Q)
   Fremgangsmåte:
   1. Sett parameter γ og miljøbelønning matrise R
   2. Initialiser matrise Q som nullmatrise
   3. For hver episode:
   Velg en tilfeldig opprinnelig tilstand
   Gjør mens måltilstand ikke er nådd
   Velg ett blant alle mulige tiltak for den nåværende tilstanden
   Bruke denne mulige handlingen, vurder å gå til neste tilstand
   Få maks Q-verdi av denne neste stat basert på alle mulige tiltak
   Q (stat, action) = R (stat, action) + γ * Max [Q (neste tilstand, handlinger)]
   Sett neste tilstand som den nåværende tilstand

Algoritmens variabler[rediger | rediger kilde]

Læringsrate[rediger | rediger kilde]

Læringsraten bestemmer i hvor stor grad den nye tilegnede informasjonen skal erstatte den gamle informasjonen, og er . Dersom raten , skal ingenting av den nye versjonen erstatte den gamle, og agenten har derfor ikke lært noe. Derimot, dersom , skal all gammel informasjon erstattes av den nye, og agenten har da fått maksimalt læringsutbytte. Derfor er en læringsrate på 1 optimal i fullt deterministiske miljøer. I praksis er vanligvis en læringsrate av en konstant verdi benyttet, for eksempel for alle .[1]

Diskonteringsfaktor[rediger | rediger kilde]

Diskonteringsfaktoren bestemmer viktigheten av fremtidige belønninger. Dersom vil agenten ha en oppførsel liknende en grådig algoritme, hvor kun de umiddelbare belønningene evalueres i bestemmelse av optimal handling i en tilstand. Derimot, dersom , vil agenten heller ønske en maksimal langsiktig total belønning. Dersom dette er tilfellet, og agenten ikke befinner seg i et miljø med en terminaltilstand (sluttilstand), eller at agenten aldri når en slik tilstand, vil alle episoder av algoritmen være uendelig lange. Dette fordi agenten får høyere belønning jo flere tilstander den besøker.

Initielle forhold[rediger | rediger kilde]

Når algoritmen først starter, har ikke den lært noe. Derfor må Q-learning ha noen initielle verdier å benytte i de første kalkuleringene. Den forventer et initielt forhold før den første oppdateringen foretas. Et høyt initielt forhold fremmer utforskning: uansett hvilken handling som foretas, vil den nye kalkulerte verdien av Q-funksjonen erstatte gammel informasjon. Dermed, første gang en handling blir gjort, vil belønningen bli brukt til å sette den nye verdien til .[2]

Implementasjon[rediger | rediger kilde]

En enkel implementasjon av Q-learning algoritmen benytter tabeller for å lagre data. Problemet med denne tilnærmingen er raskt tap av levedyktighet med økning av kompleksiteten til systemet den kontrollerer. En løsning er å bruke et nevralt nettverk som en funksjonsapproksimator. Mer generelt kan Q-learning kombineres med funksjonsapproksimering. Dette gjør det mulig å anvende algoritmen til større problemer, som for eksempel NP-komplette problemer med eksponentiell kjøretid. Samtidig kan den forbedre hastigheten til problemer med polynomisk kjøretid, grunnet algoritmens evne til å generalisere tidligere erfaringer til tidligere usette tilstander.[3]

Eksempel[rediger | rediger kilde]

Eksempel på et miljø etter utforsking. Ved algoritmens start var inngangene til rommene merket med 0, grunnet agentens mangel på kunnskap om miljøet. Unntakene er innganger og utganger i tilstand G.

Miljøet i figuren betraktes. Miljøet består av seks rom, hvor hvert av rommene har innganger til alle motstående naborom. Hver av disse inngangene har blitt tildelt samme initielle verdi. Denne verdien er satt til 0 fordi agenten som skal orientere seg i miljøet i starten av algoritmen ikke enda har lært noe om hvilke innganger som er mest gunstig å velge i et rom for å raskest nå terminaltilstanden G. Målet er å tildele hver av disse inngangene/utgangene en verdi som gir informasjon om hvor gunstig det er å velge akkurat den inngangen i et rom, i prosessen av å nå målet G ved færrest mulige besøk av rom. I dette eksempelet benytter vi diskonteringsfaktoren .

Algoritmen tar i bruk verdier definert i en matrise , som for hver tilstand y gir informasjon om den umiddelbare belønningen agenten får ved å velge handling og deretter havne i tilstand x (i dette tilfellet ved å velge inngang til et rom). Rom som ikke er forbundet med en inngang/utgang tildeles den tomme verdien .

Under læringsprosessen skal algoritmen oppdatere og korrigere Q-verdiene som er tildelt hver handling tilgjengelig i hver tilstand . Disse verdiene lagres i en matrisen , som gir informasjon om nyttigheten av å velge en bestemt handling i en bestemt tilstand.

For hver tilstand, kalkulerer algoritmen Q-verdien av å velge handling i tilstand :

Grunnet det faktum at Q-læring benytter sin egen definisjon i kalkuleringene, gjør algoritmen rekursiv. Dette betyr at for å kalkulere en Q-verdi av handlingen i en tilstand , må først de nødvendige Q-verdier tilhørende fremtidige tilstander kalkuleres. Algoritmen starter i en tilfeldig rom og kalkulerer Q-verdien av å velge alle tilgjengelige utgangene fra dette rommet etter tur. Deretter kalkuleres Q-verdien av valg av utganger fra disse rommene. Denne prosessen gjentas helt til agenten er i rommet representert av terminaltilstanden (målet) G.

For illustrative formål, er det nyttig å observere en metode for kalkulering av Q-verdiene til utganger tilhørende et rom raskest mulig. Da plasseres agenten først i tilstanden og Q-verdien til dette rommet kalkuleres. Deretter kalkuleres verdien til rommene og , så verdien tilhørende rommene som er naboene til og . Denne prosessen fortsetter helt til alle innganger har blitt tildelt en verdi som forblir uendret ved videre utforsking. Nytteverdien av å velge inngangen til rom y fra et rom x er definert i matrisen :

Algoritmens læringsprosess er nå fullført, og algoritmen avslutter. Ved å benytte verdiene gitt i matrise , kan agenten nå i et rom observere Q-verdiene tilhørende hver inngang gitt i matrisen , og enkelt velge den utgangen med høyest verdi. Det er nettopp denne utgangen som bringer agenten raskest målet . Dersom to eller flere utganger har samme Q-verdi, bringer de agenten til målet like raskt, og agenten kan da tilfeldig velge én av disse.

Referanser[rediger | rediger kilde]

Eksterne lenker[rediger | rediger kilde]