När kan man lita på ett AI-system?
Vilka adekvata frågeställningar uppstår när en person använder sig av ett neuralt nätverk som stöd för ett beslut? Den frågan har Lars Holmberg vid Malmö universitet ställt sig i avhandlingen ”Kontextuella neurala nätverk: utmaningar och möjligheter”.
Artificiella neurala nätverk är inspirerade av hjärnans struktur, men skiljer sig på det viset att de inte kan resonera eller förklara varför de kommit fram till ett visst svar. De saknar människans förmåga att kombinera kunskaper och erfarenheter.
Lars Holmberg har utfört designexperiment som utgår från två typsituationer. I den ena presterar de neurala nätverken i paritet med människors kognitiva förmåga.
– I detta fall hjälper oss maskinen med något vi redan kan, fast den gör det exempelvis snabbare. Säg att den ska sortera olika typer av batterier för återvinning. Då kommer den att göra det i stort sett lika noggrant som en människa och vi kan bedöma när och vad som gått fel.
När nätverken överträffar människan
I den andra typsituationen riktar Lars Holmberg sitt fokus på situationer där de neurala nätverken överträffar den mänskliga förmågan.
– Här räcker det inte längre att systemet är användbart, vi måste dessutom veta om resultaten är sanningsenliga (eng:truthful) eftersom det nu är maskinen som är experten.
Lars Holmberg förklarar med ett talande svampexempel.
– Säg att man har ett neuralt nätverk som har till uppgift att känna igen och skilja på olika svampar. Om du då får svaret att det är en champinjon, hur ska du då kunna lita på det? Kanske finns det en giftig svamp som är väldigt lik en champinjon? Vi människor kan sätta in svampen i ett större sammanhang – hur luktar den, när på året plockades den och av vem – den förmågan saknar maskinen.
Människan kommer alltså fram till ett svar genom både en induktiv (erfarenhetsmässig) och en deduktiv (slutledningsmässig) process, till skillnad från de neurala nätverken som saknar den deduktiva komponenten.
Så kan AI närma sig människans process
För att höja sanningsenligheten föreslår Lars Holmberg en modell där de neurala nätverken utvecklar en kapacitet att koppla ihop oberoende begrepp. De vill säga att de närmar sig vår deduktiva process. Och detta genom att nätverken känner igen till exempel former, färger, antal och orientering.
– Så om man visar en kustlinje för en maskin, känns den inte igen enbart genom andra liknande bilder, utan också för att den innehåller vissa kända element som den lärt sig: som hav, strand, horisont etcetera.
I framtiden anser Lars Holmberg att det blir värdefullt att veta varifrån informationen kommer.
– Jag tror det blir viktigt att vi håller isär maskinförklaringar och mänskliga förklaringar. Att vi känner till vad det är för källa till informationen, säger Lars Holmberg vid Malmö universitet.