top of page
Skribentens bildSustainability Circle

Det är inget race för det finns inget mål

Uppdaterat: 16 mars 2019

Två dagar med AI, eller snarare med BI om AI (Biologisk Intelligens = människor) . Någonn faktisk AI undrar jag om jag såg.

Det är ett av intrycken att det är inte alldeles enkelt att förstå vad AI är och vad det omfattar. För att få AI måste många delar utvecklas vidare. Delarna måste också fungera tillsammans. Och så skall systemet fungera i samhället. Därmed är det ganska mycket kvar, jag tror kanske mer efter de här två dagarna än vad jag trodde innan. Men därmed behövs också mer diskussioner och utveckling och utbildning än vad jag också trodde och med fler olika ämnesföreträdare. AI är verkligen en samhällsfråga som inkluderar teknik, inte en fråga för tekniker.


En reflektion över ett AI seminarium blir både specifikt och generellt, både tekniskt och allmänt. Därmed min ursäkt för att en del nedan kan uppfattas som ”tekniskt”, ”detaljerat”.

Orka hela texten eller hoppa till slutet för den geniala (?) slutsatsen


Inspel under andra dagen från Professor Terry Regier from Language and cognition lab at Berkeley:

Textigenkänning är ett område där AI används aktivt redan idag. Tekniken idag baseras på Distributional semantics - You shall know a word by the company it keeps (Firth, J. R. 1957). I grunden så tolkar man ords betydelse baserat på andra ord runtomkring. För maskinlärning så har det vart en praktisk metod och lämplig för matematiken och datorerna. Men inte alltid helt korrekt och helt effektiv.

Professor Regier argumenterar för en annan approach. Som kan anses ingå i området Cognitively informed Artificial Intelligence, dvs AI som inte lär sig baserat på ”teknisk” analys av data utan AI som lär sig baserat på smarta regler givna med cognitiv intelligens. Professor Regier presenterade en teori att alla språk följer en formel som baseras på att man gör språket precis så komplicerat som krävs för att förståelsen skall bli så korrekt som möjligt. Om man kan tydligt härleda den formeln så är det en mer effektiv grund för maskinlärning inom textigenkänning.


Väldigt intressant eftersom det handlar om språk som vi alla kan relatera till, men lite oklart hur steget till tillämpning skall se ut, i alla fall för mig. Kanske beroende på att det inte är ett utan flera steg som krävs.



En representation över hur olika språk beskriver färger. Professor Regier använde den som grund för att bevis att det finns en universell regel ”language-specific solutions to a universal functional challenge: that of communicating precisely while using minimal cognitive resources”

Ett annat område där maskinlärning används aktivt är bildigenkänning. Professor Andreas Geiger, ansvarig för Autonomous Vision Group (AVG)vid universitet i Tübingen, Germany, gav en både historisk överblick och visionär presentation om området. Målet för hans forskning är att göra AI system som självkörande fordon och framtida hushållsrobotar mer effektiva, robusta och säkra genom utvecklade vision system.


I grunden är ett vision system inversen, det omvända, av ett grafiksystem. Men det är svårare att återskapa den tredjedimensionens information som man förlorat när man gjort en 2D bild av verkligheten än vad man kan tro.

Professor Geigers spaning är att utvecklingen måste leda till att vision systemet inte fungerar i isolation. Det måste ta hänsyn till sammanhanget. Orsaken är som många andra sagt att nuvarande teknik är för dyr vad gäller etikettering av data och lärotider för algoritmerna.

Visionsystemet måste också anpassas till kontrollsystemet. I en bil är kontrollsystemet enkelt utryckt styr och bromsa. Det är enkelt jämfört med en hushållsrobot som har många mer frihetsgrader. Därmed sagt att systemen för autonoma fordon kommer att bli robusta fortare och att det kommer att behövas ytterligare utveckling för andra kontrollsystem.


Jag blev introducerad till begreppet Catastrophic forgetting. I grunden har ett Deep Neural Network, DNN inget minne, vilket är ett problem igen i relation till data och lärotider. Vi som människor kommer ibland ihåg vad vi lärt och behöver inte lära om hela tiden. Men det behöver DNN. Och eftersom data ändras kanske lösningen och logiken ändras på ett sätt som vi inte önskar.


Han hade ett bra svar på en fråga om hur vi skall hantera situationen om vi skall köra på en hund eller en människa? Lös först de enkla problemen, vilket pekar på att det är mycket jobb kvar innan vi verkligen är där diskussionen påstår att vi skall hamna.


Det som blir viktigt då är påståendet och känslan av att allt går fort. Om vi fort kommer till att vi måste kunna svara på frågan om hund eller människa så behöver vi absolut börja diskussionen nu, eftersom den diskussionen inte är enkel och måste få ta tid.


Det var också dessa mer etiska och samhälleliga aspekter som de återstående två föredragen handlade om.


Först ut var Virginia Dignum, Professor vid Umeå universitet som leder en forskningsgrupp inom Social and Ethical Artificial Intelligence. Hon är med i European Commission’s High-Level Expert Group on Artificial Intelligence (AI HLEG)

,som har tagit fram förslag till etiska priniciper på uppdrag av EU, Etiska riktlinjer för ett pålitligt AI. Utkasten finns tillgängliga här


Hon opponerar mot påståendena att det är ett AI race. Det skämtades under konferensen om tävling mellan Sverige och Finland. Och diskuterades ofta vad Sverige behöver göra för att vinna racet. Svaren alltid samarbeta och fokusera. Men det är inget race för det finns ingen mållinje. Utvecklingen kommer att fortsätta och mållinjen flytta sig.




AIs egenskaper måste mötas med rätt princip. Autonomi med ansvartagande, interaction med ansvarsutkrävande, anpassningsbarheten med tydlighet och öppenhet

Professor Dignums sammanfattade budskap:

  • · AI påverkar och påverkas av våra sociala system, vårt samhälle

  • · Design av AI är aldrig värderingsfri

  • · Öppenhet och tydlighet är nödvändigT Ansvarstagande, ansvarsutkrävande och öppen.

  • · Optimal AI är Explainable AI

  • · AI är saker byggda av oss människor för våra syften

  • · Vi sätter gränserna


Dagens sista talare, Elaine Weidman Grunewald, från det nystartade AI Sustainability Center. Målet är att tekniken skall vara nyttig och användas för allmän nytta och samhällets bästa. Varför behöver vi prata extra om AI, jo för att det är självlärande, självförökande och självväxande.

Deras verksamhet ligger nära Sustainability Circle. De vill belysa hållbar utveckling i relation till AI. Vi jobbar med Hållbar Utveckling ur ett underhållsperspektiv. Lika och överlappande, kompletterande.


De saker man skall vara särskilt uppmärksam på som risker för ett hållbart AI är:

· Felanvänding och överanvändning av data. GDPR är en startpunkt, men det behövs mycket mer diskussioner om hur vi skall hantera data

· Fördomar och brister hos den som skapat AI. Det är alltid en människa med en människas fel och brister bakom AI.

· Omogen AI. Om det är för lite eller fel data, i relation till algoritmerna, som använts för lärandet kan rekommendationerna bli helt fel, till och med oetiska.

· Fördomar och brister i data. Ofta är den data som används inte en korrekt beskrivning av verkligheten. Vidare utveckling baserat dålig data riskerar bekräfta och permanenta fel och fördomar.


Elaine visade en kort del av ett spännande Ted talk med Robin Hauser. Hur skyddar vi oss mot fördomar i AI? Och hur skyddar vi AI mot våra fördomar, mot de som har onda avsikter och vår egen okunnighet.

Om vi använder data från historien får vi då den framtid vi vill ha?

Nuvarande fokusområden där de vill starta projekt är:

  • · AI Governance

  • · Fördomar och rättvisa

  • · Tydlighet och öppenhet

  • · Bidrag till FNs 17 globala mål och den digitala klyftan


Mellan Key note speakers var det flera paneldiskussioner. Den här bilden tyckte jag var bra. Igen det ingår många delar, vi kan inte undervisa i AI vi måste undervisa i dess komponenter. Men om vi inte kallar det AI får vi inga studenter. Jag håller också med om att bara för att vi nu har en hammare (AI) så är inte alla problem en spik. Välj rätt lösning och försök ibland lösa det enkelt.

På en vetenskaplig konferens är det lätt att det blir tekniken för teknikens egen skull. Men i grunden har vi AI för att:

  • · Öka värde, intäkter

  • · Minska förluster, kostnader

  • · Genombrott och innovationer, bota cancer tex, vilket egentligen kan anses på sikt falla in i de första två.

Men i ”bubblan” blir det lätt att ta tekniken för teknikens skull. Men om detta inte ger mer intäkter, eller lägre kostnader så är det inget vi skall lägga tid på.


Detta kommer inte hända om vi inte samverkar tvärs kompetenser. Skall man lösa alla problem i sin silo är lösningen långt borta men om man kan hitta bra samarbeten mellan kunskapsområden och bygga nya system anpassade för de aktuella problemen kanske lösningarna kan komma fortare. Svaren finns på systemnivå, inte komponentnivå. Men även om vi allmänt anses duktiga på att samarbeta så är det inte okomplicerat. Vi missförstår, har olika prioriteringar och är människor i största allmänhet. Tack och lov!


Chalmers har publicerat presentationer och videos från konferensen på denna länk. Kolla gärna vidare!

20 visningar0 kommentarer

Senaste inlägg

Visa alla

Comments


bottom of page