Digitala influencer-podden | 2024-01-25

Digital etik

Per Axbom och Peter Hellgren står bredvid varandra på Consids kontor.

min

Per Axbom

Han är tech-veteranen som ledsnade på övervakningen och försökte lämna sociala medier. Han vill reglera AI, fördomssäkra algoritmerna och förespråkar omtänksamhet när vi tar fram nya tjänster och produkter.

Per Axbom

Per Axbom

Rådgivare inom digital etik

Per Axbom har många strängar på sin lyra och arbetar dels som rådgivare inom digital etik men även som kommunikationsstrateg, föreläsare, lärare, UX-expert och författare till boken Digital omtanke. Boken och Pers hemsida hittar du här: https://axbom.com/info/

Digital etik

Lyssna via

Tidskoder och citat.

2.32 Per om det han jobbar med.

”Den mänskliga sidan av IT – människans välbefinnande, välmående och att känna trygghet och kontroll över tekniken. För det är ju hela tiden en dans mellan en människa och maskin, och det viktiga för mig är att människan känner att det är den som har kontroll.” 

3.16 Så fastnade Per för digital etik. 

”Jag tror att det fanns en vändpunkt när jag satt och jobbade med Sveriges nationella plattform för beteendeterapi, jag var lead designer på den…(jag insåg att) om någonting går snett på grund av att jag har byggt eller designat lösningen på ett konstigt sätt, så råkar jag inte illa ut. Jag som utvecklare, tekniker eller designer, är helt ansvarsfri, den som råkar illa ut det är vårdgivaren. Och jag blev beklämd av att inse att det är på det sättet.” 

5.59 Per om verklig fara, relaterat till AI. 

”Det är vad människor utsätts för, i och med att systemen byggs. Det vill säga att man tränar de här maskinerna på information som kan vara ganska förlegad, fördomsfull och innehålla tankar om människor som vi har avfärdat för länge sedan.” 

6.47 Per om inbillad fara, i relation till AI. 

”Den bästa liknelsen jag har läst kommer från Alan Blackwell som precis skrivit boken Moral Codes. Han pratar om den här föreställningen om att en algoritm plötsligt ska få ett medvetande – ett subjektivt känsloliv och sociala förmågor. Att argumentera på det sättet är ungefär som att säga att om vi får flygplan att flyga snabbare och snabbare, så kommer det till sist värpa ett ägg. Det är som att du byter hela funktionen, som om det vore en darwinistisk evolution.” 

8.24 Om faran i att se AI som ”bara” ett verktyg, som en hammare. 

”Det jag hör är att verktyg är neutrala – de är ofarliga i sig själva – och alla verktyg är jämförbara. Men vi vet ju att om en nappflaska innehåller giftig plast, så kanske inte jag vill mata mitt barn med det. Det betyder ju inte att nappflaskan är oetisk men det finns ändå ett problem där – ett dilemma.” 

9.06 Om risken att bygga in västerländsk bias i AI. 

”Det är en monokultur som både bygger och tillför information till verktyget som ska tjäna en större del av mänskligheten. Ungefär 80% av allt innehåll på internet skapas ju i västvärlden i Europa och Nordamerika, medan den större delen av cyberbefolkningen, alltså de som använder internet, är i resten av världen. Det är en väldig obalans i vem som styr.” 

11.32 Om New York Times stämning mot Open AI. 

”Open AI säger det rakt ut: ’om inte vi kan stjäla information från internet, så kan vi inte bygga de här tjänsterna.’ Och det är ju jättefascinerande att följa. Var kommer vi att landa någonstans? Hur bekväm kommer man vara med att använda ett sådant verktyg i framtiden när man vet att de som har bidragit till att bygga det inte får ersättning?” 

14.36 Hänger lagstiftningen med i den snabba utvecklingen? 

”Finns det någon lagstiftning som ligger före, där man sitter och tittar i en spåkula? ’Vi tror att det här kommer hända nästa år så därför ska vi sätta lagar nu.’ Det är ett jättekonstigt sätt att se på lagstiftning. Man ska också komma ihåg att EU AI Act, som klubbades här i december – det arbetet påbörjades i april 2021, långt innan AI var på allas läppar. Det signalerar ju ändå lite att man är på bollen tycker jag.” 

15.31 Kommer stater ta ledningen över AI-utvecklingen mer framöver? 

”Jag tror att man kommer att bli mer orolig för att bli låst vid de här verktygen, vi kan kalla dem för ’big techs lösningar’, därför att du också får svårt att styra över vad jag får eller inte får göra med de här verktygen.” 

17.58 Om att vår data används för att träna de nya AI-verktygen.  

”Jag tycker man ska vara otroligt medveten om att data är guld just nu. Information är guld. Man behöver mycket mer information för att de här verktygen ska bli bättre och funka på ett tillfredsställande sätt. Sättet att få den informationen är att ta den av dig. Så varenda papper du skriver på nuförtiden kommer att handla om att vi kommer att få använda din data för att träna AI.” 

18.53 Om riskerna med att dagens generativa AI härmar mänskliga uttryckssätt och empati. 

”Eliza-effekten handlar ju om att vi så gärna vill tro på att det här faktiskt är någonting som känner oss och som bryr sig om oss på riktigt. Vi suktar efter det som människor. Det här utnyttjar de här chatbotarna som vi pratar om nu.” 

21.24 Kommer chatbottar komplettera lärarledda lektioner? 

”Jag tror att det finns möjligheter där. Vissa saker kan gå jättebra och vissa saker kan gå jättesnett. Det måste ju finnas människor inblandade som bestämmer sig för, i förväg, vad det är vi försöker uppnå? Hur utvärderar vi det? Vad gör vi om det går snett? Har vi en exit-strategi? Du måste liksom lägga upp en plan för hur du ska agera. Det är det många inte gör.” 

22.25 Om vikten av kontrollerad testning av AI, innan man implementerar det i sina system. 

”Det är det som skrämmer mig mest – att man slungar sig in i någonting utan att riktigt ha koll på alla de här risker som jag beskrivit lite idag. Det finns jättestora fördelar, det finns jättestora risker. Vad ska du göra PR-mässigt om dina kunder börjar fråga: ’varför använder ni ett verktyg där ni vet att materialet kan innehålla bilder från övergrepp?’ Kan du svara på den frågan? Finns det gränser för vad ditt företag är berett att gå med på? Har ni pratat om de sakerna?” 

23.43 Här finns de största möjligheterna med AI.

”AI är ju fantastiskt om vi pratar om maskininlärning och de här systemen som används för att hitta mönster i väldigt stora mängder av data. Jag ser ju på jordbruk – att kunna förutse var man ska plantera vad, baserat på väder och på hur folk äter. Det finns stora vinster i stora datamängder.” 

Per sätter sig i Heta stolen. 

Därför lämnade Per sociala medier. 

”Jag insåg hur många som faktiskt sitter dagligdags runt om i världen och sorterar bort väldigt våldsamt innehåll – sexuellt våld, våld mot djur, dygnet runt. De mår väldigt dåligt och får väldigt låg ersättning, för att vi ska slippa se det. Men också att det gick att rikta annonser mot ungdomar med självskadebeteende. Bristen på att ta ansvar för det här, och bristen på förståelse för hur man skadar människor – jag kunde inte ställa upp på det längre.” 

Per rekommenderar ett ämne att ta upp i podden. 

Detta händer framåt runt Per Axbom. 

”Jag vill skriva en ny bok för vanliga människor som är nyfikna på ny teknik: hur ska man hantera lösenord? Hur ska man hantera e-legitimation? Hur ska man 

förhålla sig till vad som händer med sin information efter att man är död? Vanliga konkreta tips om hur ska jag hantera tekniken som alla nu säger att jag måste använda. Och det andra är att jag precis är i startgroparna med en tankesmedja som heter Dataskuggan, som ska handla om att skapa debatt, opinionsbildning och forska i de här frågorna runt en mänskligare digitalisering.” 

https://axbom.com/info/

Per Axbom

Lyssna fler avsnitt

Har du förslag gäst till podden?

0 / 255
Integritetspolicy