OREGLERAT. Problemet är inte att många i framtiden kommer att använda AI för att automatisera textproduktioner. Utan problemet och farhågorna, som mycket inom diskussionen om AI handlar om idag, är att det saknas en reglering, skriver Mathias Jansson.
Efter att ha besökt den surrealistiska delen av YouTube med märkliga barnvideor beslöt sig konstnären Jacob Broms Engblom för att skapa sin egen barnkanal. På YouTube finns nämligen en hel del kanaler som riktar sig till barn med färgglada lågbudgetanimationer med barnsånger och visor som ofta är helt absurda och surrealistiska för vuxenvärlden.
Kanalerna är ofta skapade med baktanken att locka besökare genom att man använder sig av automatiserade sökoptimeringar där specifika sökord finns med i beskrivningarna och texterna. Engblom använde sig därför av ett AI program för att skapa kanalen Brain Nursery Egg TV. Varje dag laddar en AI automatiskt upp en ny video med texter och videoklipp baserat på material från liknande YouTube kanaler.
Förutom att vara ett intressant konstprojekt om hur konstigt det kan bli med automatiserat innehåll så ger Brain Nursery Egg en kuslig inblick i hur framtidens internet kan se ut om man låter AI robotar härja fritt och skapa innehållet.
När den amerikanska datorforskaren Joseph Licklider 1962 skissade på ett “intergalaktiskt nätverk” som skulle koppla samman all världens datorer så såg han kanske framför sig hur vi i framtiden skulle kunna kommunicera med utomjordiska varelser. På 1990-talet blev World Wide Webb verklighet och internet blev tillgängligt för allmänheten. I början det fanns en utopisk grundtanke att internet skulle göra all information fri och tillgänglig och man ska kunna kommunicera med människor från hela världen
Antal internetanvändare och uppladdat material har sedan dess stadigt ökat och begreppet Big Data försöker omfamna dessa enorma mängder material som produceras av användarna.
Det som Licklider kanske inte förutsåg med sin skiss till ett “intergalaktiskt nätverk” var att de icke mänskliga varelserna som vi skulle kommunicera med på internet inte kom från rymden utan bestod av AI och att de dessutom skulle producera större delen av materialet på internet i framtiden.
Under 1800-talets industrialisering automatiserades en stor del av tillverkningsindustrin och maskiner tog över många av de monotona fysiska moment som människor tidigt hade utfört. Idag ser vi en annan form av automatisering som handlar om att skapa enklare former av texter, bilder och filmer. Flera nyhetstidningar använder redan idag sig av nyhetsrobotar, så kallade newsbots, som är program som kan leta upp information i olika databaser och själva skapa notiser efter förutbestämda mallar som sportreferat, polisrapporter, börsanalyser etcetera.
Det finns även exempel på nyhetskanaler på Youtube som Breaking News Today som automatiskt skapar inslag genom att hämta referat av populära nyhetsartiklar från internet. Sedan läser en robotröst upp nyheten ackompanjerad av genrebilder valda efter nyckelord i texterna. Den typen av inslag kräver minimal mänsklig insats och kan på löpande band skapa aktuella nyhetsinslag.
Allt eftersom tekniken utvecklas kommer allt mer av texter, filmer och ljudklipp på nätet att vara skapade av botar istället för människor. Risken är förstås stor att samma teknik kommer att användas för att sprida propaganda, spam, hatinlägg och försöka påverka opinionen.
Open AI är ett forskningsinstitut som arbetar med att göra AI tillgänglig med mänsklighetens bästa i åtanke. De har framgångsrikt arbetat med textproducerande algoritmer som klarar av att göra allt längre texter som är svåra att skilja från mänskliga. Deras senaste version GPT-2 vågar de från början inte avslöja hela koden till eftersom de var rädda att den skulle användas för att skapa spam och fakenews.
Istället för att anställa människor till trollfabriker som manuellt sitter och skriver inlägg kan hela processen automatiseras, från att registrera konton på sociala plattformar, skapa trovärdiga profiler och börja lägga upp inlägg. I det snabba flödet behöver texterna inte vara perfekta (de flesta på nätet är inte heller några grammatiska rättstavningsexperter) utan det är i stället mängden som är avgörande. Om tusentals falska konton börjar skriva om samma saker så få det en påverkan på opinionen. Genom textanalys kan en AI även svara på kommentarerna och på sätt bli ännu svårare att skilja från riktiga användare.
De stora internetföretagen arbetar redan aktivt och tar hjälp av AI för att hitta falska konton, fake news och propaganda, men å andra sidan kan en annan aktör använda sig av AI för att träna sig på vilka konton som en AI brukar ta bort och därefter skapa konton som ser ännu mer mänskliga ut tills den andra AI:n inte kan se skillnaden och kanske börjar ta bort mänskliga konton för de ser mest onormala ut.
Risken finns att tekniken blir så bra att antalet fakekonton och hemsidor som drivs av AI, som bloggar, tidningar, forum, butiker etcetera med tiden blir större än riktiga användare.
Det finns en dystopisk framtidsbild av ett internet där människan lämnat internet och AI tar över. På internet kommer AI-botar att producera materialet och tävla mot varandra om att anpassa materialet för att locka andra AI-botar att besöka deras hemsida och gilla deras inlägg. Det kommer med tiden att resultera i en allt mer perverterad och inavlad programkod så att det material som produceras på internet kommer att vara lika bisarrt och surrealistiskt som de filmer som idag laddas upp på Engbloms barnkanal Brain Nursery Egg TV.
Problemet är inte att många i framtiden kommer att använda AI för att automatisera textproduktioner som notiser, produktbeskrivningar, manualer, svara på supportfrågor och andra standardiserade och monotona texter. Utan problemet och farhågorna, som mycket inom diskussionen om AI handlar om idag, är att det saknas en reglering, att det saknas etiska och moraliska riktlinjer och transparens hur dessa texter skrivs och används. Precis som många nyhetssajter idag har information om hur man arbetar redaktionellt borde det i framtiden finnas information om vilka texter som är skapade av en AI och på vilka grunder de är skapade på. Framförallt måste man behålla mänskliga redaktörer som har överblick och kontroll över innehållet som produceras.