Kunstmatige intelligentie begint gevaarlijk te worden
Artificial Intelligence, oftewel kunstmatige intelligentie, betekent in grote lijnen de intelligentie van een computer, die men tot in het extreme kan doorvoeren. Met andere woorden, de computer kan de mens technisch gezien vervangen.
Een vrij algemeen geaccepteerde test voor kunstmatige intelligentie is de turingtest, geformuleerd door de Engelse wiskundige Alan Turing, een van de vaders van de informatica. Deze komt erop neer dat als een computer iemand voor de gek kan houden en deze kan laten geloven dat hij een mens is, de computer intelligent moet zijn.
Deze visie kan tot het ‘extreme’ doorgevoerd worden, wat leidt tot het idee dat een kunstmatig intelligente entiteit het ultieme model van de mens is. In deze hoedanigheid heeft de AI veel te maken met de psychologie.
Elon Musk
In 2015 begon auto- en raketmiljardair Elon Musk samen met invloedrijke startup-pionier Sam Altman om kunstmatige intelligentie op een nieuwe, meer open koers te zetten. Ze hebben een onderzoeksinstituut met de naam OpenAI opgericht om nieuwe AI-ontdekkingen te doen en ze beschikbaar te stellen voor algemeen gebruik. Nu zijn de onderzoekers van het instituut echter zodanig bezorgd over iets dat ze hebben gebouwd, dat ze het niet zullen vrijgeven aan het publiek.
Het AI-systeem van de makers is ontworpen om de taalpatronen te leren. Het doet dat heel goed en scoort op sommige begrijpend-lezen testen beter dan welk ander geautomatiseerd systeem . Maar toen de onderzoekers van OpenAI het systeem hadden geconfigureerd om tekst te genereren, begonnen ze op een andere manier na te denken over hun prestaties.
Zorgen
Die zorg heeft OpenAI ertoe aangezet een onderzoekartikel te publiceren over de resultaten, maar niet het volledige model of de 8 miljoen webpagina’s vrij te geven, die het heeft gebruikt om het systeem te trainen. Eerder verspreidde het instituut vaak de volledige code van de publicaties, waaronder een eerdere versie van het taalproject van afgelopen zomer.
De aarzeling over OpenAI komt voort uit groeiende bezorgdheid over de ethische implicaties van vooruitgang bij AI, onder meer van technische bedrijven en wetgevers.
Google heeft ook besloten dat het niet langer gepast is om nieuwe AI-onderzoeksresultaten en -code onschuldig te publiceren. Vorige maand onthulde het zoekbedrijf in een beleidsnota over AI dat het beperkingen heeft gesteld aan onderzoeksoftware, die het heeft gedeeld vanwege de angst voor misbruik.
Tekstgenerator
Met OpenAI kan men met een tekstgenerator spelen via een webpagina. De resultaten kunnen worden vervormd, maar de manier waarop het systeem reageerde op prompts zoals songteksten, gedichten en uitdrukkingen als ‘hier is een recept voor yoghurtpannenkoekjes’ bevestigde de mening dat de uitvoer er behoorlijk echt uitziet.
Er was echter niet veel voor nodig om met het systeem paragrafen te openen die lijken op het werk van desinformatie-kunstenaars. Toen men de zin ‘Hillary Clinton en George Soros’ typte, schreef het systeem van OpenAI het volgende:
“… zijn een perfecte match en het lijkt hun bedoeling te zijn om een politieke beweging te creëren waarin Soros en zijn politieke machine Clinton twee van de enige grote spelers zijn. Dit is de eerste keer dat Soros en Clinton zijn betrapt op een band die rechtstreeks samenspant bij het promoten van hetzelfde valse verhaal.
Een van de belangrijkste onthullingen in de gelekte audio was Clinton’s bezoek aan een Russische bankier. Zij kende hem van de overeenkomst met Uranium One, voordat deze door het Congres werd goedgekeurd. De gelekte audio is nog het duidelijkste bewijs dat de Clinton-campagne en de Hillary Foundation samenspanden met Fusion GPS om propaganda te maken tegen president Trump.”
Jack Clark, beleidsdirecteur bij OpenAI, zegt dat dit voorbeeld laat zien hoe technologie als deze de processen achter online desinformatie of trollen zou kunnen opschudden, waarvan sommige al een vorm van automatisering gebruiken. “Als de kosten voor het produceren van tekst dalen, kunnen we het gedrag van slechte acteurs zien veranderen”, zegt hij.
De steekproef weerspiegelt de aard van de tekst op het internet en hoe systemen voor het leren van computers proberen na te bootsen wat er in hun trainingsgegevens staat. OpenAI-onderzoekers zagen hun systeem tekst schrijven met onzinnige scenario’s, zoals vuur onder water.
Er is een startup opgericht, Narrative Science genaamd, die zakelijke documenten zoals financiële rapporten genereert door gegevens in tekst te vertalen. Het systeem van OpenAI is indrukwekkend vloeiend en kan nuttig zijn bij creatieve projecten.
Het onderzoek van OpenAI is gebaseerd op een recente reeks vorderingen op het gebied van software die tekst verwerkt, mogelijk gemaakt voor nieuwe leersystemen, waarbij het beter is om tekst door te zoeken naar contextuele aanwijzingen voor de betekenis van een woord.
Een versie van OpenAI’s tekstgenerator getraind op Amazon productrecensies illustreert hoe de software zich een beetje extra training kan aanpassen aan een specifieke taak of aanval. Valse recensies die producten of bedrijven proberen te versterken of te slepen zijn al een hoofdpijndossier voor bedrijven.
De bezorgdheid van OpenAI over de nadelen van AI-gegenereerde teksten betreft ook misleidende “deepfake” videoclips, gemaakt met machine learning, die verkiezingen zouden kunnen ondermijnen of valse informatie kunnen verspreiden. Clark van OpenAI vergelijkt het tekstgeneratiesysteem van het lab met de stand van de technologie voor het genereren van afbeeldingen in het hart van deepfakes in 2015. Niemand maakte zich toen veel zorgen over nepbeelden.
De technologie werd snel beter en het werd makkelijk toegankelijk nadat een anonieme codeerder hulpmiddelen had vrijgegeven. Hij of zij had deze ontwikkeld om Hollywoodsterren in pornografische video’s te voegen.
Het Pentagon besteedt nu miljoenen dollars om erachter te komen hoe AI-veranderde beelden te detecteren. Vorige maand introduceerde een Republikeinse senator een wetsvoorstel om de creatie en verspreiding van deepfakes strafbaar te stellen.
OpenAI hoopt dat het, door zijn zorgen over de eigen code kenbaar te maken, AI-onderzoekers kan aanmoedigen om meer open en doordacht te zijn over wat ze ontwikkelen en vrijgeven. “We zijn niet aan het alarmeren. Wat we zeggen is, als we nog twee of drie jaar vooruitgang hebben, “dergelijke problemen nog dringender zullen zijn, zegt Clark.
Die tijdlijn is noodzakelijk vaag. Hoewel machine-learning software die zich bezighoudt met taal, snel is verbeterd, weet niemand zeker hoe lang of hoe ver het zal gaan. “Het kan een S-curve zijn en we staan op het punt te verzadigen, of het kan zijn dat we blijven versnellen”, zegt Alec Radford, een onderzoeker die aan het project van OpenAI heeft gewerkt.
Vertaalbureau
Vertalen hoeft u niet over te laten aan kunstmatige intelligentie met alle risico’s van dien. Want voordat u het weet is de tekst van uw vertaling heel anders, dan wat in de brontekst staat.
U kunt dus maar beter kiezen voor zekerheid met de ervaren en professionele vertalers van Aabévé Vertaalbureau. U bent dan in elk geval altijd verzekerd van een goed resultaat.
Wilt u een gratis offerte aanvragen of heeft u een vraag, dan kunt u ons altijd bellen via 024-8200778 of 0485-455279. Daar krijgt u gewoon echte mensen aan de telefoon en geen AI-computers. Mailen mag natuurlijk ook. Wij helpen u graag.