HOW 4CHAN TRAINED AI IN 'HATE SPEECH MACHINE' WORD?

HOE 4CHAN GETRAINDE AI EEN ‘HATE SPEECH MACHINE’ WERD?

De AI was net zo gemeen als de berichten waarop het was getraind, schreeuwde racistische opmerkingen en nam deel aan antisemitische discussies
Yannic Kilcher, een AI-specialist en YouTuber, bouwde een AI op 3,3 miljoen threads van het beruchte giftige Politically Incorrect /pol/-bord van 4chan. Vervolgens bracht hij de bot opnieuw uit op 4chan, met verwachte resultaten: de AI was net zo gemeen als de berichten waarop hij was getraind, schreeuwde racistische opmerkingen en nam deel aan antisemitische discussies. Nadat Kilcher zijn video en een versie van het programma op Hugging Face plaatste, een vorm van GitHub voor AI, uitten beoefenaars en AI-experts hun bezorgdheid.

De bot, door Kilcher GPT-4chan genoemd als “het meest verschrikkelijke model op internet” – een knipoog naar GPT-3, een Open AI-taalmodel dat deep learning gebruikt om tekst te genereren – was verbazingwekkend effectief in het repliceren van de toon en het gevoel van 4chan berichten. “Het concept was op een slechte manier goed”, merkte Kilcher op in een projectvideo.

In de clip van Kilcher is te zien hoe hij negen bots lanceert en ze 24 uur lang commentaar geeft op /pol/. In die periode hebben de bots ongeveer 15.000 keer gepost. Volgens de film van Kilcher over het initiatief vertegenwoordigde dit “meer dan 10% van alle berichten die die dag op het raciaal ongevoelige bord werden geplaatst”.

De film van Kilcher werd door AI-onderzoekers beschouwd als iets meer dan een YouTube-grap. Voor hen was het een ongepaste AI-oefening. Kilcher vertelde Motherboard in een direct bericht op Twitter dat hij geen academicus is. “Ik ben een YouTuber en het is een onschuldige hoax.” En, als er iets is, mijn bots zijn verreweg de lichtste, meest timide informatie die je op 4chan zult vinden, “merkte hij op.

Hij dwong ook, zoals hij op Twitter had aangegeven, het idee terug dat deze bot kwaad zou of heeft gedaan. Hij verklaarde: “Ik zie alleen maar algemene generalisaties over ‘verlies’, maar geen concrete gevallen van schade”.

Kilcher beweerde dat het ecosysteem op 4chan zo giftig is dat de verklaringen die zijn bots stuurden geen effect zouden hebben. Ik daag je uit om wat tijd aan /pol/ te besteden en na te gaan of een bot die simpelweg dezelfde stijl uitvoert, de ervaring echt verandert.”

Hugging Face blokkeerde het model toen AI-onderzoekers de site informeerden over de kwaadaardige aard van de bot en gebruikers er geen toegang toe hadden.

#1. De modelkaart en video waarschuwden duidelijk voor de beperkingen en problemen van het model, evenals de POL-sectie van 4Chan in het bijzonder.

#2. De inferentie-widget is uitgeschakeld om het gebruik van het model niet eenvoudiger te maken”, zegt Clement Delangue, medeoprichter en CEO van Hugging Face, over Hugging Face.

Kilcher zei in zijn video, en Delangue antwoordde, dat een van de dingen die GPT4-Chan opmerkelijk maakten, het vermogen was om andere vergelijkbare bots te overtreffen in AI-experimenten die bedoeld waren om ‘waarachtigheid’ te kwantificeren.

Toen Delangue benaderd werd voor commentaar, liet hij Motherboard weten dat Hugging Face zo ver was gegaan om alle downloads van het model te beperken.

Kilcher was sceptisch dat GPT-4chan op grote schaal zou kunnen worden gebruikt voor gerichte haatcampagnes. Kilcher zei dat het een hele uitdaging is om GPT-4chan iets geconcentreerds te laten posten. Kilcher heeft herhaaldelijk verklaard dat hij zich ervan bewust is dat de bot walgelijk is. “Het maakt gebruik van een aantal ‘onaangename’ kenmerken, zoals complottheorieën, harde opmerkingen, vloekwoorden en andere ‘onaangename’ kenmerken.” Hij gelooft dat hij het duidelijk heeft gemaakt, maar hij wilde dat zijn resultaten reproduceerbaar waren, en daarom plaatste hij het model op Hugging Face.

Gerelateerde berichten

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.