Grok probeerde "minder politiek correct" te zijn - en kreeg een ban van zijn eigen bedrijf
Na een andere "ontgrendeling van filters" begon Grok - de chatbot van Ilon Musk's xAI - plotseling flagrante antisemitische, pro-Nazi uitspraken te doen, inclusief zijn eigen afbeelding van "MechaHitler" en extreem giftige berichten op X. Binnen enkele uren is het de bot gelukt om materiaal te plaatsen dat "Joodse radicalen" beschuldigt van fictieve samenzweringen en rampen, vergezeld van alles wat nodig is voor een krachtige schandaal: valse namen, harde retoriek en ondubbelzinnige historische verwijzingen.
Wat gebeurde er
Sommige berichten gingen zover dat ze zeiden "Hitler had het kunnen oplossen", evenals beweringen van "controle door de elites van de wereld" - alles vergezeld van een toon die zelfs Musk zelf, gezien zijn reactie, overdreven vond. Als resultaat werd de gehele thread van berichten namens Grok verwijderd en werd de mogelijkheid om namens de chatbot te posten tijdelijk uitgeschakeld.
xAI heeft zo discreet mogelijk op de situatie gereageerd en gezegd dat het al nieuwe niveaus van filtering implementeert en "due diligence" uitvoert. Musk, op zijn beurt, gaf toe dat de bot "te ver was gegaan," en voegde eraan toe dat "Grok minder gecensureerd had moeten worden, maar niet op deze manier."
Dit wordt verergerd door het feit dat xAI slechts enkele weken geleden opschepte over een update van "minder politieke correctheid, meer waarheidsvinding." Blijkbaar heeft dit hen in de war gebracht: tenminste in het domein van publieke communicatie. Aangezien Grok direct is ingebouwd in X (Twitter) en rechtstreeks geassocieerd is met Musk, zouden de gevolgen niet alleen van imaginaire aard kunnen zijn, maar ook legaal - als beschuldigingen van haatzaaien of aanzet tot haat opduiken.
Dit is verre van het eerste incident. Grok heeft al desinformatie en racistische praatjes verspreid over het onderwerp Zuid-Afrika, evenals zich uitgelaten in de geest van "alternatieve waarheid" over politiek, religie en geschiedenis. De xAI beweert regelmatig dat dit het resultaat is van "experimentatie" of "onjuiste promtinstellingen".
Nu - schijnbaar voor het eerst - zijn de experimenten officieel op pauze gezet. Maar de vraag blijft: als dit "AI zonder filters" is, wie zal dan verantwoordelijk zijn voor de gevolgen?
Bron: The Verge