Nieuw onderzoek toont aan dat de structuur van woordenschat crucialer is dan vrije woordvolgorde voor hoe AI-modellen talen leren.

Waarom hebben sommige talen zoals Tsjechisch een vrije woordvolgorde, terwijl andere talen zoals het Engels een vaste structuur vereisen? Nieuw onderzoek met transformer-taalmodellen werpt een verrassend licht op deze fundamentele vraag in de taalkunde.
Onderzoekers hebben transformer-modellen getraind op een breed spectrum van synthetische woordvolgorde-varianten van natuurlijke talen. Door deze systematische aanpak konden ze precies meten hoe verschillende aspecten van taalstructuur de leerbaarheid beïnvloeden.
De resultaten tonen aan dat grotere onregelmatigheid in woordvolgorde consequent leidt tot hogere model-surprisal - een maat die aangeeft hoe moeilijk het model de taal vindt om te leren. Dit suggereert dat onregelmatige woordvolgorde inderdaad de computationele leerbaarheid vermindert.
Opvallend genoeg had het volledig omdraaien van zinnen slechts een zwakke invloed op de leerbaarheid. Dit wijst erop dat de globale richting van een zin minder belangrijk is dan andere structurele eigenschappen van de taal.
Een grove indeling tussen talen met vrije woordvolgorde (zoals Tsjechisch en Fins) en talen met vaste woordvolgorde (zoals Engels en Frans) blijkt de variatie tussen talen niet adequaat te verklaren. Dit resultaat daagt de traditionele linguïstische categorisering uit.
De belangrijkste ontdekking van het onderzoek is dat de structuur van de woorden- en subwoordenschat een veel sterkere voorspeller is van model-surprisal dan de woordvolgorde-eigenschappen zelf. Dit betekent dat hoe woorden zijn opgebouwd en georganiseerd binnen een taal fundamenteler is voor computationele leerbaarheid dan eerder werd aangenomen.
Deze bevindingen hebben belangrijke implicaties voor de ontwikkeling van meertalige AI-systemen. Door te begrijpen dat vocabulaire-structuur een sleutelrol speelt in leerbaarheid, kunnen ontwikkelaars beter geïnformeerde beslissingen nemen bij het ontwerpen van tokenization-strategieën en training-datasets.
Het onderzoek suggereert dat AI-modellen mogelijk meer baat hebben bij optimalisatie van vocabulaire-representatie dan bij het specifiek aanpassen aan verschillende woordvolgorde-patronen.
De studie biedt een frisse computationele blik op klassieke vragen in de taalkunde. Door transformer-modellen als testomgeving te gebruiken, kunnen onderzoekers hypotheses over taalstructuur op een empirische manier toetsen die voorheen niet mogelijk was.
Dit type onderzoek vormt een brug tussen theoretische taalkunde en praktische AI-ontwikkeling, waarbij beide velden profiteren van elkaars inzichten en methodologieën.

Onderzoekers ontwikkelen S3T-Former, een energiezuinige spiking neural network voor skelet-gebaseerde actieherkenning die de problemen van traditionele AI-modellen oplost.

ClawWorm is de eerste zelfkopiërende malware voor AI-agenten, met een infectiekans van 64,5% via één enkel bericht.

Onderzoekers ontwikkelen geavanceerd AI-systeem dat externe visuele tools gebruikt om gezichtsvervalsingsbeter te detecteren via stap-voor-stap redenering.