Nieuw onderzoek toont aan dat de structuur van woordenschat crucialer is dan vrije woordvolgorde voor hoe AI-modellen talen leren.

Waarom hebben sommige talen zoals Tsjechisch een vrije woordvolgorde, terwijl andere talen zoals het Engels een vaste structuur vereisen? Nieuw onderzoek met transformer-taalmodellen werpt een verrassend licht op deze fundamentele vraag in de taalkunde.
Onderzoekers hebben transformer-modellen getraind op een breed spectrum van synthetische woordvolgorde-varianten van natuurlijke talen. Door deze systematische aanpak konden ze precies meten hoe verschillende aspecten van taalstructuur de leerbaarheid beïnvloeden.
De resultaten tonen aan dat grotere onregelmatigheid in woordvolgorde consequent leidt tot hogere model-surprisal - een maat die aangeeft hoe moeilijk het model de taal vindt om te leren. Dit suggereert dat onregelmatige woordvolgorde inderdaad de computationele leerbaarheid vermindert.
Opvallend genoeg had het volledig omdraaien van zinnen slechts een zwakke invloed op de leerbaarheid. Dit wijst erop dat de globale richting van een zin minder belangrijk is dan andere structurele eigenschappen van de taal.
Een grove indeling tussen talen met vrije woordvolgorde (zoals Tsjechisch en Fins) en talen met vaste woordvolgorde (zoals Engels en Frans) blijkt de variatie tussen talen niet adequaat te verklaren. Dit resultaat daagt de traditionele linguïstische categorisering uit.
De belangrijkste ontdekking van het onderzoek is dat de structuur van de woorden- en subwoordenschat een veel sterkere voorspeller is van model-surprisal dan de woordvolgorde-eigenschappen zelf. Dit betekent dat hoe woorden zijn opgebouwd en georganiseerd binnen een taal fundamenteler is voor computationele leerbaarheid dan eerder werd aangenomen.
Deze bevindingen hebben belangrijke implicaties voor de ontwikkeling van meertalige AI-systemen. Door te begrijpen dat vocabulaire-structuur een sleutelrol speelt in leerbaarheid, kunnen ontwikkelaars beter geïnformeerde beslissingen nemen bij het ontwerpen van tokenization-strategieën en training-datasets.
Het onderzoek suggereert dat AI-modellen mogelijk meer baat hebben bij optimalisatie van vocabulaire-representatie dan bij het specifiek aanpassen aan verschillende woordvolgorde-patronen.
De studie biedt een frisse computationele blik op klassieke vragen in de taalkunde. Door transformer-modellen als testomgeving te gebruiken, kunnen onderzoekers hypotheses over taalstructuur op een empirische manier toetsen die voorheen niet mogelijk was.
Dit type onderzoek vormt een brug tussen theoretische taalkunde en praktische AI-ontwikkeling, waarbij beide velden profiteren van elkaars inzichten en methodologieën.

Nieuw AI-systeem voorspelt minimaal benodigde beeldresolutie voor visuele taalmodellen, wat tot 80% minder rekenkracht kan opleveren.

Nieuwe techniek gebruikt superklassen om AI-modellen robuuster te maken tegen misleidende patronen zonder handmatige labels.

Onderzoekers ontwikkelden HATL, een adaptief leerframework dat de vertaling van gebarentaal naar tekst significant verbetert door slim gebruik van voorgetrainde AI-modellen.