Robots die niet voor elke specifieke taak opnieuw geprogrammeerd moeten worden, maar zichzelf dingen bijleren, komen dichterbij.
AI heeft het afgelopen jaar veel aandacht gekregen in de media. Ondanks deze vooruitgang blijft menselijke intelligentie superieur als het gaat om de fysieke wereld. Robots moeten vaak voor elke specifieke taak opnieuw geprogrammeerd worden. Maar stel je voor dat we een veelzijdig AI-model kunnen maken dat robots helpt om verschillende taken te leren en uit te voeren. Dat is het doel van foundation models, vergelijkbaar met hoe je allerlei vragen kunt stellen aan grote taalmodellen (LLMs).
Het model π₀ van Physical Intelligence is een baanbrekend voorbeeld hiervan, maar ook andere bedrijven en onderzoekers werken aan dergelijke modellen. Dit model combineert uitgebreide visie-taal pre-training met diverse robot interactie data, waardoor robots in staat zijn om complexe taken zelfstandig uit te voeren, zoals het vouwen van wasgoed of het in elkaar zetten van een kartonnen doos. En dit kan met verschillende soorten robots.
Een grote uitdaging in AI is de nood aan enorme hoeveelheden data om op te trainen. Daarom hebben ze de grootste dataset gebruikt, inclusief 10.000 uur aan robotmanipulaties verzameld, uitgevoerd door zeven verschillende robots, en daarnaast verschillende andere databases. Momenteel wordt vooral getraind op visuele data, maar ik hoop in de toekomst ook andere sensordata te zien, zoals data van aanraaksensoren.