Toyota Research Institute (TRI) gebruikte generatieve kunstmatige intelligentie in ‘Robotic Kindergarten’ om robots te leren ontbijt te maken – of op zijn minst de individuele taken die nodig zijn om ontbijt te maken – zonder dat daarvoor honderden uren programmeren en bugfixing nodig waren. In plaats daarvan bereikten onderzoekers dit in korte tijd door robots een gevoel van aanraking te geven, ze in een kunstmatige-intelligentiemodel te pluggen en ze vervolgens te leren wat ze moesten doen, net zoals mensen dat zouden doen.
De onderzoekers zeggen dat aanraking 'een belangrijke factor' is. Door de robot de zachte duim te laten uitstrekken die je in de onderstaande video ziet (mijn woorden, niet die van hen), kan het model "voelen" wat hij doet, waardoor hij meer informatie kan verkrijgen. Dit maakt moeilijke taken gemakkelijker uit te voeren dan alleen op zicht.
"Het is opwindend om ze te zien omgaan met hun omgeving", zegt Ben Burchfiel, manager van de behendige operatieafdeling van het laboratorium. Eerst demonstreert een 'leraar' een reeks vaardigheden, en vervolgens 'gedurende een paar uur' leert het model op de achtergrond. "We leren een robot vaak 's middags, laten hem 's nachts leren en zien dan de volgende ochtend zijn nieuwe gedrag", voegde hij eraan toe.
De onderzoekers zeggen dat ze "Large Behavior Models" (LargeBehaviorModels), of LBM's, voor robots proberen te creëren. "Net zoals LLM's worden getraind door menselijke schrijfpatronen vast te leggen, zullen Toyota's LBM's leren door observatie en vervolgens" generaliseren, waarbij ze een nieuwe vaardigheid uitvoeren die ze nooit hebben geleerd ", zegt Russ Tedrake, hoogleraar robotica aan het MIT en vice-president van robotica-onderzoek bij TRI.
Met behulp van dit proces zeggen de onderzoekers dat ze meer dan zestig uitdagende vaardigheden hebben getraind, zoals 'het gieten van vloeistoffen, het gebruik van gereedschap en het manipuleren van vervormbare voorwerpen'. Ze hopen dit aantal tegen eind 2024 te verhogen tot 1.000.
Google en Tesla hebben soortgelijk onderzoek uitgevoerd met hun RoboticTransformerRT-2. Net als de aanpak van de Toyota-onderzoekers gebruikt hun robot zijn eigen ervaring om af te leiden hoe dingen moeten worden gedaan. In theorie zouden AI-getrainde robots uiteindelijk taken kunnen uitvoeren zonder vrijwel geen instructies, behalve dat ze een mens een algemene instructie geven (zoals "een lekkage opruimen").
Maar zoals The New York Times opmerkte toen hij rapporteerde over het onderzoek van de zoekgigant, hebben de bots van Google in ieder geval nog een lange weg te gaan. Dit soort werk is vaak ‘traag en arbeidsintensief’, en het leveren van voldoende trainingsgegevens is veel moeilijker dan het voeden van een AI-model met grote hoeveelheden gegevens die van internet zijn gedownload.