Figure AI, стартап із Саннівейлу, Каліфорнія, який лише два тижні тому оголосив про початок співпраці з OpenAI, вже похизувався першими результатами. На новому відео автономний робот-гуманоїд загального призначення Figure 01  демонструє повноцінну взаємодію з людиною. Він сприймає запити візуально, на слух, і надає повні відповіді на питання.

«Я бачу яблуко на тарілці в центрі столу, сушарку з чашками й тарілкою, а ти стоїш поруч із рукою на столі», – так описує Figure 01 те, що «бачить». Робот простягає людині яблуко у відповідь на її прохання про їжу, і пояснює, що це – єдиний їстівний предмет на столі. У мову робота розробники додали звуконаслідувальне слово «емм» для більшої реалістичності. Невеликі затримки з виконанням команд виникають через те, що Figure 01 потрібен час для обробки інструкцій.  

Зір та мовлення Figure 01 забезпечують технології GPT-4 Vision та ChatGPT відповідно, а за слух відповідає розробка WhisperJAX. Figure AI створила каркас робота та моделі, які допомагають йому рухатися. Співзасновник стартапу Бретт Адкок запевнив, що Figure 01 не використовує жодних хитрощів. «Відео демонструє наскрізні нейронні мережі. Немає телеоперацій, – написав він на X. – Крім того, відео знято зі швидкістю 1,0x і безперервно». Певно, саме завдяки чесній праці в останньому раунді фінансування Figure AI зібрала $675 млн від засновника Amazon Джеффа Безоса, Nvidia, OpenAI та Microsoft. Зараз компанію оцінюють у $2,6 млрд.

Літературний редактор.

Коменти