Nuevo robot llamado Figura 01 puede hablar y moverse como un humano
Robot Figura 01 aprende a hacer café a través de un video con OpenAI. Avances en mecánica y lenguaje, pero escepticismo generado por Livescience.com.
Un robot con forma humana y la capacidad de aprender de sus errores ha logrado aprender a hacer una taza de café simplemente viendo un video de una persona haciéndolo. Este nuevo robot, llamado Figura 01, puede servirte comida y responder preguntas con voz amigable utilizando una tecnología llamada OpenAI.
La tecnología OpenAI es conocida principalmente por el producto ChatGPT. Aunque es poco probable que esta invención utilice ChatGPT debido al uso de palabras de pausa como "um", la posibilidad aún existe. En un artículo sobre este robot, Livescience.com argumenta que si todo lo que muestra el video de la compañía funciona "significa un avance en dos áreas clave de la robótica".
With OpenAI, Figure 01 can now have full conversations with people-OpenAI models provide high-level visual and language intelligence-Figure neural networks deliver fast, low-level, dexterous robot actionsEverything in this video is a neural network: pic.twitter.com/OJzMjCv443
— Figure (@Figure_robot) March 13, 2024
La primera área a la que se refiere Livescience.com es el aspecto mecánico de la robótica. Las capacidades de movimiento humanoide de este robot muestran un avance en la capacidad de construir estructuras mecánicas con "movimiento diestro y autocorrector". Esto significa que los ingenieros modernos pueden imitar la mano humana, incluidos los huesos más pequeños, a un nivel mejor. Esto también significa que los motores más finos permiten al robot llevar a cabo tareas y sostener objetos delicadamente.
El segundo avance del que habla Livescience.com en su artículo se relaciona con el procesamiento del lenguaje natural (NPL). Según el artículo, el motor de OpenAI es inmediato y receptivo a las consultas, además de poder traducir datos a voz. Sin embargo, Livescience.com argumenta que el video podría estar pregrabado.
Escepticismo de Livescience
En el artículo, Livescience.com sugiere que el video muestra "en qué está trabajando Figure Robotics en lugar de una prueba de campo en vivo". Una serie de ocasiones en las que la voz del robot imita demasiado bien la voz humana natural, como a los 0.52 segundos y 1.49 segundos según el artículo, lleva a Livescience.com a cuestionar la capacidad de la inteligencia artificial para "incluir tales giros de dicción al azar y parecidos a los humanos".
Según el artículo, parece que el escepticismo de Livescience.com se debe a la capacidad de Figure 01 para crear el "ritmo inconsciente que los humanos utilizan en el habla". En general, Livescience.com concluye que si el video es una prueba de campo en vivo, entonces Figure 01 es "un gran paso hacia el futuro".
Jerusalem Post Store
`; document.getElementById("linkPremium").innerHTML = cont; var divWithLink = document.getElementById("premium-link"); if (divWithLink !== null && divWithLink !== 'undefined') { divWithLink.style.border = "solid 1px #cb0f3e"; divWithLink.style.textAlign = "center"; divWithLink.style.marginBottom = "15px"; divWithLink.style.marginTop = "15px"; divWithLink.style.width = "100%"; divWithLink.style.backgroundColor = "#122952"; divWithLink.style.color = "#ffffff"; divWithLink.style.lineHeight = "1.5"; } } (function (v, i) { });