ChatGpt diseñó junto a investigadores, entre ellos dos italianos, su primer robot, un brazo recolector de tomates. El sistema basado en Inteligencia Artificial (IA) colaboró en el diseño de un brazo robótico capaz de recolectar tomates y sus consejos, ideas y sugerencias fueron puestos en práctica por un grupo de investigadores de la Universidad holandesa de Delft, del que forman parte dos italianos, y por una investigadora del Politecnico Federal de Lausana.
Publicado en la revista Nature Machine Intelligence, el diseño tuvo resultados positivos, aunque por el momento un escenario en el que ChatGpt pueda proyectar un robot de forma autónoma no es posible, según los investigadores, ni tampoco deseable. "Queríamos que ChatGpt no diseñase cualquier robot, sino uno que fuese verdaderamente útil", dijo Cosimo Della Santina, co-autor del estudio liderado por Francesco Stella.
Se eligió así un robot-agricultor para los tomates, lo que según ChatGpt sería económicamente más ventajoso para automatizar. Los investigadores siguieron los consejos de ChatGpt en cuanto a diseño, y fue especialmente útil en la fase conceptual. "ChatGpt puede ampliar los conocimientos de los ingenieros a otras áreas de competencia", comenta Stella.
Pero el sistema también ofreció sugerencias interesantes en la fase de realización: Dijo "construir la pinza de silicona o de goma para evitar dañar los tomates" e indicó el motor más adaptado para hacer mover al robot. Los autores del estudio encontraron su colaboración positiva y enriquecedora.
"Nos dimos cuenta de que nuestro papel de ingenieros se trasladó hacia la ejecución de tareas más técnicas", señala Stella. Los investigadores también exploraron los distintos grados de cooperación entre seres humanos y sistemas lingísticos basados en IA. En el escenario más extremo, el sistema ofrece todos los imput para el diseño del robot y el ser humano lo sigue ciegamente. Pero tal escenario a día de hoy no es posible, ni tampoco sería deseable: "Las indicaciones de inteligencias artificiales como ChatGpt pueden ser engañosas si no son verificadas y convalidadas.
Estos sistemas son diseñados para generar la respuesta más probable a una pregunta, así que existe el riesgo de que lleven desinformación y prejuicios al interior de la robótica".
TODOS LOS DERECHOS RESERVADOS © Copyright ANSA