Google DeepMind ha desarrollado un robot de tenis de mesa que ganó 13 de los 29 partidos jugados contra humanos, destacándose frente a jugadores principiantes y amateurs, aunque sin poder vencer a los avanzados.
El robot fue entrenado con simulaciones y datos de partidos reales, lo que le permitió aprender habilidades básicas y mejorar su rendimiento en tiempo real. Sensores y cámaras integrados rastrean la posición de la pelota y el estilo de juego del oponente, permitiendo al robot ajustar sus tácticas durante los encuentros.
Sin embargo, el robot enfrenta desafíos como la dificultad para manejar pelotas rápidas o con efecto. Sin embargo, ingenieros de Google DeepMind consideran que estas limitaciones se pueden superar con avances en inteligencia artificial y detección de colisiones.
Según informa Infobae, jugadores humanos han valorado positivamente la experiencia, considerándola divertida y útil para la práctica. Algunos incluso expresaron interés en utilizar el robot como compañero de entrenamiento.
El robot de Google DeepMind representa un avance significativo en la robótica y la inteligencia artificial, abriendo nuevas posibilidades para la interacción entre humanos y máquinas en actividades deportivas.
Contenido sugerido
Contenido GEC