AgroMoll Tapa Superior

Ciencia. ¿Cómo fue que Google ayudó a un runner ciego a correr sólo y sin asistencia?

Guillermo Ibarra

Thomas Panek perdió la visión desde su juventud, debido a una condición genética. Corredor aficionado, siguió ejercitándose con auxiliares y, luego, con un perro guía. Pero quería volver a hacerlo solo. Como cuando era niño.

El Project Guideline de Google

¿Cómo lo hicieron?

Gracias al Project Guideline (Línea de Guía), que consistía en un sistema de sonido que trabajaba con un teléfono y una línea pegada al suelo.

Todo se hizo en un espacio cerrado.

El teléfono reconocía la línea y le proporcionaba a Thomas señales de audio que dependen de su posición. Si la persona se desviaba a la izquierda de la línea, recibía la señal por el oído izquierdo. Si era hacia la derecha, lo recibía en el derecho.

De esa forma, Thomas podía correr con independencia, sin tener que depender de otra persona o de su perro guía.

Pero Google y Thomas fueron más allá.

La hora de correr libremente al aire libre

“Nuestro próximo paso”, explica el corredor, “era saber si la tecnología me podría ayudar en el lugar donde más amo correr: el parque”.

“La paz y la serenidad del parque”, recalcó. “Estuve esperando durante 25 años para correr solo, sin ayuda, en los exteriores”.

Thomas se prepara para correr en la Carrera de Nueva York Thanks 5K, utilizando el mismo sistema. Esta vez la línea será pintada en el Central Park de Nueva York.

Es una muestra más de que, juntos, no existen más límites que los que establezca la creatividad.

Su propia historia:

En  Google Research , estamos interesados ​​en explorar cómo la tecnología puede ayudar a mejorar la vida y las experiencias diarias de las personas. Así que ha sido una oportunidad increíble trabajar con Thomas Panek, ávido corredor y presidente y director ejecutivo de  Guiding Eyes for the Blind , para aplicar la visión por computadora a algo importante en su vida cotidiana: el ejercicio independiente. Project Guideline es un proyecto de investigación en etapa inicial que aprovecha el aprendizaje automático en el dispositivo para permitirle a Thomas usar un teléfono, auriculares y una guía pintada en el suelo para que se ejecute de forma independiente. A continuación, Thomas comparte por qué colaboró ​​con nosotros en este proyecto de investigación y cómo ha sido el viaje para él.

Siempre me ha gustado correr. Desde que era niño, correr me ha hecho sentir libre. Pero cuando tenía ocho años, noté que no podía ver tan bien las hojas de un árbol, y que las estrellas en el cielo nocturno comenzaron a desaparecer lentamente, y luego lo hicieron para siempre. Cuando era un adulto joven, me diagnosticaron legalmente ciego debido a una condición genética. Tuve que depender de un bastón o un canino para guiarme. Durante años, dejé de correr.

Luego me enteré de correr con guías humanos y decidí intentarlo. Me dio un sentido de pertenencia, sujetando una correa y siguiendo al corredor guía frente a mí. Incluso clasifiqué para los maratones de Nueva York y Boston cinco años seguidos. Pero a pesar de lo agradecido que estaba con mis guías humanos, quería más independencia. Entonces, en 2019, decidí correr el primer medio maratón asistido solo por perros guía.

Pero sé que no es posible que todos tengan un compañero brillante y rápido como mi perro guía, Blaze. Dirijo una organización llamada Guiding Eyes for the Blind , y trabajamos incansablemente para ayudar a las personas con pérdida de visión a recibir perros guía que pueden ayudarlos a vivir una vida más activa e independiente. El problema es que hay millones de personas con pérdida de visión más que perros guía disponibles. Entonces comencé a hacer una pregunta: «¿Sería posible ayudar a guiar a un corredor ciego, de forma independiente?» 

En el otoño de 2019, le hice esa pregunta a un grupo de diseñadores y tecnólogos en un hackathon de Google. No esperaba mucho más que una conversación interesante, pero al final del día habían creado una demostración preliminar que permitía que un teléfono reconociera una línea pegada al suelo y me diera señales de audio mientras caminaba con Blaze. . Estábamos emocionados y con la esperanza de ver si podíamos convertirlo en algo más.

Comenzamos esbozando cómo funcionaría el prototipo, decidiéndonos por un concepto simple: usaría un teléfono en la cintura y auriculares conductores de hueso. La cámara del teléfono buscaría una guía física en el suelo y enviaría señales de audio dependiendo de mi posición. Si me desplazaba hacia la izquierda de la línea, el sonido se haría más fuerte y más disonante en mi oído izquierdo. Si me desviaba hacia la derecha, pasaría lo mismo, pero en mi oído derecho. En unos meses, estábamos listos para probarlo en una pista ovalada de interior. Después de algunos ajustes, pude correr ocho vueltas. Fue una distancia corta, y todo con mis compañeros de equipo de Google cerca, pero fue la primera milla sin guía que corrí en décadas.

Nuestro siguiente paso fue ver si la tecnología podía funcionar donde más me gusta correr: en la paz y la serenidad de un parque. Esto trajo consigo un nuevo lote de desafíos para trabajar: las variables en las condiciones climáticas y de iluminación y la necesidad de nuevos datos para entrenar el modelo, para empezar. Después de meses de construir un modelo de aprendizaje automático en el dispositivo para detectar con precisión la guía en diferentes entornos, el equipo finalmente estuvo listo para probar la tecnología afuera por primera vez.

Había estado esperando 25 años para correr al aire libre, por mi cuenta. Me paré al comienzo de la guía, dando saltos de emoción. Cuando el equipo me dio el visto bueno, comencé a correr de puntillas, tan rápido como mis piernas podían llevarme, cuesta abajo y en una curva suave en la carretera. A medida que apreté mi forma, mi paso se hizo más seguro y más largo con cada paso. Me sentí libre, como si estuviera corriendo sin esfuerzo a través de las nubes.

Cuando llegué a la línea de meta, estaba completamente abrumado por la emoción. Mi esposa Melissa y mis hijos me abrazaron. Mi perro guía, Blaze, lamió la sal de mi mano. Ellos también estaban felices por mí. Por primera vez en mi vida, no me sentí ciego. Me sentí libre.

Hoy, estamos probando más esta tecnología. Intentaré ejecutar Virtual Run for Thanks 5K de NYRR a lo largo de una línea pintada temporalmente en Central Park en la ciudad de Nueva York. Quiero agradecer a NYRR , al Departamento de Parques y Recreación de la ciudad de Nueva York, a Central Park Conservancy, a la policía de Nueva York, al Departamento de Saneamiento de la ciudad de Nueva York y al Departamento de Transporte de la ciudad de Nueva York por ayudar a hacer posible la carrera de 5 km de hoy. Queremos ver cómo funciona este sistema en entornos urbanos, solo uno de los muchos desafíos que hay que completar antes de que se pueda utilizar más ampliamente. 

Colaborar en este proyecto me ayudó a realizar un sueño personal mío. Estoy muy agradecido con el equipo de Google y con quien se le ocurrió la idea de un hackathon en primer lugar. Espero que haya más carreras con Project Guideline en mi futuro, y también para muchos otros corredores.

Al compartir la historia de cómo comenzó este proyecto y cómo funciona la tecnología hoy, esperamos iniciar nuevas conversaciones con la comunidad más grande de ciegos y personas con baja visión sobre cómo, y si, esta tecnología podría ser útil para ellos también. A medida que continuamos nuestra investigación, esperamos recopilar comentarios de más organizaciones y explorar las pautas de pintura en sus comunidades.

Antes de realizar un comentario, lea nuestros Términos y condiciones

Babys
Cutrin Propiedades
Diseño y Más
Matias Cuello
Sociedad Rural
 Carniceria Sebastian