Las diferentes generaciones que convivimos en esta época tenemos una relación muy desigual con la tecnología. Internet, los ordenadores, los móviles, el inminente “Internet de las cosas”, la domótica, la ropa inteligente son avances tecnológicas que están cada vez más extendidos en nuestra sociedad. Asi lo entienden las generaciones más jovenes que han crecido y han sido educadas para que sepan aprovechar todo lo que pueden ofrecernos. Sin embargo, gran parte de la población de generaciones mayores de cuarenta años tiene problemas para lidiar con la tecnología más cotidiana. ¿Quién no ha tenido que explicarle el funcionamiento de algo tan sencillo como Whatsapp a su abuela o incluso a su madre? Es lo que se conoce como brecha digital.
Estas generaciones todavía van a vivir muchos años más e incluso muchos de ellos trabajarán varias décadas más antes de jubilarse así que no pueden ni deben mantenerse al margen de todas las ventajas que la tecnología puede ofrecer. En este sentido, uno de los avances más importantes en los últimos tiempos han sido los interfaces táctiles. Dispositivos como el iPhone, iPad y Android, han demostrado que, especialmente en el sector de la movilidad, el interactuar de tocando la pantalla es más intuitivo para usuarios tradicionalmente ajenos al uso de nuevas tecnologías que no, por ejemplo, a través de un teclado físico y un ratón. Sin embargo, no es suficiente.
El campo de la voz también ha experimentado importantes avances en los últimos años. Aunque la tecnología de reconocimiento y síntesis de voz lleva, literalmente, décadas en el mercado, no ha sido hasta la aparición de los dispositivos móviles (con Siri, Google Now o Cortana) que su uso ha empezado a extenderse y, aunque de forma muy tímida, a normalizarse. Aún así, solo sirven para usos muy concretos y, desgraciadamente, limitados, haciendo imposible controlar totalmente un móvil o un ordenador para su uso cotidiano.
La próxima revolución, la que debería acabar de una vez por todas con la brecha digital, debería venir del campo de la inteligencia artificial. El problema ya no está en que un software analice nuestra voz para distinguir que palabras hemos pronunciado, sino en saber interpretar lo que decimos cuando utilizamos el lenguaje natural y actuar en consecuencia; que nos proporcione, en definitiva, lo que necesitamos cuando lo pedimos. Si, por ejemplo, las fotos de nuestra última cena son demasiada oscuras, que, al decirle que las haga más claras, el sistema automáticamente abra Photoshop (u otro programa similar) y realice los ajustes necesarios para mejorar el brillo o la exposición de nuestras fotografías.
No es algo sencillo. Pese a los avances de Google o IBM en la inteligencia artificial, que ya logran vencer a los seres humanos en actividades concretas (como el Ajedrez o el Go), el lenguaje humanos es otro cantar. A modo de ejemplo, ¿alguna vez has leido las transcripciones de un juicio? Al no disponer de los matices gestuales o no poder percibir el tono, resultan toscas, casi ridículas para el lector que no se encontraba presente cuando se emitieron. Las inteligencia artificial, por tanto, debería interpretar la miríada de matices que hay en nuestro voz o, incluso, ya que disponen de cámaras con las que poder “observarnos”, de nuestros gestos. Y para eso, a pesar de los avances que se producen constantemente, me temo que aún queda un largo camino.