La innovación está en la mirada (digital)

17 Mayo 2017 2

Leí un tweet que me pareció brutal, decía algo así como que en 2007 tú eras el producto, pero en 2017 tú eres los datos con los que aprenden. Y aunque no lo decía, por supuesto, quienes aprenden son las máquinas.

En realidad, no deja de ser lo mismo, aunque el matiz es importante. Durante muchos años, a cambio de nuestros datos personales sobre los que hacer publicidad nos dieron muchos servicios gratuitos. Gigantes como Google o Facebook nacieron de este concepto, pero es cierto que el modelo muestra ciertos síntomas de desgaste. Cada vez son más raras (por ruinosas) las startups que fían su futuro a conseguir ingentes cantidades de usuarios gratuitos y monetizarlo a través de algún tipo de publicidad. 

Y no tanto porque los usuarios no estén dispuestos a ser el “producto”, sino porque las barreras de entrada que han generado esos gigantes de internet hacen de ese tipo de aventuras prácticamente un suicidio. 

Efectivamente, como dice el autor del tweet, ha surgido otra forma de crear producto a través de los usuarios gratuitos: el producto es utilizarnos como usuarios que a la vez proporcionamos datos que sirvan para enseñar a las máquinas. 

Esto tampoco es excesivamente nuevo. Un ejemplo temprano de esto son los archiconocidos Captcha. Medios de verificación que aún se utilizan para impedir el acceso a determinadas páginas por parte de las máquinas. El objetivo es que dado el poder de las máquinas había que asegurarse de que quien estaba al otro lado era una persona y no un maravilloso plan para mejorar la habilidades de reconocimiento de imágenes de las máquinas. De hecho, los captcha nos mostraban en un principio cadenas de texto desfigurado. En una siguiente versión, nos mostraron fotografías en las que se veían números. En ambos casos el sistema funcionaba igual. La máquina en realidad no sabía el texto o el número que mostraba, pero en base a que los usuarios, en su gran mayoría, darían la respuesta correcta, el sistema iba aprendiendo a interpretar las imágenes que servía y reducían su utilidad última. A través de los captcha y nuestra ayuda gratuita, las máquinas aprenden a leer imágenes.

Esta misma idea está detrás de la nueva aventura de su fundador, Luis von Ahn, Duolingo. Se aplica el mismo concepto, en este caso, para enseñar idiomas a las personas, y a las máquinas. Las personas que aprenden idiomas a través de Duolingo van aportando traducciones que se van validando por las respuestas mayoritarias. De esta manera, al final se identifica la mejor respuesta a la traducción, y sobre eso el sistema va a aprendiendo, con el objetivo de que en algún momento sea capaz de hacer traducciones de forma autónoma.

Pero todo esto es un juego de niños comparado con lo que tenemos alrededor nuestro en la actualidad. Si no fuera suficiente con los móviles, que no son otra cosa que unos recoge-datos personales de altísima calidad, estamos rodeados dispositivos por todos los sitios que complementan esa información, algunos son nuestros propios cacharros personales personales, otros son de terceros. 

Seguro que has visto Minority Report. Precisamente así, como el “momento Minority Report” se llama en la industria a ese momento, que como ocurre en la película, alguien entre en una tienda, y como lo que pasaba en Cheers, nos saluden por nuestro nombre. En realidad, cuando se empezó a utilizar este término, era casi una cuestión de ciencia ficción. La tecnología aún no lo permitía. Sin embargo en la actualidad, es una cuestión de autoregulación.

 

Nadie se ha atrevido todavía a hacerlo aunque la tecnología lo permita. Los retailers tienen miedo de cómo pueden reaccionar sus clientes si de una forma tan obvia les muestran hasta qué punto tienen información de ellos. Por supuesto a través del móvil pero no sólo, hay una ingente cantidad de información que facilitamos sobre nuestros comportamientos y que la generan las cámaras en las tiendas, etiquetas RFID, información sobre medios de pago, programas de fidelización…  

Pero es que además, estamos poniendo más recoge-datos a nuestro alrededor. Lo último son estos asistentes personales por voz, a los que ya les están añadiendo cámaras. Amazon quiere que compremos pidiéndoselo a su Amazon Echo, en vez de buscándolo en Google. 

Todas estas máquinas no nacen aprendidas. Para eso ya nos encargamos nosotros de hacerlo… ¡y sin darnos cuenta! Estas máquinas van aprendiendo de la interacción con nosotros, aprenden a entender mejor nuestra voz, a entender mejor los giros de nuestro lenguaje, a cruzar datos de diferentes fuentes y tipo para conseguir una foto más completa, pero sobre todo, están aprendiendo para anticiparse a lo que va a ocurrir. 

Entiendo que a mucha gente esto les evoque futuros distópicos, pero en realidad lo estamos haciendo porque nos facilita la vida. En todo caso, ese no es el objetivo de este artículo entrar en ese interesante debate. 

Clayton Christensen en su último libro vuelve a la carga con un concepto que desarrolló en los años 90: el Job To Be Done (JTBD). Este concepto intenta poner el foco en la necesidad subyacente que está en las acciones de los usuarios, y de cómo entender bien esa necesidad primaria es una gran oportunidad de innovación (y de negocio). 

Christensen ilustra este concepto con un proyecto en el que trabajó para McDonald’s. La empresa estaba interesada en aumentar su negocio de batidos en sus restaurantes. En un primer análisis, resultaba que más de la mitad de los batidos que vendía McDonald’s lo hacía antes de las 8:30 de la mañana, y era lo único que compraban. Después de un poco de trabajo de campo preguntando a los compradores mañaneros de batidos, descubrieron que lo hacían porque tenían un largo rato de coche hasta el trabajo. Y esa era la clave, el batido no era un desayuno ni nada parecido, era un pasatiempo. Resulta que los batidos eran tan densos, y al estar semicongelados y tomarlos con una pajita en el coche, se tardaban más de 20 minutos en acabarlos. 

Eso era precisamente el JTBD que buscaban los clientes de McDonald’s y permitía comprender por qué no estaban teniendo éxito con las mejoras centradas en el producto. En realidad la gente quería comprar el batido más rápido, y que a ser posible, les durara incluso más. Por no mencionar que el vaso tuviera un formato bueno para el coche. Además también explicaba por qué productos sustitutivos no eran tan efectivos para lo que buscaban esos usuarios, una pieza de fruta o un bollo se acababa demasiado rápido y en algunos casos son difíciles de comer mientras conduces. 

En realidad no hace falta que venga Clayton para decirnos que la observación es fundamental en la innovación. Probablemente es la regla número uno de todo esto. Observar, pero aún más importante, interpretar más allá de lo obvio, de lo que vemos con una mirada superficial. 

A mí me interesa muchísimo la intersección de estas dos tendencias. Por un lado, vivimos en un paraíso para los observadores. Tenemos datos, muchísimos datos, y podemos prácticamente medir todo de los usuarios para los que queremos innovar. Algo con lo que Christensen sólo podría haber soñado en los años 90 cuando empezó a hablar de JTBD. Pero poniéndonos un poco futuristas, probablemente la revolución está un poquito más adelante. 

Según enseñemos más a las máquinas a interpretar todos esos datos que están recogiendo, las máquinas serán capaces de sacar conclusiones muy rápido, y quizá conclusiones que estén fuera del alcance de un innovador humano. Por un lado, estarán recogiendo enormes cantidades de datos en tiempo real sobre cosas que se escapan a nuestros ojos, y a la vez, los analizarán, buscarán tramas de datos, y sobre todo, lograrán encontrar relaciones con otros datos de formas que nos sería imposible. 

¿Demasiado bonito para ser verdad? Probablemente, pero sólo a corto y medio plazo. Es muy probable que aún durante muchos años las máquinas no puedan innovar de forma autónoma. Casi con toda seguridad los humanos tendremos que decidir qué mirar, qué analizar, y qué relacionar. En todo caso, no está lejos el momento en el que será imprescindible incorporar herramientas de big data a nuestros procesos de estrategia y diseño, lo que todos llaman design thinking pero del bueno. 

@resbla

2 comentarios

  • Roberto Espinosa Blanco  

    Hoy he tenido una interesante conversación con José Antonio de Miguel (@yoemprendo) a raíz de la publicación de este artículo que creo que merece la pena que de alguna forma quede reflejada en él.
    José Antonio me recordaba que el origen del concepto de Job-to-be-done venía de Ulwick, y lo hacía con mucha razón.
    Sin embargo, decidí mencionar solo a Christensen por dos motivos. Primero, porque en su libro más reciente se dedica a este tema y es el que ha vuelto a ponerlo de “moda”.
    Y segundo, porque siendo estrictos, Christensen fue el primero en utilizar el témino JTBD, mientras que Ulwick hablaba de Outcome Driven Innovation (ODI).
    Algo quizá semántico, desde luego relevante, pero que decidí no incluir en el artículo para no extenderme demasiado.
    En todo caso le agradezco mucho a @yoemprendo el apunte!
    Saludos
    @resbla

  • Roberto, muchas gracias por tu comentario. Sin duda, que el marco de los Jobs to be done está de moda. El año pasado a parte del libro de Christensen y Karen Dillon, el propio Tony Ulwick lanzó un revisión del enfoque y Alan Klement con su libro “When coffey and kale compete” aún le añadió más salsa al asunto. Y aún hay un par de libros más de menor nivel pero interesantes.
    Creo que uno de los impulsores del revivir del concepto es la mención que hace Alex Osterwalder de los Customer Jobs en su perfil de cliente del Lienzo de la Propuesta de Valor que son al fin y al cabo los JTBD con otro nombre.
    Excelente post como siempre:)

¡Deja un comentario!

Añade tu comentario, o enlace permanente (trackback) desde tu propio sitio. También puedes suscribirse a estos comentarios vía RSS.

Sé educado. Cíñete al asunto. No introduzcas spam.

Puedes utilizar estas tags:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Está activado Gravatar. Para utilizar tu propio avatar, regístrate en Gravatar.