Quantcast
Channel: Calidad y Tecnología
Viewing all 45 articles
Browse latest View live

El Poder Digital: Las 20 personas más influyentes en la actualidad

$
0
0
Si seguís este blog, sabréis que hace unos días lancé un inocente juego "¿Quién es Quién?" para ver si alguno de vosotros era capaz de reconocer a una serie de personajes. He de admitir que yo tampoco hubiera sabido resolver ese pequeño acertijo aunque sí lo ha logrado una persona, Diego Soler. Mi más sincero reconocimiento a este curioso Internauta.

Lo más inquietante es que si, en lugar de las fotos seleccionadas, hubiera escogido a cualquiera de las personas que aparecen en una revista de la prensa rosa, probablemente habríais reconocido a un buen porcentaje de ellas.

Cantantes, actores, modelos, escritores, políticos, empresarios y protagonistas de Gran Hermano han dominado en las últimas décadas los medios de comunicación y cobrado una más que merecida fama. Veamos si pueden competir con las personas que os presento a continuación, las que atesoran una nueva forma de poder en este mundo ignoto dominado por la tecnología: El Poder Digital.

Ellos controlan una buena parte de la actividad en Internet, nos recomiendan qué debemos leer, con quién debemos comunicarnos, protegen nuestros documentos y nos ofrecen alternativas para ocupar nuestro tiempo de ocio. Y todos tienen muchas cosas en común: conocen la tecnología, son visionarios, buenos negociantes, inmensamente ricos e insultantemente jóvenes. La mayoría son, además, programadores y se han formado en las más prestigiosas universidades americanas.

Antes de comenzar, una última reflexión. En Abril de este año publiqué la lista de los que, para mí, han sido los mejores programadores de la historia. Si os fijáis, no hay ni una sola coincidencia entre ambos compendios (en realidad, Bill Gates y Larry Page sí merecerían aparecer en las dos). Entre los programadores, están los genios que han desarrollado Internet y los Sistemas Operativos y Lenguajes de Programación más importantes de la actualidad. Sin embargo, sólo unos pocos han conseguido hacerse inmensamente ricos y, curiosamente, a pesar de ser una lista dominada por europeos (sobre todo de los países nórdicos), todos son americanos. No estoy seguro de si deberíamos o no cambiar, pero está claro que el sistema educativo europeo está poco preparado para crear genios en los negocios.

Os dejo un interesante artículo sobre las universidades americanas que mejor futuro profesional ofrecen a sus alumnos


Empezamos por uno de los más conocidos, Mark Elliot Zuckerberg, la persona que está detrás de Facebook. Podría haber escogido a Bill Gates (vuelve a ser la persona más rica del mundo), a Steve Jobs o a Serguéi Brin y Larry Page (los fundadores de Google) pero el futuro de este chico se muestra aún más prometedor.

Es el milmillonario más joven de la lista Forbes y se estima que su fortuna rondará los 33.000 millones de dólares.

Con 18 años lanzó Synapse, un servicio que recomendaba música en función de las preferencias de los usuarios aunque su interés por conectar personas comenzó en Harvard cuando en 2003 desarrolló aplicaciones como Coursemartch para localizar a tus compañeros de clase o Facemash.com para calificar las aptitudes de las estudiantes de la Universidad.

Su gran mérito: ser el primero en comprender el poder de Internet para conectar a las personas y crear nuevas formas de relación social. Su reciente compra de Whatsapp muestra que no ha perdido esa inquietud.

Y, un sólo dato más, todos los usuarios de Facebook, los 1280 millones, siguen por defecto a Mark así que cada vez que el dice algo, hay unas cuantas personas que le escuchan. Para que os hagáis una idea, Ronaldo apenas llega a los 12 millones de seguidores en Twitter y Messi siquiera alcanza el millón.

Jack Dorsey es mucho menos conocido a pesar de ser el responsable de que 255 millones de personas estén bien informadas (o, al menos, de lo que realmente les interesa).

Al igual que Mark, Jack es también un programador precoz, publicando sus primeros proyectos a la edad de 14 años.

Inspirado por el éxito de los ínclitos SMS (lo digo, por el dinero que nos hemos dejado enviado esos nimios mensajes), en 2006 dedicó 3 semanas completas de su vida a desarrollar Twitter. Ha declarado que nunca pretendió ganar demasiado dinero con este servicio (y yo le creo) como demuestra su pequeña fortuna (comparada con la de Mark) de 640 millones de dólares.

Pero no es un problema, en 2010 comenzó a interesarse por los pagos a través del móvil y fundó Square para ofrecer este servicio. Ahora la empresa está valorada en 1300 millones de dólares. Desde 2013 es miembro del Consejo de Dirección de Walt Disney. Todo un portento de los negocios y orgulloso propietario de las llaves de Nueva York (se las ofrecieron en 2009).

Este hombre con aspecto bonachón es Reid Hoffman, el fundador de LinkedIn. Es ya bastante mayor comparado con los dos chavales anteriores y un gran consuelo para mí pues el único más viejo que yo de esta lista (me saca dos meses, aún tengo tiempo).

Este sí consiguió graduarse en una prestigiosa universidad (Stanford) aunque lo hizo en una extraña disciplina (Sistemas Simbólicos y Ciencia Cognitiva); también tienen un Máster en Filosofía por la Universidad de Oxford.

En 1997 Reid creó SocialNet, seis años antes de la revolución provocada por Mark (como veis, les ando tuteando, total, nadie les conoce), una idea adelantada a su tiempo. Mientras desarrollaba este proyecto, fue miembro del Consejo Directivo que fundó Paypal y poco más tarde se convirtió en el Director de Operaciones de esta compañía,

Desafortunadamente, en 2002 ebay compró Paypal por apenas 1.200 millones de dólares y Reid pasó a engrosar las listas del desempleo. Sin otras ocupaciones, contactó con algunos de sus antiguos compañeros (entre ellos Allen Blue) para fundar LinkedIn en 2003. Cuatro años después, en 2007, la empresa dio por primera vez beneficios aunque aún tardaría otros cuatro más en salir a bolsa. La participación que poseía Reid en ese momento estaba valorada en 2.340 millones de dólares.

Y no voy a seguir mucho más en aras de la brevedad necesaria en este tipo de artículos. Sólo comentar que se le considera el inversor privado con más éxito de los últimos tiempos. Lo hizo en Facebook en sus primeros momentos y en Zynga (una compañía valorada en 2.480 millones de euros). Es conferenciante habitual de las principales universidades americanas, escritor y filántropo.

 Este crío es Kevin Systron, el creador de Instagram. Nacido en 1983 es también estudiante de Stanford. Junto con Mike Kreiger fundó su empresa en 2010.

El origen de Instagram es realmente curioso. Después de trabajar un par de años en Google, Kevin decidió crear Burbn, un producto que ofrecía a sus usuarios todo un elenco de servicios. Demasiados según los inversores de esta joven empresa quiénes obligaron a Kevin a limitar sus funcionalidades hasta quedar limitadas al tema de compartir fotos.

Su andadura en solitario fue efímera, apenas dos años después de su fundación, Instagram fue adquirida por Facebook por 1.000 millones de dólares (quizás 400 de ellos sean de Kevin). Mark, sin embargo, no ha querido integrar estas dos redes sociales permitiendo a Kevin mantenerse al frente de la compañía estos dos últimos años logrando que ya alcance los 150 millones de usuarios.

Este joven que aparece con un pizarra a la espalda es Drew Houston, creador y con-fundador de Dropbox y tiene en sus manos la mayor parte de los documentos que realmente nos importan. La compañía es considerada como la Start-Up de más éxito de Silicon Valley y, tras 7 años en escena, está ya valorado en 1.000 millones de dólares

Tras Standford y Hardvard nos toca ahora visitar el MIT (Massachusetts Institute of Technology) en donde Drew obtuvo su grado y conoció a Arash Ferdowski con quién co-fundó Dropbox (no os pongo la foto pero podéis imaginaros, aún aparenta ser más joven).

En la universidad, Drew llevaba años lanzando proyectos con poco éxito pero tenía una lista importante de nuevas ideas guardadas en un pen-drive. Mientras viajaba en autobús desde Bostón a Nueva York se dispuso a repasarla pero, tras rebuscar en sus bolsillos, no pudo encontrar el aparatito, se lo había dejado en casa. Así que, con cuatro horas por delante y poco más que hacer, comenzó a programar una herramientas que le permitiera tener siempre disponibles sus archivos en la nube.

 Terminamos el periplo por las redes sociales con Ben Silbermann, con-fundador de Pinterest. Estudió en el Research Intitute del MIT y se graduó en Yale, otra de esas afamadas universidades americanas.

Tras un rápido paso por Google, se alió con sus amigos, Paul Sciarra y Evan Sharp, para desarrollar una aplicación que permitiera coleccionar "cosas" (pins); Ben de pequeño era un gran coleccionista en sus propias palabras

Curiosamente, el 80% de los usuarios de esta herramienta son mujeres un hecho especialmente relevante para las compañías de marketing. Como casi todas las Redes Sociales, tras una inocente fachada existe un importante conjunto de empresas que analizan los datos de uso para determinar o predecir el éxito de sus productos. Un estudio de 2012 demostró que Pinterest generaba más tráfico comercial que Facebook o Twitter lo que aumenta su valor a pesar de contar con muchos menos usuarios

Gabe Newell es el fundador de Valve, una de las compañías más admiradas en el mundo de los vídeo-juegos. Estudio en Harward, ¿cómo no?, aunque fue expulsado. Después pasó 13 años trabajando en Microsoft hasta que en 1996 dejó la compañía para fundar Valve con otro antiguo empleado, Mike Harrington, y desarrollar su primer juego Half Life.

Su gran éxito llegó, no obstante, con el desarrollo de Steam en 2002, una plataforma utilizada, entre otras, por las consolas Play Satation para permitir a sus usuarios comprar o actualizar los juegos y acceder al modo multi-jugador. También ofrece funcionalidades para almacenar los progresos en Cloud, comunicarse con otros jugadores o compartir logros.

Tras tres años, la plataforma abierta era ya rentable con sólo 150 juegos. Nueve después, en 2014, 100 millones de personas la utilizan para acceder a 3400 juegos. Se estima, además, que el 75% de los juegos para PC se venden a través de ella. Todo esto ha hecho a Gabe ganar sus primeros 1.500 millones de dólares (la cifra es de 2012).

También merece la pena mencionar el innovador modelo de gestión de personal de Valve en donde no hay jefes, ni tareas asignadas y los empleados disponen de unas condiciones laborales excepcionales (ver Holacracia:  cuando las empresas no necesitan jefes para convertirse en un gran negocio)

Tommy Palm reinventó uno de los juegos clásicos de ordenador y consiguió que, entre todos, hayamos echado más de 150 mil millones de partiditas. Hablamos de Candy Crush, uno de los juegos que dominan las listas de Apps en cualquier móvil con más de 500 millones de descargas.

El juego es gratuito y Tommy es sueco, una no tan curiosa combinación. A pesar de ello, la compañía en bolsa está valorada en 7 mil millones de dólares.

Lo más inaudito es que el juego generaba ya en 2013 más de 600.000 dólares diarios a pesar de ser gratuito y no tener publicidad. ¿Un milagro?. No lo es, 9 de las 10 Apps más rentables son gratuitas. Sólo el popular Mine Craft se cuela en esta lista. En el caso de Candy Crush, los ingresos se obtienen a partir de las compras de items que permiten seguir avanzando en el juego, lo que se conoce como el modelo de negocio freemium. De media, cada jugador gasta 2,84 dólares para poder pasar esos puzzles casi imposibles y poder sorprender a sus amigos cuando le preguntan ¿por qué nivel vas?.

Máximo Cavazzani es el diseñador de dos juegos que todos conocemos: Apalabrados y Preguntados. El primero de ellos lo desarrolló en apenas 6 meses.

Este argentino quiso crear un juego social, asíncrono, con un cierto componente intelectual, dirigido al mercado hispanohablante y lo consiguió. Ya en 2012 contaba con 6 millones de usuarios registrados y se jugaban 70 millones de partidas al mes. Lo ingresos los obtiene de la publicidad o de pagar por no tener que verla constantemente. Y Máximo sigue en la brecha. Su último juego, Preguntados, es el quinto más descargada (180.000 por día), tiene 2 millones de usuarios activos y recibe 20.000 sugerencias para nuevas preguntas cada día.

Sobre su fortuna, es difícil estimarla. Su empresa, Etermax, apenas tiene unas cuantas decenas de empleados pero sus 10 millones de usuarios al mes quizás valgan 400 millones de dólares (al menos ése es el precio por usuario que pagó Facebook cuando adquirió WhatsApp).

Este libanés es Paul Salamesh, el desarrollador de la más famosa de las mascotas, Pou, un alienígena que ya supera en popularidad a su padre intelectual: Tamagotchi.

Con 24 años dedicó tres meses a desarrollar este super-ventas. El juego, sencillo donde los haya, tiene 250.000 descargas diarias y está en segundo lugar entre las Apps de pago más descargadas de la tienda Apple aunque es mucho más popular en los móviles Android. Es, sin duda, la reina de las Apps para niños aunque también muchos adultos cuidan a Pou con esmero.

Sobre los ingresos que ha obtenido Paul con este juego, difícil saberlo. Él lo oculta celosamente. Pero seguramente sean similares a los de Tommy y Máximo.

Terminamos este, ya demasiado extenso, artículo con dos triunviratos. El primero lo conforman Michael Morhaime, Allen Adham, y Frank Pearce. Los tres, tras graduarse en la UCLA, fundaron Blizzard Entertainment, la empresa responsable del que es el padre de todos los juegos: World of WarCraft, un mundo virtual en el que han vivido y luchado más de 800 millones de guerreros creados por 100 millones de usuarios. Es esta infografía explican los de Blizzard mucho mejor que yo lo que está ocurriendo todos los días en este mundo de fantasía.

De los tres, quizás el más peculiar es Michael Morhaine, un gran jugador de poker y con una fortuna estimada en 2013 de 1.800 millones de dólares.

Niklas Hed, Jarno Väkeväinen y Kim Dikert son los tres finlandeses autores del archiconocido Angry Birds

Tras graduarse en la Universidad de Helsinki, participaron en un concurso de vídeo-juegos para plataformas móviles patrocinado por HP y Nokia. Lo ganaron gracias a "King of the Cabbage World" el primer juego multi-jugador en tiempo real para móviles de la historia. Tras venderlo a Sumea decidieron fundar su propia empresa, Rovio Entertainment en donde desarrollaron su gran éxito: Angry Birda.

Publicado por primera vez en 2009, este juego ostenta todos los récords posibles. Ya en 2012 había sido descargado mil millones de veces siendo el juego más vendido de la historia en plataformas móviles

Quizás por ello llamó la atención de las agencias de inteligencia estadounidense y británica quienes lo ha estado usando hasta 2014 para espiar a sus usuarios (más información...). Cómplices o no, la mera sospecha debería hacerles desaparecer de esta lista (en realidad, desde 2013 la saga de los pájaros ha perdido una buena parte de su empuje inicial).

He decididoo finalmente manternerles pues no creo que sean lo únicos (a lo mejor la lista quedaba vacía) y, en el fondo, mi objetivo era hablar del Poder Digital, de las personas que tienen o tendrán el poder en esta nueva era dominada por aglomerados tecnológicos.


También puede interesarte:

En Calidad hablamos poco de dinero y esto nos cuesta muy caro

$
0
0
Continuamente me encuentro en los foros con gente que pregunta o se queja sobre la falta de implicación de la Dirección en el SGC. Una buena parte de las respuestas recalca su importancia o la necesidad de hacer partícipes a los diferentes estamentos de la empresa y otras hablan de asociar los objetivos de calidad con los institucionales. Todas están bien encaminadas, pero muy pocas ofrecen soluciones concretas o profundizan lo suficiente en la causa real del problema.

En mi opinión, la única forma de involucrar a la Dirección es hablar en su propio idioma y éste no es otro que el dinero.

En teoría, la promoción de la Mejora Continua o la búsqueda de la Excelencia deberían, por sí solas, garantizar la mejora de los beneficios empresariales haciendo los procesos más eficientes, reduciendo costes, mejorando la productividad y aumentando los márgenes. Pero como toda buena teoría, debemos demostrar su validez día a día con datos experimentales. Tampoco podemos obviar otra de las premisas del método científico: cuando los datos se empeñan en refutar una teoría seguramente debamos cambiarla.

Y es ahí donde la mayor parte de los Departamentos de Calidad exponen con mayor claridad sus carencias, recurriendo a aspectos técnicos o normativos para justificar las medidas planteadas y dando por supuesto que el resto de la organización entenderá que darán beneficios a medio o largo plazo.

"Hay que hacer esto porque lo dice la norma" es una de esas frases que todos deberíamos retirar de nuestro argumentario. "Gestionar correctamente un proyecto aumenta la probabilidad de obtener los beneficios previstos" es una aseveración mucho más acertada que, además, podemos intentar demostrar. Y digo "intentar" porque hay muchos proyectos que, partiendo de una pésima gestión, ofrecen pingües beneficios. Es una realidad que debemos aceptar pues siempre habrá alguien empeñado en ponerla sobre la mesa: "yo no sigo las normas y, sin embargo, mira mi margen operativo" o, peor aún, "consigo ganar mucho más dinero evitando malgastar tiempo rellenado los papeles de calidad".

Y es cierto para casos concretos pero seguramente no lo será cuando consideramos el conjunto de los proyectos de la organización. Y es ahí por donde el Departamento de Calidad puede contraatacar, refutando este tipo de afirmaciones con la estadística y siendo flexibles para saber adaptar los sistemas de gestión a las necesidades reales de los proyectos. Si un proyecto resulta rentable sin aplicar las normas que pretendemos imponer, ¿debemos intentar convencer al gerente de que ganaría más dinero si cumpliera con la metodología de gestión establecida?, ¿no es posible que estemos perdiendo una gran oportunidad para mejorar o adaptar nuestros procesos aceptando que no son los óptimos en todas las situaciones?

LO QUE NO DEBEMOS HACER

Cuando hablamos de enlazar los objetivos de la calidad con los de la organización, hay que entender que el principal objetivo de cualquier empresa es ganar dinero. Todo lo demás queda subyugado a éste.

Queremos tener a los clientes satisfechos para que nos den más trabajo y así aumentar la cifra de negocio. Queremos tener a los empleados satisfechos para que sean más productivos y así aumentar los beneficios. Queremos optimizar los procesos internos para reducir costes y así mejorar los márgenes.

Y, sin embargo, con demasiada frecuencia nos olvidamos de esta gran verdad a la hora de fijar objetivos para el SGC.

Algunos (malos) ejemplos demasiado habituales:
  • Reducir el número de no-conformidades en un cierto porcentaje. Conseguimos así mejorar el cumplimiento de la normativa y seguramente evitaremos problemas en las auditorías externas. Sin embargo, dudo (en realidad, lo sé) que entusiasmemos al Director al comunicarle que hemos reducido el número de No-Conformidades en un 10%. Es más, un alto número de no-conformidades da muestra de la vitalidad del sistema, de la utilidad de los sistemas de inspección, de la necesidad de plantear acciones de corrección y de mejora.
  • Conseguir una Satisfacción del Cliente superior a 8 sobre 10. Vamos algo mejor encaminados pero ¿qué ocurre si el director mira las cifras de la empresa y comprueba que las ventas han bajado o que los margenes de los proyectos están por debajo de lo esperado? No es inusitado que los gerentes intenten contentar a los clientes realizando trabajos no presupuestados o haciendo que los equipos echen horas extra para cumplir los plazos. El cliente estará contento, hemos sido flexibles, hemos cumplido los plazos, pero la empresa no, hemos perdido dinero o no hemos ganado el que esperábamos (ver "Sorprender al cliente, ¿una buena práctica en la gestión de proyectos?" y "El principal objetivo de la calidad no es satisfacer al cliente").
  • Formar a un porcentaje de la organización en Calidad. Puede parecer que así conseguiremos una mejor comprensión del sistema y, en consecuencia, un mayor compromiso e implicación de todos los estamentos de la organización. Sin embargo, suele resultar contraproducente pues sugiere que la calidad es un trabajo extra, una obligación más, hasta cierto punto ajena al trabajo diario (ver "El arte de ocultar nuestro sistema de calidad"). Sería mucho más efectivo y motivante plantear formación específica en gestión de riesgos, control financiero de proyectos o certificar a los Jefes de Proyectos en metodologías reconocidas internacionalmente como PMP, PRINCE2 o SCRUM.
ALGUNAS BUENAS PRÁCTICAS

Fijándonos en los ejemplos anteriores, se intuyen buenas intenciones aunque también una carencia para saber expresarlas en un lenguaje que entienda la dirección. Es decir, debemos encontrar la manera de comunicar cómo atender las necesidades del SGC contribuye a que la empresa mejore los resultados económicos.

Y debemos hacerlo de la forma más directa posible, evitando recurrir a tópicos o a augurando grandes males en caso de que no se apliquen las propuestas planteadas.

Consideremos otros ejemplos de objetivos, desde mi punto de vista algo mejor encaminados:

1. Aumentar el margen o los indicadores de entrega de los proyectos auditados.

A la hora de plantear el plan de auditorías, es frecuente fijar el número mínimo de proyectos o servicios que pretendemos auditar. Sin embargo, sería mucho más interesante hablar del porcentaje de la cifra de negocio auditada. Si una empresa gestiona al año 200 proyectos/servicios podríamos plantear auditar 40 de ellos (un 20%). Pero si nuestros proyectos y servicios no son homogéneos quizás apenas cubramos un 5% o un 10% de la cifra de negocio. Es más, es posible que auditando sólo los 10 más importantes podamos cubrir un porcentaje mucho mayor. Limitando el número de proyectos podemos, además, realizar una auditorías más exhaustivas y mucho más efectivas empleando menos recursos.

Pero nuestro objetivo no es auditar por auditar, auditar para cubrir el expediente. Lo que en realidad buscamos es asegurar que los proyectos se ejecutan de forma eficiente, es decir, que se entregan a tiempo, con la calidad suficiente y dentro del presupuesto asignado. Podríamos orientar las auditorías para detectar desviaciones en las líneas base del proyecto (coste, calidad y tiempo) y fijar acciones para mejorar indicadores como el margen operativo, la entrega a tiempo o el cumplimiento de los requisitos del cliente (MOP, QoD, OTD; ver "Cuatro indicadores tan sencillos como fundamentales para controlar la entrega de proyectos").

De esta forma, en el proceso de revisión con la Dirección podríamos afirmar cosas como: "Hemos auditado X proyectos, cubriendo un Y% de la Cifra de Negocio de la Empresa. El Margen de los proyectos ha mejorado en un Z% tras la auditoría". Si somos capaces de llegar a este punto, tened por seguro que el Director comenzará a interesarse por el Departamento de Calidad.

2. Aumentar el número de promotores entre nuestros clientes

A la hora de plantear un mecanismo para evaluar la satisfacción del cliente podemos optar por extensos cuestionarios (completados a través de encuestas telemáticas o por entrevistas personales) con el fin de determinar en qué áreas nuestra gestión es más o menos acertada. Y es una información valiosa para plantear acciones correctivas o de mejora pero poco útil a la hora de hablar con el director. Podríamos informarle sobre los problemas reportados por nuestros clientes a la hora de especificar requisitos o gestionar los riesgos en los proyectos y, seguramente, nos responderá "muy bien, arrégalo" o, peor aún, "y por qué no lo has arreglado ya".

Seguramente le resultaría mucho más interesante la reunión si pudiéramos decirle cosas como "el X% de nuestros clientes estratégicos nos volvería a contratar o nos recomendaría a un amigo", "la satisfacción del cliente ha mejorado en un X% tras ejecutar los planes de acción planteados en los proyectos auditados" (ver "NPS: ¿se puede evaluar la satisfacción del cliente con un sólo indicador?" y "Cuatro indicadores clave para evaluar la relación con tu cliente".

Y aquí, de nuevo, es de vital importancia relacionar la satisfacción del cliente con el dinero. Si evaluamos los resultados en un cierto número de proyectos, ¿qué cifra de negocio hemos cubierto?, ¿los proyectos en los clientes insatisfechos son menos rentables?, ¿existe alguna relación -positiva o negativa- entre el grado de satisfacción y el margen de los proyectos?, ¿los clientes satisfechos el año pasado nos han contratado más este año?, ¿estamos dedicando demasiados esfuerzos a mejorar la satisfacción de los clientes que menos nos contratan? (ver "Matriz BCG: una forma de relacionar la satisfacción del cliente con el negocio")

3. Aumentar rentabilidad en un porcentaje formando a los Jefes de Proyecto

Más que plantear una formación específica en calidad (por ejemplo en la norma ISO 9001), podríamos plantear un plan de formación en Técnicas de Gestión de Proyectos (especificación de requisitos, cambios de alcance, planificación en el tiempo, control económico, gestión de riesgos) incluyendo, como colofón, una certificación reconocida. Podríamos aprovechar esta formación para incluir contenidos que relacionen las técnicas presentadas, más generalistas, con los mecanismos específicos que ofrece el sistema de gestión de calidad implantado. Conseguiríamos así  un mejor entendimiento, una mayor implicación y un mayor compromiso de nuestros Jefes de Proyecto o Coordinadores de Servicios con la metodología de gestión implantada en la organización.

Pero, ¿la formación habrá resultado efectiva?, ¿los proyectos gestionados por personal debidamente formado han resultado más rentables?, ¿cuál era la rentabilidad de un Jefe de Proyecto antes y después de la formación?, ¿hemos conseguido formar a las personas que gestionan los proyectos clave?.

De nuevo es necesario ser capaces de relacionar el dinero y los resultados con las acciones planteadas. Si pudiéramos afirmar que "La rentabilidad de los proyectos gestionados por las personas que han participado en la formación ha mejorado en un 5%" con seguridad obtendríamos financiación para plantear un plan mucho más ambicioso al año siguiente

DISPONER DE SISTEMAS DE GESTIÓN ADECUADOS

He intentado, a través de tres ejemplos, mostrar la importancia de relacionar el dinero con cualquiera de las acciones correctivas o de mejora que planteemos dentro del sistema de gestión de calidad. A mí entender es la única forma de conseguir la implicación de la Dirección con nuestras propuestas y evitar que se considere al Departamento de Calidad como un mal necesario.

Soy consciente de que, en muchas organizaciones, es realmente complicado disponer de la información necesaria para poder responder a la preguntas planteadas. En muchas ocasiones la información se encuentra dispersa entre diversos sistemas de gestión poco o nada integrados o ni siquiera está automatizada.

Si es el caso, la primera propuesta que debemos realizar a la dirección sería invertir para mejorar o integrar estos sistemas. Y aquí encontraremos un primer obstáculo, insalvable en la mayoría de los casos si no somos capaces de demostrar el retorno de la inversión a corto plazo. Sin embargo, si podemos demostrar que las mejoras en los sistemas nos permitirán aumentar la rentabilidad quizás tengamos éxito. Sin aún así no es posible, no habrá más remedio que consolidar la información manualmente (ver "Por favor, no más Excels"), plantear objetivos menos ambiciosos y esperar que, al año siguiente, ya con los datos en la mano, podamos convencer al Director de los beneficios inmediatos que conllevaría invertir en sistemas de gestión.

De conseguirlo, el sistema implantado debería ofrecernos, al menos, la siguiente información:
  • Cifra de Venta del Proyecto (ingresos previstos)
  • Gastos Previstos y Actuales 
  • Margen Operativo (Ingresos-Gastos) previsto y real
  • Equipo asociado al proyecto y sus roles
  • Fecha prevista y real de cierre del proyecto
  • Indicadores de Entrega por proyecto (Número de Entregas previstas, Entregas a Tiempo, Entregas aceptadas en primera instancia, entregas aceptadas)
  • Indicadores de Satisfacción del Proyecto (al menos NPS)
  • Formación recibida por cada persona en un periodo dado
Son apenas un puñado de datos que, si no hay más remedio, podremos recopilar con un simple formulario por proyecto pero que nos permitirán ofrecer a la Dirección una visión mucho más acorde con sus intereses. Quizás así podamos dejar de preocuparnos sobre su implicación con la Calidad.


También puede interesarte:

La Edad Oscura

$
0
0
Los que seguís con cierta asiduidad este blog sabéis que, de vez en cuando, me da por recurrir a la historia para explicar algún hecho que considero relevante, especialmente en el mundo de la gestión del conocimiento.

Seguramente muchos de vosotros habréis estudiado historia en el colegio y con ella la sucesión de civilizaciones que fueron dominando el Mediterráneo desde la Edad de Bronce hasta la Edad Media. En este periodo Minoicos, Micénicos, Hititas, Fenicios, Griegos y Romanos se sucedieron en el poder hasta la llegada de los bárbaros.

Sin embargo, existe un lapso de cinco siglos fundamental para entender la evolución de la cultura occidental del que, seguramente, no hayáis tenido noticia alguna. Se le conoce como la Edad Oscura. Permitidme que os hable brevemente sobre él para luego plantear algunas cuestiones más fundamentales.

LA ATLÁNTIDA

Aunque, en el siglo veintiuno, la soberbia nos hace considerar al Mediterráneo inmune a las grandes catástrofes naturales, con cierta frecuencia se ha visto afectado por terribles cataclismos. Cada uno de ellos ha provocado la caída de grandes civilizaciones  y un tortuoso tránsito por largos periodos de decadencia y retroceso tecnológico, unas crisis dolorosas pero que, a la larga, han favorecido el florecimiento de culturas más originales.

Quizás el más devastador de estos cataclismos se produjo 1600 años antes de nuestra era cuando el volcán Tera entró en erupción.

La terrible explosión hundió bajo el mar una buena parte de la superficie de la isla de Santorini y sepultó al resto bajo una capa de cenizas que llegó a alcanzar los ochenta metros de altura en algunos lugares.

La imponente caldera del volcán fue sustituida por una gran laguna rodeada de acantilados de más de trescientos metros de altura. A ellos aún se aferran las cúpulas azuladas y las blancas edificaciones de Fira y Oia, dos de las más caóticas y bellas ciudades del Mar Egeo.

Si tenéis la fortuna de visitar Santorini, no debéis perder la oportunidad de conocer Akrotini (creo que aún siguen cerradas las excavaciones pero ya debe faltar poco para la reapertura). La ciudad, enterrada por las cenizas siguiendo un destino similar al padecido por las espléndidas Pompeya y Herculano, soterradas por la erupción del Vesubio acaecida en el año 79 de nuestra era, se ha preservado en buenas condiciones para revelar un desarrollo tecnológico formidable. Sus habitantes fueron capaces de levantar casas de tres y cuatro alturas y de concebir las primeras canalizaciones de agua potable conocidas. Las cañerías dobles proveían a la ciudad tanto de agua fría como caliente extraída, esta última, de las fuentes termales del volcán asesino, un lujo que no volvería a verse hasta la época romana. Este adelantado confort da muestras del esplendor alcanzado por la civilización minoica y de la gran pérdida que su derrumbe supuso para el progreso de la cultura occidental.

Aunque las emanaciones del volcán oscurecieron el cielo por varios días y sus secuelas fueron registradas en lugares tan distantes como China, no fueron nada comparadas con los catastróficos efectos provocados por el desplome de la caldera.  El hundimiento en el mar de billones de toneladas de rocas creó un gran tsunami que arrasó el Mediterráneo oriental sepultando las islas jónicas y grandes áreas del Asia Menor con olas de más de noventa metros de altura. Los palacios de Cnosos, la capital minoica donde según la leyenda se encontraba el Laberinto del Minotauro, cayeron arrasados por los embates del mar al igual que el resto de las ciudades del litoral cretense  provocando el declive de la brillante civilización minoica.

Algunos dicen que este gran cataclismo inspiró a Platón para concebir la leyenda de la Atlántida situando a esta enigmática ciudad en el centro de la caldera del volcán de Santorini. De ser así, jamás la encontraremos pues sus fundamentos volaron, literalmente, por los aires.

LOS PUEBLOS DEL MAR

Tras la hecatombe, los debilitados minoicos fueron reemplazados por pueblos provenientes del continente identificados, a veces, con los aqueos homéricos de la Ilíada conquistadores de Troya. Estas migraciones hicieron florecer una nueva civilización comúnmente -y puede que erróneamente- conocida como micénica, la última gran dominadora del Mar Egeo en la Edad del Bronce.

Mucho más incierto es el origen de la siguiente oleada de cambios provocada por la llegada de los enigmáticos Pueblos del Mar (así bautizados por Emmanuel de Bougé a mediados del siglo diecinueve, otra elección bastante desafortunada).

En el siglo trece antes de nuestra era, coincidiendo con el advenimiento de nuevos cataclismos naturales, económicos y sociales, diversas gentes de origen desconocido, probablemente indoeuropeo, irrumpieron en Asia Menor. Provenientes del norte de Grecia y de Anatolia, llegaron para arrasar con todo y provocar la mayor desolación registrada en la historia antigua.

La procedencia exacta de las gentes que trajeron consigo las primeras herramientas de hierro al Egeo nos es desconocida. Seguramente, entre estos pueblos estaban los pelesets -los filisteos que ocuparon Gaza y dieron nombre a Palestina-, los dorios -colonizadores de las islas occidentales del Mar Egeo- y otros grupos mucho menos conocidos como los Shardana, los Lukka o los Akawasha. A pesar de esta diversidad, desconocemos datos fundamentales sobre su sociedad, formas de gobierno o la organización de sus sistemas económicos.

Lo único cierto es que, en apenas unas décadas, importantes ciudades del reino de Hatti como Ugarit, Tarso o Hattusa fueron incendiadas. Corrieron una suerte pareja Micenas, Karkemish, Gezer, Yenoan, Ascalón y los núcleos urbanos que rodeaban Esparta. El empuje de los Pueblos del Mar provocó también la caída del imperio hitita e incluso obligó a los egipcios a abandonar la región de Canaán para replegarse de nuevo hacia el Delta del Nilo. Sólo Arcadia, en el centro del Peloponeso, y Atenas parecen haber sobrevivido a estas invasiones.

La Edad de Hierro en el Mediterráneo comenzó mal, con cinco siglos de depresión política, económica, social y cultural. Las ciudades más importantes del mundo griego quedaron deshabitadas, el comercio entre las regiones se vio limitado hasta casi desaparecer y cesaron las grandes construcciones en piedra. Las cerámicas se volvieron más rústicas e incluso se abandonó el uso de la escritura, motivo por el cual a esta época se la conoce como la Edad Oscura pues apenas quedan registros de estos convulsos acontecimientos.

Sólo a partir del siglo octavo antes de Cristo, la civilización helena lograría recuperase para brillar más intensamente durante cinco centurias hasta sucumbir bajo el empuje romano.

LA INSOPORTABLE LEVEDAD DEL CAMBIO

No sé que os habrá parecido el breve recorrido por esta historia de hecatombes en el Mediterráneo. Al menos yo no la recuerdo de mis tiempos escolares; llegué a ella hace unos años y la he rememorado ahora, tras mi reciente visita a Micenas. De ella emanan una serie de lecciones que tienen una aplicación directa en la gestión empresarial.

Quizás la más evidente es la necesidad de estar preparados para el cambio. Por muy asentada que consideramos nuestra posición (como empresa líder, como trabajador de éxito, como persona) siempre habrá crisis, cambios drásticos provocados por factores internos o externos que no habremos sabido prever ni podremos controlar.

En el entorno tecnológico en el que nos movemos, los cambios se producen con celeridad y se propagan como un tsunami arrasando con todo. En un par de años cualquier producto puede quedar obsoleto, una empresa puede perder el liderazgo o podemos quedar excluidos de un mercado laboral demasiado intransigente. ¿Quién había oído hablar de BigData, Weareables o Internet de las Cosas hace 5 años?.

Esas olas inmisericordes provocan grandes catástrofes pero también generan grandes oportunidades, tras ellas acaban floreciendo empresas más originales, más brillantes, más innovadoras (ver el Poder Digital).

Al igual que los Pueblos del Mar supieron aprovechar la ventaja competitiva que les ofrecía su dominio sobre las técnicas de fundición del hierro para terminar con unos ya debilitados micénicos, una empresa puede dominar un nuevo sector del mercado en apenas unos meses favorecida por los nuevos canales de comunicación. Un producto capaz de cubrir nuevas necesidades pueden ahora vender más en un mes que sus predecesores en un lustro. Un gerente o un técnico que domine una nueva tecnología puede ascender como la espuma en un empresa o crear la suya propia sin requerir grandes inversiones.

La historia nos revela también la importancia de estar atentos a los cambios externos, de admitir la capacidad de los otros para superarnos, de evitar esa malsana zona de confort, de tener un Plan B.

También nos recuerda la importancia de presidir nuestras acciones con la modestia. Con los de Minos la Edad del Bronce alcanzó su máximo esplendor, pero tuvieron mala suerte arrasados por un inclemente naturaleza y unos pueblos muchos peor pertrechados. Tampoco los de Micenas tuvieron mejor suerte, atropellados por bárbaros del Norte. Quizás les vieran como gentes ignorantes, incapaces de superar la grandeza de ciudadelas ciclópedas como Tirintos o la propia Micena o la monumentalidad de la tumba de Agamenon, pero iban armados con espadas de hierro mucho más resistentes.

En fin, como decía Nicolás de Avellaneda, "los pueblos que olvidan su historia están condenados a repetirla"


También puede interesarte:

Las grandes Redes Sociales buscan acaparar el mercado empresarial

$
0
0
Los grandes actores de Internet han actuado siempre al margen del mercado corporativo. Seguramente su alto potencial de crecimiento ha motivado este menosprecio.

Sin embargo, en los últimos años todos ellos han iniciado una aproximación al mundo empresarial. No en vano, se estima que el mercado de las comunicaciones unificadas empresariales moverá 23.000 millones de dolares en 2019 (fuente...)

Y es una gran noticia para las empresas, especialmente para las pequeñas y medianas empresas pues pueden ahora disponer de unos servicios de alto valor añadido por un coste realmente asequible.

Durante unos años se han dado situaciones un tanto paradójicas en las que los empleados disponían, a nivel personal, de herramientas mucho más poderosas de las que les ofrecía su propia empresa por muy avanzada tecnológicamente que ésta estuviera. Ahora todo ha cambiado. Gracias a los últimos movimientos, cualquier empresa puede lidiar con los mejores buscadores (Google), ofrecer a los empleados un espacio prácticamente ilimitado en la nube (DropBox, Google Drive, OneDrive) o facilitar el trabajo de los equipos y el intercambios de conocimiento  (Slack, Yammer, Google Hangouts). Y todo ello cumpliendo una promesa desde hace demasiado tiempo anhelada: acceder a la información en cualquier momento, desde cualquier lugar y por cualquier medio.

PRINCIPALES PROPUESTAS

En 2007, la empresa del buscador lanzó Google Apps for Business (ahora conocido como Google Apps for Work) una plataforma diseñada específicamente para ofrecer una buena parte de sus herramientas de forma privada. Cualquier empresa pudo entonces disponer de unos servicios hasta el momento sólo al alcance de las grandes corporaciones por un coste reducido (eran 30 euros por empleado si el tamaño de tu empresa no te permitía negociar un coste inferior aunque los precios han subido).

La suite de Google es poderosa. Junto al buscador ofrece almacenamiento en la nube (Google Drive), portales colaborativos (Google Sites y Google Groups), redes sociales (Google+), servicios de comunicación (Google Hagouts, la evolución de Google Talk) y canales para publicar y compartir vídeos (YouTube). Su gran problema ha sido siempre la falta de una estrategia claramente definida lo que ha supuesto una escasa integración de estas herramientas y muy poca estabilidad en las propuestas. Si habéis trabajado con Google Apps, habréis comprobado que las funcionalidades cambian cada mes (a mejor, pero este hecho sólo demuestra las carencias previas) y las dificultades para administrarlas a nivel corporativo.

Microsoft realizó un movimiento similar con la adquisición de Yammer en 2012. La compañía se gastó la friolera de 1.200 millones de dólares para poder ofrecer a las empresas redes sociales privadas. Combinando esta plataforma con Skype (adquirida un año antes por 8.500 millones), Microsoft pretendía crear un servicio único que le permitiera seguir dominando el mercado corporativo y mantener el alto nivel de penetración de Microsoft Office que ya por aquel entonces suponía el 60% de sus ingresos.

Algo más modestas han sido las recientes adquisiciones de Acompli (cliente de correo electrónico) y Sunrise (App móvil para gestión de calendarios) más información) dentro de su nueva estrategia "Cloud and Mobile First".

Estas herramientas de comunicación combinadas con Azure (el servicio IaaS), OneDrive (almacenamiento en la Nube), Office 365 for Business y la plataforma Sharepoint de cosecha propia seguramente convierten a la oferta de Microsoft en la mejor combinación de servicios posible. Sólo el el buscador (me temo que Bing aún tiene un largo camino por recorrer si quiere equiparse con Google) y su penetración en el mercado móvil pueden alejarle del liderato en esta carrrera.

De todas formas, veremos que ocurre si se cumplen las promesas de Windows 10 (gratuito, integrado con XBox, multiplataforma, lenguaje natural a través de Cortana, Holografías)

Actores algo menos conocidos como Slack, una plataforma diseñada específicamente para favorecer el trabajo en equipo integrando herramientas de mensajería instantánea, un espacio de almacenamiento compartido en la Nube y un potente buscador, han apostado por ofrecer sus servicios a las empresas.

Nada es especialmente innovador en esta plataforma, su grandeza radica en la buena integración de todas las herramientas y su facilidad de manejo. Una  buena opción para las pequeñas empresas e incluso a nivel personal para trabajar con tu grupo de colaboradores.

Por cierto, aunque Slack es una empresa muy joven, ostenta un curioso récord: es la empresa que más rápidamente ha crecido en valor en la historia (YouTube alcanzó los 1650 millones en 20 meses, Groupon tardó 17 en superar los mil millones, Slack lo ha conseguido en apenas 14)

Dropbox es un servicio de almacenamiento en la Nube usado de forma habitual por más de 300 millones de personas. Ahora también forma parte del trabajo diario de 4 millones de empresas.

Es, probablemente, la mejor plataforma en su sector (rápida, segura, fiable, fácil de usar, intuitiva) aunque adolece de otros servicios como la mensajería instantánea o una red social integrada.

En consecuencia, en el mercado profesional se ve seriamente amenazada por Google Drive o las propuestas combinadas de Microsoft (OneDrtive, Office 365, Sharepoint)

Facebook ha sido el último en llegar pero, conociendo la magia que rodea a todas las iniciativas de Mark Zuckerberg, quizás pueda recuperar el tiempo perdido.

Los primeros rumores se escucharon en Noviembre del año pasado y ahora, en Enero de 2015, Facebook at Work es ya una realidad. Por el momento, sólo algunas empresas privilegiadas pueden acceder a este nuevo servicio pero no tardará en estar disponible para la gran mayoría. Aunque, por el momento, Facebook respeta la independencia de WhatsApp, veremos si se decide a sacar un mayor rendimiento a los 21.800 millones de dólares invertidos ofreciendo una versión privada para las empresas.

Connections es la apuesta IBM para ofrecer redes sociales corporativas.

En combinación con Notes (gestión documental), Dominio (aplicaciones de gestión), Verse (el nuevo sistema de correo electrónico de IBM que ya incorpora técnicas de Machine Learning) y Watson (inteligencia artificial), podría hacer resurgir de sus cenizas al gigante caído.

Curiosamente LinkedIn, un servicio orientado al entorno profesional, también anda algo retrasado aunque recientemente ha anunciado que comenzará a ofrecer algunas se sus herramientas a las empresas.

Sólo Apple parece ajena a esta carrera por el nuevo nicho de mercado, quizás escarmentada por una larga historia de fracasos relativos en este sector. Llama la atención la gran penetración de los dispositivos de Apple en las empresas, muchos de ellos comprados por los propios trabajadores, y la falta de interés del gigante americano por ofrecer servicios empresariales.

LUCES Y SOMBRAS

La globalización de este tipo de servicios tiene indudables ventajas:
  • Por un coste reducido se puede acceder a servicios de alto valor añadidoevitando inversiones en infraestructura y personal de mantenimiento
  • La continuidad del negocio está asegurada. Prácticamente todos los proveedores garantizan ese famoso 99,99% de disponibilidad
  • Se dispone siempre de la tecnología más avanzada cuya utilidad está, además, ampliamente contrastada. Cualquier avance en los servicios que estos proveedores ofrecen públicamente se transmite automáticamente a la versión empresarial. Tanto Google como Facebook y Microsoft están utilizando Deep Learning y otras técnicas de inteligencia artificial para la comprensión del lenguaje natural (lo que supone unos buscadores más avanzados y traductores en tiempo real) y el reconocimiento de imágenes. Tan pronto como estén listas las tendrás en tu empresa.
  • Los empleados están familiarizados con estos servicios y, en consecuencia, se facilita su introducción en la empresa. ¿Quién no sabe usar el buscador de Google? ¿Cuántos de nosotros utilizamos DropBox o Google Drive? ¿Quién no dispone de una cuenta en Facebook? (esta última pregunta es fácil de responder: yo y prácticamente nadie más)
  • La escalabilidad deja de ser un problema. Pagas un poco más y los Gigas se convierten en Teras diez minutos después. Estáis creciendo y el año que viene seréis el doble de personas. No hay problema, Facebook tiene más de mil millones de usuarios activos, unos cuantos cientos más no le van a suponer ningún problema (más información...).
Pero no todo es perfecto:
  • Aunque seguramente los servicios de Google o Dropbox sean mucho más seguros que los de cualquier otra empresa, también están más expuestos y, en consecuencia, la seguridad puede convertirse en un problema. El 2014 ha sido un año especialmente pródigo en ataques de hackers a grandes corporaciones. Basta recordar los casos de Sony, Facebook, Dropbox, eBay, Apple o del propio Google (os asombrarán los detalles que encontraréis en esta página). Pasar desapercibido se convierte así en la mejor defensa. Aunque no lo creas, hay muy poca gente interesada en quebrantar los sistemas de una empresa de tamaño medio, la mayoría son o han sido empleados.
  • Confiar datos sensibles a un tercero es también otro gran quebradero de cabeza para algunas empresas. Si trabajas en un proyecto para Defensa o es crítico mantener un proyecto en el más estricto secreto, ofrecer un alojamiento en la Nube a los equipos de trabajo no es la mejor opción. Conseguir que tu cliente lo admita, una misión imposible.
  • Las plataformas Web 2.0 y las Redes Sociales son por naturaleza (y por diseño) sistemas abiertos. En su versión empresarial se intenta limitar este hecho que es a su vez una ventaja y un inconveniente. Si así lo quieres, puedes abrir la plataforma a tus clientes y proveedores para, por ejemplo, compartir con ellos ideas y experiencias e implantar una cultura de co-creación. Pero debes mantener tu red bajo control y esto no siempre es tan sencillo. ¿Y si un empleado comienza a invitar a sus amigos a la red social de tu empresa?. Si cada persona dispone de un perfil profesional y otro personal en Facebook, ¿no le resultará relativamente sencillo transferir información de uno a otro?. Evitar la fuga de información en la actualidad, cuando cualquier persona puede llevar en el bolsillo un chip de memoria de 64 Gigas, no es un problema nuevo pero este tipo de servicios da una vuelta de tuerca más a esta problemática.
  • La integración con el resto de los sistemas corporativos no es inmediata. Algunas empresas pueden delegar sin problema todos los servicios informáticos. No les resulta igual de sencillo a otras en las que las nuevas plataformas deben convivir con otros sistemas como, por ejemplo, un ERP o un CRM. Si has implantado un sistema de Gestión por Competencias, ¿los empleados deben duplicar esfuerzos para mantener actualizados sus perfiles también en Facebook, LinkedIn o Google+? ¿Qué haces si ya dispones de una herramienta de Gestión de Proyectos que también ofrece facilidades para trabajar en equipo? ¿Prescindes de ellas?. Si lo haces quizás facilites la colaboración pero perderás las ventajas que ofrece el sistema integrado.
  • Pierdes el control. ¿Qué ocurre si Google decide ofrecer un nuevo servicio en el cual no estás interesado o que consideras potencialmente peligroso para tu organización?. Normalmente podrás evitar que se activen ciertas herramientas pero nada te asegura que siempre puedas hacerlo. Tu proveedor puede alegar que son una parte vital de la plataforma. Mucho peor lo tienes si deciden retirar alguna herramienta crítica para el funcionamiento de tu empresa. Te avisarán con tiempo pero, ¿qué haces si no te ofrecen alternativas?. Llevando esta reflexión al extremo, ¿qué ocurre si Facebook decide usarte como conejillo de indias para probar un nuevo algoritmo de clasificación cuyo objetivo sea desanimar a tus empleados?. Ya lo ha hecho una vez, enviando noticias negativas a cientos de miles de usuarios para ver si cambiaba su estado de ánimo. ¿Qué le impide hacerlo con tu empresa? (más información...)
  • Tampoco es sencillo afrontar los cambios en la plataforma aunque los consideres beneficiosos. La mayoría de los proveedores actualizan sus herramientas continuamente con las mejores intenciones. Algunos cambios son importantes y suponen un pequeño o gran esfuerzo para los usuarios. Éste es asumido en el espacio público, al fin y al cabo son servicios gratuitos. Pero los cambios pueden suponer un coste y la perdida de valiosas horas de trabajo en una empresa.
UN NUEVO RETO PARA EL DEPARTAMENTO DE IT

Una empresa de 20.000 personas necesita una importante inversión, tanto en software como en hardware, para mantener un servicio tan básico como el correo electrónico. Necesita disponer de un Centro de Proceso de Datos, instalar media docena de servidores, disponer o contratar sistemas de respaldo tanto para realizar copias de seguridad como para asegurar la continuidad del negocio. También debe preocuparse de la seguridad instalando firewalls, proxys, anti-virus, anti-spam y anti-malware. Debe, además, contratar a un tropel de técnicos para mantener los sistemas, atender incidencias y dar soporte a los usuarios.

Sin embargo, puede contratar Google Apps for Busines y disponer de gMail con dominio propio por menos de 30 euros por empleado (bastante menos si el tamaño de la empresa le permite negociar con Google). Por menos de 600.000 euros puede ofrecer el mismo servicio (parece mucho pero no es nada comparado con el coste actual) y disponer, además, de espacio adicional de almacenamiento en la nube (adiós a los servidores de ficheros corporativos), mensajería instantánea, vídeo-conferencia multipunto, herramientas para trabajo en grupo y otro largo elenco de maravillosas utilidades. Por supuesto, necesitará también algunos administradores pero su número se verá drásticamente disminuido.

No es de extrañar que el Responsable del Departamento de IT se sienta amenazado. Baja su presupuesto, disminuye el número de colaboradores y pierde parte el control sobre las plataformas implantadas. En definitiva, siente que pierde poder.

Y no acabo de entenderlo. ¿Qué puede ser mejor para un CIU que ofrecer un mejor servicio, aumentar el valor que aporta al negocio por un coste más bajo? El trabajo va a cambiar, desde luego, menos hardware y más software. Pero IT seguirá teniendo un papel fundamental en la empresa. Los sistemas deben integrarse, probablemente haya que adaptar o configurar los servicios de los proveedores y, seguramente, desarrollar nuevas funcionalidades.

Mantener servidores para el correo electrónico, instalar sistemas para la gestión documental o herramientas para facilitar la comunicación instantánea pronto dejará de tener sentido. Pero no hay de qué preocuparse: trabajo no va a faltar.

Ya deberíamos estar pensando en cómo instalar una red híbrida en la Nube que nos permita mantener protegidos en casa nuestros documentos más sensibles. BigData es otra realidad que, según el tipo de empresa, puede aportar un gran valor al negocio. En breve asistiremos a la llegada de los sistemas de localización in-site que permitirán, por ejemplo, ofrecer ayuda al trabajador en función del lugar en donde se encuentre o indicarle donde tiene un puesto disponible en las nuevas oficinas abiertas. También aumentarán el número de sensores disponibles, tendremos que estudiar cómo sacar partido a los nuevos wearables o sacar partido de los nuevos algoritmos que propone la Inteligencia Artificial. No tardarán mucho más en llegar robots cada vez más inteligentes a las empresas para realizar tareas básicas y otras más avanzadas.


También puede interesarte:

Excellence as a Service

$
0
0
Se lleva demasiado tiempo hablando de la necesidad de provocar un profundo cambio cultural que permita a los departamento de soporte de una empresa (Calidad, IT, Formación, RRHH, etc.) dejar de ser considerados como "facilities" para transformarse en servicios que aporten valor al negocio.

Algo hemos avanzado, especialmente en lo referente a la concienciación. "Nosotros no tenemos usuarios, tenemos clientes" comentaba uno de los directores de Renfe encargado de llevar el AVE a Sevilla allá por los noventa. "Tenemos que transformarnos en un servicio que aporte valor a la organización" reclamaba un director de IT en el último congreso de ITSMF.

Transformar nuestro vocabulario empleando términos propios del negocio es un buen comienzo pero no es suficiente. Para concienciar a un técnico del Departamento de IT de que los empleados de su empresa no son los enemigos, ni personas caprichosas que no hacen más que pedir con el único fin de molestar, no bastan unas cuantas palabras. Hacer comprender al Director de una empresa que le hacemos ganar más dinero auditando o poniendo no-conformidades tampoco puede lograrse recurriendo a tópicos como la mejora continua o la búsqueda de la excelencia. Hace falta una transformación mucho más profunda, mucho más íntima, mucho más emocional.


Los expertos en motivación dicen que las emociones surgen como consecuencia de tres acciones:
  • La postura
  • El Movimiento
  • El enfoque
Promover la transformación implica una postura positiva. Comenzar a cambiar, levantarnos de la silla, salir de la zona de confort, conlleva movimiento. Pero también debemos canalizar esta nueva energía, enfocarla correctamente para poder cumplir con nuestros objetivos.

EL ENFOQUE

Lean nos habla de una gestión enfocada a entregar el máximo valor a los clientes, a evitar los desperdicios y minimizar el despilfarro, es decir, a eliminar del flujo de trabajo todas aquéllas actividades que no aporten valor al negocio.

Si trabajáis en IT o en Calidad, seguramente tengáis claro el valor que aportáis a la empresa, lo imprescindible de vuestra participación para hacer que todo funcione a la perfección. Y es así, pero también hay que poder demostrar y cuantificar vuestra aportación.

La Misión de cualquier departamento de soporte debe ser, por tanto, ofrecer unos servicios lo suficientemente valiosos como para que sus clientes (la empresa) estén dispuestos a pagar por ellos con alegría, seguros del retorno de su inversión.

Para conseguirlo, debemos ser capaces de expresar este porfolio de servicios en términos comprensibles para el cliente los cuáles, en el mundo de los negocios, sólo pueden ser tres:
  • Incremento de las Ventas
  • Aumento de la Rentabilidad
  • Mejora de la Productividad
Toda la energía de los departamentos de soporte debe ser enfocada en esta línea considerando (y perdonadme) cualquier actividad que no contribuya a cumplir con estos tres objetivos como un desperdicio.

En un principio puede parece complicado expresar algunas actividades de esta manera. Sin embargo, dejadme hacer un breve ejercicio con las funciones que suele desempeñar el Departamento de Calidad en la empresa.

Evaluar la Satisfacción del Cliente, atender Reclamaciones y plantear Planes de Acción contribuye de manera directa al Negocio. Mantener las Certificaciones, disponer de Metodologías de gestión y desarrollo o elaborar Planes de Calidad son elementos fundamentales en los procesos de Homologación de Proveedores o en la respuesta a las RFI (Request for Information) y RFP (Request for Proposals) que lanzan nuestros clientes.

Controlar las Líneas Base de los proyectos (el tiempo, la calidad, el coste) y los Procesos de Entrega mediante indicadores, auditorías, planes de mejora y otros mecanismos de gestión y control de la calidad contribuye al cumplimiento de los planes y presupuestos establecidos y a garantizar la ProductividadRentabilidad en las operaciones consiguiendo así mejorar la Satisfacción de Clientes y Accionistas.

Estandarizar los procesos internos y optimizar su desempeño (auditorías, indicadores, planes de mejora, acciones correctoras) contribuye a disminuir los costes indirectos de la organización y con ellos a mejorar la Rentabilidad de los proyectos y servicios que ofrecemos o abaratar el coste de nuestros productos.

De la misma forma, controlar la Cadena de Suministro, asegurando la correcta elección de los proveedores o analizando y evaluando el servicio que ofrecen, contribuye a reducir costes en los procesos internos y en la entrega de proyectos, servicios o productos y con ellos a aumentar la Rentabilidad.

En definitiva, podemos establecer el Portfolio de Servicios del Departamento de Calidad de la siguiente manera:

Negocio:
  • Evaluación, Análisis y Mejora de la Satisfacción del Cliente
  • Gestión de Reclamaciones
  • Apoyo a RFI, RFP y elaboración de Ofertas
Rentabilidad y Productividad:
  • Aseguramiento del cumplimiento de las Líneas Base de Proyectos y Servicios (coste, tiempo, calidad)
  • Planes de Mejora para reducir costes en procesos internos y procesos de entrega
  • Control de la Cadena de Suministro 
El nuevo enfoque permite transformar auditorías, no-conformidades, acciones correctoras y el resto de la parafernalia propia de un Sistema de Gestión de la Calidad en herramientas diseñadas para cumplir con un objetivo de mucho mayor calado: apoyar a la organización en su camino a la excelencia ofreciendo servicios que aporten valor al negocio.

LA POSTURA

Una vez definidos nuestros objetivos, debemos promover un cambio cultural, un cambio de postura, haciendo que estos servicios estén siempre presentes en nuestro vocabulario, en el de nuestros equipos y en cualquiera de las actividades que proyectemos.

Volviendo al Departamento de Calidad, el portfolio de servicios debe aparecer plasmado en la Política de Calidad. Los Objetivos anuales que acordamos con la Dirección deben fijarse para optimizar cualquiera de estos servicios. Debemos dejar de hacer auditorías de procesos para cumplir con el expediente para intentar con ellas contribuir a mejorar el desempeño, incrementar la productividad o reducir costes. Debemos dejar de poner no-conformidades por incumplimientos formales de las normativas para plantear acciones que permitan corregir a tiempo desviaciones en las líneas base (incumplimientos contractuales, desviaciones en tiempo o presupuesto) de los proyectos que pudieran afectar a su rentabilidad. Y debemos dejar de rellenar de cualquier manera los formularios que nos envían los clientes en sus procesos de homologación o soltar una ristra de documentos incomprensibles para responder a la solicitud de un gerente apremiado por la urgencia de dar respuesta a una RFP para entender que sus éxitos y sus fracasos serán los nuestros.

El cambio de postura comienza en nosotros pero, si es sincero, se transmitirá a nuestros equipos y al resto de los estamentos de la organización.

EL MOVIMIENTO

Cargados de energía, toca moverse para generar esas emociones de las que hablábamos al principio.

Sin embargo, me comenta mi buen amigo Carlos que publico artículos demasiado extensos así que dejaremos esta tercera parte para la siguiente y última entrega de esta mini-serie.

En ella pondremos ejemplos prácticos sobre cómo gestionar y controlar los servicios establecidos que completaremos con algunas recomendaciones y buenas prácticas

CONTINUAR LEYENDO LA SEGUNDA PARTE >>


También puede interesarte:

Excellence as a Service, Segunda Parte

$
0
0
En la entrada anterior hablamos de dos de las principales palancas para promover la transformación en los departamentos de soporte de una compañía: el foco y la postura.

Comentamos la importancia de enfocar nuestras actividades para entregar el máximo valor a los clientes evitando los desperdicios y el despilfarro y la necesidad de establecer un portfolio de servicios orientado al negocio, es decir, a aumentar las ventas, mejorar la rentabilidad, la productividad y reducir los costes. Recalcamos, además, la necesidad de promover un cambio cultural haciendo que este portfolio esté presente en nuestro vocabulario, en el de nuestros equipos y en cualquiera de las actividades que emprendamos.

Ahora os proponemos un cambio tranquilo en dos fases. En la primera publicaremos el porfolio de servicios, desarrollaremos herramientas para medir y distribuir el esfuerzo entre los servicios y estableceremos indicadores que nos permitan estimar nuestra aportación a la cadena de valor de la empresa. En la segunda calcularemos el coste real que suponen nuestros servicios para después diseñar un plan de negocio y poder ofertarlos a nuestros clientes firmando acuerdos de calidad de servicio.

Quizás tengamos que dedicar un par de años para realizar para completar esta transformación gradual y alguno más para conseguir financiación externa pero, como decía Antonio Machado: "caminante no hay camino, se hace camino al andar".

EL MOVIMIENTO

Cargados de energía toca ahora moverse para convertir en una realidad lo propuesto hasta el momento

Lo primero es conseguir que el portfolio de servicios del departamento sea conocido y comprendido tanto por nuestros colaboradores como por el resto de la organización.

Podemos hacerlo distribuyendo un folleto comercial, colocando pósteres en lugares estratégicos o elaborando esas infografías tan de moda en la actualidad (aquí podéis encontrar unas cuantas buenas herramientas y una guía interesante sobre cómo diseñarlas también podéis consultar el artículo "Aplicación de las infografías en los Sistemas de Gestión")

El segundo paso consiste en desarrollar herramientas que nos permitan controlar y enfocar la actividad de nuestro departamento en cada uno de los servicios. Si queremos mejorar tenemos que medir (¿a qué velocidad corro habitualmente?), actuar (¿qué puedo hacer para ir más rápido?) y volver a medir (¿he conseguido acelerar el ritmo?).

Én cuanto a la medición, necesitamos un conjunto de indicadores que nos permita conocer la dedicación en cada servicio y otro conjunto para exponer los beneficios que aportamos en cada uno de ellos. ¿Cuanto esfuerzo dedicamos a mejorar las ventas?, ¿cómo hemos contribuido a reducir costes?, ¿los planes de acción han provocado mejoras en la productividad?, ¿los proyectos son ahora más rentables?.

¿A QUÉ NOS DEDICAMOS?

En primer lugar debemos entender que cada actividad que realizamos surge como consecuencia de una petición de servicio solicitada por algún estamento de la organización.

Cada petición quedará así tipificada por, al menos, tres parámetros: el servicio solicitado (mejorar las ventas, aumentar la productividad), el origen (quién la solicita) y su naturaleza (qué es lo que pretendemos hacer).

Por supuesto, podemos añadir cuantas dimensiones consideremos oportuno (el cliente, por ejemplo) y deberemos, además, estimar el esfuerzo requerido para atender cada petición (el famoso ETC: Estimated Time to Complete) y cuánto llevamos ya invertido.

Así, auditar el Proceso de Compras supone atender una petición de servicio asociada a la Mejora de la Productividad (Servicio=Productividad, Origen=Compras, Tipo=Auditoría) y atender una Reclamación de un Cliente implica gestionar una petición de servicio de alguna de las unidades de negocio (Servicio=Negocio, Origen=Unidad de Negocio, Tipo=Reclamación).

A partir de estas ternas podemos medir la dedicación en cada servicio haciendo que todo el personal del departamento complete un diario de trabajo (un parte de horas, un timesheet) indicando cuánto esfuerzo han dedicado a resolver cada petición.

Seguramente esta herramienta seguirá siendo tan impopular como lo es en la actualidad. Pero, si somos capaces de diseñarla siguiendo el portfolio de servicios, cobrará mayor sentido y quizás se acabe comprendiendo su necesidad y utilidad. Ya sabéis: postura, movimiento y enfoque para generar emociones positivas frente al cambio.

En la siguiente imagen podéis ver un ejemplo de uno de estos diarios de trabajo:


Como podéis comprobar, durante la semana en cuestión se han empleado 20 horas para resolver diferentes peticiones de servicio (auditar, evaluar satisfacción, controlar indicadores) más otras 15 dedicadas a temas internos: una reunión y la preparación del informe de revisión por la dirección; recodad que esta última tarea forma parte del mantenimiento de las certificaciones y está, por tanto, relacionada con el Negocio pues nos ayuda a aumentar las ventas. 

Quizás estés pensando que faltan 5 horas de trabajo (por aquí, al menos, lo más habitual es trabajar 40 a la semana). Yo, personalmente, prefiero ser flexible y no exigir registrar cada minuto que dedicamos a hacer algo. Siempre hay llamadas, cafés, pequeñas gestiones durante la semana. Prefiero suponer que es así y distribuir el tiempo "perdido" de manera uniforme entre todos los servicios o acumularlo en uno genérico de gestión diaria para, si fuera el caso, poder satisfacer las demandas del Departamento Financiero. 

Si no hay más remedio se puede recurrir a un Excel (ver "por favor, no más Excels") aunque existen excelentes soluciones comerciales (MS Project, Clarity) y Open Source (RedMine, Open Project, ver "19 herramientas Open Source gratuitas para gestionar proyectos" y "Herrramientas de ticketing Open Source") que os permitirán automatizar la gestión de las peticiones de servicio, diseñar los diarios de trabajo y personalizar los informes.

Existe una cierta polémica sobre el uso de este tipo de mecanismos de control del esfuerzo: 
  • Pierden utilidad con el paso del tiempo y acaban siendo descartados
  • Se tiende a "jugar con los números". Con el tiempo la gente comprende la herramienta y acaba reportando de tal manera que siempre los números salgan favorables a sus intereses
  • Reportar constituye una carga más en un proceso que se intenta agilizar y puede, hasta cierto punto, ser considerada como un despilfarro.
No estoy de acuerdo. Es como si llegas a una casa sin limpiar desde hace un año y dedicas una semana a adecentarla. Hay muchos desperdicios que eliminar y quizás necesites utilizar una pala. Pronto verás los resultados pero si continuas limpiándola todos los días, seguramente cambies la pala por una escoba y te parecerá que apenas haces nada, que no pasaría nada si, durante unos días, dejas que se acumule un poco de suciedad o si ocultas el polvo bajo la alfombra. Y, es verdad, pero no puedes dejar que pase demasiado tiempo si no quieres volver a encontrarte rodeado de podredumbre.

Espero que esta lícita polémica no empañe el espíritu que intento transmitir con estos artículos: la necesidad de un cambio, de una orientación al negocio y de poder medir para demostrar la aportación a la cadena de valor de la empresa. Si este tipo de mecanismos no os convencen hay otras soluciones aunque todas ellas acabarán, de una manera u otra, obligándote a tomar mediciones y analizar los datos recabados. Como decían por aquí en un anuncio de detergente, "busca, compara y si encuentras algo mejor, ¡cómpralo!"

¿APORTAMOS VALOR AL NEGOCIO?

Recopilando la información registrada por cada miembro del equipo de trabajo deberíamos poder realizar análisis similares a los siguientes:

Se observa que tenemos una buena distribución del esfuerzo por y que dedicamos un 15% del tiempo a la gestión interna (un porcentaje bastante aceptable). Sin embargo, el segundo gráfico indica que el 35% de nuestro tiempo se emplea en realizar informes y otro 10% en reunirnos. Ambas actividades son necesarias pero dedicar a ellas un 45% del tiempo no es aceptable. Debemos, por tanto, limpiar la casa, trabajar para disminuir este porcentaje, para reducir los desperdicios y evitar el despilfarro.

Análisis similares podrían realizarse considerando el origen de las peticiones de servicio (¿para quién estamos trabajando en realidad?) o de la dedicación de cada miembro del equipo (¿tenemos una distribución uniforme del trabajo?, ¿hay gente especializada en ciertas funciones?, ¿demasiada gente se dedica a realizar tareas administrativas o de gestión interna?.

Orientar nuestra actividad hacia el negocio no implica necesariamente que los servicios que ofrecemos aporten un valor real y, aún haciéndolo, debemos ser capaces de demostrarlo.

En consecuencia, debemos definir indicadores por cada uno de los servicios del porfolio y utilizarlos para demostrar nuestra aportación a la cadena de valor de la empresa. ¿Estamos ayudando a mejorar las ventas?, ¿somos ahora más rentables?, ¿hemos mejorado la productividad?, ¿en cuánto?.

Volviendo al Departamento de Calidad, deberíamos ser capaces de responder con datos a preguntas como las siguientes:

¿Está mejorando la satisfacción de los clientes?. Y si mejora, ¿les estamos vendiendo más?. ¿En cuántas homologaciones o RFP hemos participado?, ¿hemos tenido éxito?, ¿cuál ha sido la cifra de venta asociada a esos procesos?. ¿Cuántos clientes nos exigen estar certificados?, ¿de qué cifra de negocio hablamos?. ¿Cuántas reclamaciones hemos atendido y resuelto favorablemente?, ¿los clientes que nos han presentado alguna reclamación nos siguen comprando?. ¿En cuántos puntos ha mejora la rentabilidad de los proyectos tras haberlos auditado?. Nuestros planes de acción, ¿han supuesto mejoras en la productividad?, ¿han conseguido reducir costes?.

De la respuesta a estas preguntas surge la necesidad de utilizar indicadores como: Cifra de Negocio Evaluada, Cifra de Negocio Auditada, Evolución de la Rentabilidad de Proyectos y Servicios, Coste de Fabricación de Productos, Indicadores de Entrega de Proyectos (OC, OT, OQ: On Cost, On Time, On Quality)  o los indicadores para caracterizas la relación con los clientes.

Quizás, presentando estos indicadores consigamos suscitar el interés de la dirección y hacer que los procesos de revisión de los sistemas de gestión dejen de constituir un mero trámite (ver "En Calidad hablamos poco de dinero y esto nos cuesta muy caro")

TOCA COMPROMETERSE

Si hemos hecho bien las cosas, tras esta primera fase, deberíamos tener perfectamente definidos los servicios que ofrecemos, el esfuerzo que dedicamos a cada uno de ellos y, a partir de él, el coste que suponen para la empresa.

Por supuesto, habrá un cierto esfuerzo que no podremos relacionar directamente con ninguna petición de servicio (por ejemplo, algunas labores de gestión interna). Son los famosos desperdicios que podemos tratar como costes indirectos para distribuirlos de forma proporcional en cada servicio y poder así fijar su coste real.

También deberíamos ser capaces de distribuir dicho coste entre nuestros clientes (otros departamentos, las operaciones, las unidades de negocio, la propia dirección) considerando el origen de cada una de las peticiones de servicio recibidas.

Conociendo los costes reales que supone nuestro Porfolio de Servicios podemos ya elaborar un Plan de Negocio. Puesto que estamos hablando de servicios y no de productos, este plan deberá apoyarse en la firma de un contrato anual con cada uno de los clientes internos.

La firma de este contrato no va a ser sencilla. Para el cliente va a suponer unos gastos que, sin ser mayores que en el pasado, ahora le serán imputados directamente y, en consecuencia, se volverá más exigente esperando unos resultados igual de tangibles.

Tenemos, en definitiva, que ser capaces de vender nuestros servicios, de negociar con los clientes para convencerlos de que no suponemos un gasto más sino que también les aportamos beneficios cuantificables. 

Podemos (y debemos) expresar estos beneficios en función de ciertos indicadores (en cuánto mejorará la rentabilidad en los proyectos, cómo contribuiremos a reducir el coste de los productos, a mejora la satisfacción de sus clientes o la productividad del departamento, etc.) y comprometernos con su mejora. Estaremos así fijando un Acuerdo de Nivel de Servicio (SLA: Service Layer Agreement) con el cliente, un compromiso que marcará el éxito o fracaso del contrato.

NO TODO ES PERFECTO (O SÍ)

Con estos contratos hemos dejado de ser un centro de coste, una facility, para transformarnos en un negocio, en una unidad que aporta valor a sus clientes y al conjunto de la empresa.

Y, como nuevos empresarios, debemos asumir que existen riesgos. ¿Qué ocurrirá si no cumplimos con los acuerdos establecidos?. ¿Y si la empresa, ante la falta de resultados, decide buscar proveedores externos que ofrezcan los mismos servicios por un coste inferior o, simplemente, renunciar a ellos?.

La presión irá en aumento obligándonos a salir de nuestra zona de confort. Año tras año los clientes exigirán cada vez un compromiso mayor, demandando continuas mejoras en los indicadores y tendremos que ir reduciendo paulatinamente los costes. Quizás nos veamos obligados a buscar nuevas fuentes de ingresos ampliando el porfolio de servicios o incluso buscando clientes externos.

Yo me encuentro actualmente en este proceso de transformación. Es posible que esté echando piedras sobre mi propio tejado, que haya decidido dar un saltar al vacío, pero he de confesar que ahora me divierto mucho más. Todo comienza a estar más claro, afronto retos más interesantes y veo de una forma más clara los beneficios que puedo aportar.

CONCLUSIONES

Debemos transformar los departamento de soporte de las organizaciones en servicios que aporten valor al negocio. Es un cambio cultural profundo que implica orientar todas nuestras actividades hacia los tres pilares fundamentales en los que se apoya cualquier empresa: el incremento de las ventas, la mejora de la rentabilidad y el aumento de la productividad.

Para conseguirlo debemos:
  • Definir y difundir un porfolio de servicios en los que estos tres pilares se vean claramente reflejados
  • Promover un cambio cultural haciendo que estos servicios estén siempre presentes en nuestro vocabulario, en el de nuestros equipos y en cualquier actividad que emprendamos.
  • Desarrollar herramientas que nos permitan enfocar nuestra actividad y conocer la dedicación de los equipos a cada uno de los servicios y al cumplimiento de los objetivos que nos hemos marcado
  • Establecer indicadores para poder demostrar el valor que aporta cada servicio al negocio
  • Determinar el coste que cada servicio supone para la empresa y distribuirlo entre nuestros clientes (otros departamentos de la empresa, las operaciones, las unidades de negocio, la propia dirección) en función del origen de las peticiones de servicio recibidas
  • Diseñar un Plan de Negocio
  • Firmar contratos con los clientes internos que incluyan Acuerdos de Nivel de Servicio (SLA; Service Layer Agreements) basados en la mejora de ciertos indicadores 
  • Rezar ;)

También puede interesarte:

Cuando el eMail trabaja para ti en lugar de darte trabajo

$
0
0
El correo electrónico es una de esas aplicaciones que siempre está en el filo de la navaja, siempre criticada pero siempre presente en nuestras vidas.

No podemos vivir con ella porque el correo electrónico es un gran ladrón de tiempo. Concienzudos estudios han expuesto cuantas horas, cuantos minutos y cuantos segundos dedicamos a leer y atender esos dichosos correos que inundan nuestro buzón a diario. Esmerados especialistas se han devanado los sesos para proponer diferentes métodos de trabajo que minimicen la perdida de productividad provocada por esta entrañable herramienta.

Tampoco parece que podamos vivir sin ella pues seguimos consultando cada diez minutos nuestro buzón de entrada. No en vano el correo electrónico ha sido, en gran medida, el responsable del éxito de Internet. Sus detractores parecen no acordarse ya de la cantidad de tiempo que nos ha ahorrado evitando, por ejemplo, tener que atender quinientas llamadas diarias. Si nos resulta molesto leer los tediosos correos de ciertas personas, imaginad cómo era cuando tenías que hablar con ellas por teléfono. Nuestro denostado paladín incluso ha contribuido a frenar el cambio climático reduciendo los otrora inevitables desplazamientos para asistir a reuniones sin sentido, convocadas con el único fin de realizar alguna comunicación oficial o reduciendo los comunicados impresos que, en el pasado, nos veíamos obligados a leer y, en ocasiones, a rubricar con nuestra firma.

Sin embargo, primero el Spam, luego la mensajería instantánea y, finalmente, las redes sociales sugieren que algo debe de cambiar, que deben existir mejores soluciones para cubrir esta necesidad de comunicación.

Y ALGO ESTÁ CAMBIANDO

Recientemente hemos visto como Apple (Mailbox), Micrsooft (Outlooko Google (Inboxse esfuerzan por mejorar la experiencia del usuario a la hora de gestionar nuestro buzón de correo.

La idea es incorporar un asistente digital que, a partir de la información que posee sobre nuestro comportamiento, sea capaz de ahorrarnos trabajo clasificando los correos, relegando a los que considera inútiles y ofreciéndonos información adicional (ver "Los nuevos asistentes digitales").

El primero en embarcarse en esta competición fue Apple con su popular Siri. ,Google no quiso quedarse atrás y lanzó Google Now. Ahora es Microsoft quién anda reinventando el concepto de la comunicación y la colaboración en el entorno empresarial con sus nuevas versiones de Outlook y Exchange que pronto se verán beneficiadas por Cortana, su asistente personal ya integrado en Windows 10 (os dejo un vídeo sobre este tema).

También proliferan herramientas en la nube que proponen nuevas formas de colaboración. Si no la conocéis, probad Slack, una fabulosa suite de herramientas que combina funcionalidades propias de Dropbox con la mensajería instantánea o el correo electrónico. Por algo ostenta un curioso récord: es la empresa que más rápidamente ha crecido en valor en la historia (YouTube alcanzó los 1650 millones en 20 meses, Groupon tardó 17, Slack lo ha conseguido en apenas 14). También Facebook y LinkeIn buscan resolver esta problemática ofreciendo versiones de sus Redes Sociales adaptadas al entorno empresarial (más información...)

LA PROPUESTA DE IBM

En este contexto entra en escena IBM Verse, la propuesta del denigrado gigante americano que ahora resurge de sus cenizas de la mano de la Inteligencia Artificial y el Deep Learning (más información...).

IBM Verse es, en realidad, una suite de herramientas que combina una gestión avanzada del correo electrónico y de tus contactos con opciones de gestión documental (Notes y Domino) facilitando así la colaboración de los equipos de trabajo en las empresas.

En cuanto al correo electrónico, Verse es capaz de organizar la bandeja de entrada de forma automática, asignando categorías a cada correo electrónico recibido. Pero, además, predice cómo vas a responder e incluso te ofrece un borrador que puedes enviar tal cuál si no aprecias en demasía tu puesto de trabajo.

Este milagro se consigue gracias a las nuevas técnicas de análisis de información que vienen de la mano de Big Data y al Aprendizaje Automático (Machine Learning) que permite a la herramienta ir perfilando tu comportamiento mientras aprende de las reacciones a los correos que atiendes diariamente. Y es sólo el principio, pronto veremos cómo puede ayudarnos Watson, la Inteligencia Artificial que está desarrollando IBM (ver "La carrera por crear la primera Inteligencia Artificial")

A diferencia de InboxIBM Verse ha sido diseñado para moverse en el mercado corporativo en donde existen importantes exigencias en cuanto a la privacidad y la seguridad. Mientras que la propuesta de Google funciona en la nube, aprovechando la inmensa cantidad de información disponible sobre nuestro comportamiento para ahorrarnos algunas tareas y ofrecernos esa publicidad gratuita que tanto nos gusta, IBM Verse trabaja en el seno de la organización asegurando que nuestros datos se mantendrán a salvo de miradas curiosas. Por supuesto, aprovecha las ventajas de la nube pero la plataforma no envía información a terceros ni aprovecha la de otros para mejorar las servicios que ofrece.

Por el momento, Verse está disponible en una versión gratuita más que adecuada para pequeñas empresas. Pero este mismo año saldrá al mercado la versión de pago y podremos ver su potencial real cuando funcione junto con IBM Connections, la solución de este proveedor para las redes sociales corporativos. Gracias a esta integración, IBM Verse podrá acceder al histórico de los correos electrónicos de cada empleado, sus contactos, los documentos que maneja y las conversaciones de mensajería instantánea que ha mantenido y aprovechar toda esta información para ofrecer una mejor experiencia a estos nuevos trabajadores de la era de la gestión del conocimiento.

Por una vez, no voy terminar alertando sobre los riesgos de esta profusión de herramientas cada vez más inteligentes que explotan la ingente de información disponible sobre nuestra vida personal y profesional. Aunque es cierto que, como decía hace unas semanas Barak Obama, "si queremos estar conectados, también debemos estar protegidos", tampoco podemos renunciar a las ventajas que nos ofrece la Inteligencia Artificial. Así que, mientras no lleguen esas leyes que deberían garantizar la privacidad, quizás debamos seguir los sabios designios del dicho "si no puedes vencerlos, únete a ellos"


También puede interesarte:



Entrevistas a los personajes más influyentes del mercado tecnológico

$
0
0
Hace unos meses escribí sobre una nueva forma de poder que está surgiendo en este mundo dominado por la tecnología: el Poder Digital.

En el artículo se nombraba a una serie de emprendedores que, en apenas unos años, han conseguido hacerse inmensamente ricos creando algunas de las empresas más poderosas de la actualidad.

Toca ahora escucharles.

Comenzamos con una famosa entrevista en la que Bill Gates y Steve Jobs comentan su visión personal sobre la empresa de su rival. Son 7 minutos que no tienen desperdicio. Hablan de apostar, uno por el software, el otro por ordenadores dirigidos al gran público. Hablan de crear equipos de visionarios capaces de dar lo mejor de sí mismos. Nos os perdáis la conversación sobre los rompedores "discos ramificados" de Apple capaces de almacenar 28 Kb o cómo envidiaba Bill el "gusto y elegancia" de los productos de Apple.



También os dejo dos enlaces a la que se conoce como la Entrevista Perdida en  inglés y doblada al español.  Fue grabada en 1995, justo cuando Steve Jobbs "abandonaba" Apple para fundar Next. Apenas se emitieron unos minutos y luego la grabación se perdió hasta que, en un desván,  se encontró una copia en VHS dieciséis años después. Es una hora larga pero merece la pena ver y escuchar a un jovensísimo Jobbs en ese momento crucial de su vida.

Seguimos con Larry Page y Sergei Brin, los chicos de Google. Son dos entrevistas. En la primera, apenas 9 minutos, Larry Page habla sobre su infancia, sobre cómo surgió en él esa necesidad de inventar y por qué decidió desarrollar un nuevo buscador en Internet. Es interesante ver cómo ya entonces buscaba dotar al buscador de mayor inteligencia, algo que sólo ahora parecen estar consiguiendo



En la segunda tenemos a los dos ofreciéndonos en media hora su visión sobre la tecnología en un temprano 2007. Especialmente interesante la regla del 70/20/10 como medio para gestionar lo que denominan "el caos creativo" inherente a la actividad de Google:


Y seguimos con Mark Zuckerberg y Facebook. Os dejo una de mis entrevistas preferidas, grabada en la Startup School en 2013. Para los que no queráis escuchar a Mark durante 36 minutos, os dejo esta otra, más breve y mucho más antigua





El el turno de Jack Dorsey. A pesar de la inmediatez que preside su red social de noticias, la entrevista dura 27 minutos aunque tampoco tiene desperdicio. Por si acaso, os dejo también una más curiosa grabada en Chile de apenas 4 minutos.


Seguimos con Reid Hoffman. Para los que no le conozcáis, es considerado el inversor más exitoso de las últimas décadas. Su nombre está ligado a empresas como Facebook, Zigna,Paypal y, por supuesto, LinkedIn. Así que merece la pena escuchar lo que tiene que decir.

La primera entrevista es realmente reciente pues ha sido grabada en 2014, así que ofrece una buena visión de cómo entiende Reid el desarrollo tecnológico actual.


La segunda, algo más extensa, ha sido grabada en la Startup School, también en 2014:


La última es de la edición 2010 de la misma escuela. Merece la pena verle moverse por el escenario con las manos en los bolsillos:


Terminamos esta primera entrega con Kevin Systrrom el fundador de Instagram. Son 5 interesantes minutos en una entrevista muy personal.:






17 Open Source tools (completely free) for project management

$
0
0

(Spanish Version)

Acquire a tool for managing projects is prohibitive for some organizations.The Open Source community offers some of them completely free that can meet most of your requirements.

A year ago, Bitelia published an excellent compilation of ten of the best tools completely free ( see list ... ).  Some of them are available for different operative systems like Colabtive, Project HQ, Gantt PVTaskJuggler or Clockling IT, Others are accessible from cloud as TeamWork or dotProject.net and some are specialized in agile methodologies as iceScrum.

I have updated that list to include some more that, in the last year, have grown in popularity (you know, a year is like a century in software development):

Here they are:
  • OpenProject : includes facilities for managing timelines, workpackacges and documents, Wikis, News and Forum arre available for collaboration and there are plugins for cost management and support for agile methodologies like SCRUM
  • ProjectLibre : is a fork of Open Project under CopyLeft license ( more info ... ). Designed with the ambition to replace Microsoft Project offers, in consecuence, similar functions. It was chosen among the top 10 open source projects in 2013.
  • ProjectOpen : Continuing with this jumble of names, this tool differs from previous ones as it's able to manage programs and portfolios (Enterpriser Project Management) in line with Microsoft Project Server. It also includes classical project management functionality, options for financial control, manage human resources and customer relationships as well as tools for collaborative work and knowledge management. In summary, a complete tool available to install on a local server or accesible in Cloud (SaaS, Software as a Service).
  • Open Workbench : a tool specialized in the WBS (Work Breakdown Structures) management . Although it's an open source tool, you have to pay for added value services as, for example, replanning algorithms (eg to calculate the critical path). It's very common to see Open Workbench associated with Clarity, a budgetary control oriented project management tool
  • RedMine : best known as a ticketing tool (in this area is one of the best) also offers options for  Gantts, time tracking and document management. Readmine can also be integrated with version control systems like Subversion , CSV or Git . If you are looking for a ticketing tool, Readmine  is probably the most complete, but there are other good alternatives as Request Tracking (RT),  Bugzilla and Mantis Bug Tracker  (MantisBT), the latter two more focused on in the development os software (see 9 Ticketing Open Source Tools completely Free ... ).
  • Collabtive : this online tool (available in cloud) is the free version of Basecamp. Includes tasks and milestones management , time tracking, document management. Its functionality can be extended with plugins
  • IceScrum : As its name suggests, it's focused on supporting agile methodologies. Sprints, Product Management, Release Plan, Sandbox, Timeline or Scoreboards are covered by this tool as well as other agile practices. There is a free version and a paid version with extended functionality.
  • TaskJuggler : a complete tool. It aims to support all phases of a project from its conception to its end making available some unusual tools on other platforms. Alongside the more classic and interactive Gantt charts, timelines, schedules, budget control and cost plan or resource management offers others options to manage project scope, risks or to define a communication plan. Warning: latest version cames from June 2013, so maybe you will not get support for it
  • Archievo : online platform focused on resource management. It also includes functionality for project management, time tracking and agendas. Available in multiple languages
  • dotProject.net : provides options for planning, task management and team communication and collaboration. It is a good tool but limited in scope
  • GanttProject : desktop tool available for various operating systems. Provides Gantt charts (obviously) and PERT and facilities to plan resource loading (Resources Workloads). A tool unpretentious but useful and easy to use ( more ... )
  • Project HQ : based on BaseCamp and ActiveColab is a collaborative project management tool built with Python and other Open Source tools. It manages tasks, milestones and it's able to manage different companies and projects. In my opinion, its best time has gone.
  • Gantt PV : a simple tool that, as its name suggests, support Gantt charts. The latest version is from 2012 so I don't recommended it. Anyway, if you are looking for something simple perhaps it's a choice
  • Clocking IT : online tool designed for facilitating task management and time tracking. It offers interactive Gantt charts, a good reporting system and is available in many languages
  • ProjeQtor : manage multiple projects, planning activities, ticketing, resource allocation and workload, risks, incidents, opportunities, agendas, version management, requirements, test cases, workflows, checklists, alerts and notifications. In short, a tool designed to cover the entire lifecycle of a product. Also note that there are a large community around this tool which ensures updates and support via forums.
  • OpenPPM : Its distinguishing feature is the possibility to manage portfolios and programs. The source code is available on SourceForge although the last version is managed by Talaia, perhaps the only viable option as the last public version is from 2012. This company also offers a Cloud version (SaaS)
  • Aras PLM : a tool that tries to cover the entire lifecycle of a product (Product Lifecycle Management). Highlights for not very common  functionalities as Configuration Management (PDM: Product Data Management ), integration with CAD (Computer Aided Design) or Change Management (Enterprise Engineering Change Workflow). Gantt, Pert, Risk Management and a curious dashboard for managing portfolios arre others options..

If you are looking for a commercial tool, Wikipedia offers a wide comparison or rreview this  recent collection of the 20 most popular project management tools  (mostly commercial)

Doe you now other Open Source tools for project management?, What's about your experience with those tools?. 



You should be interesting on (sorry, at the moment only in Spanish):


Uso de Infografías en los Sistema de Gestión de la Calidad

$
0
0
Llevo una buena temporada preocupado por la falta de integración del Departamento de Calidad en las organizaciones, especialmente en aquéllas que ofrecen servicios.

Los argumentos tradicionales para justificar su existencia han comenzado a mostrar cierta debilidad. Ya no resulta suficiente con afirmar que, por el simple hecho de seguir las directrices de una cierta normativa, se ofrece un mejor servicio o aumenta la satisfacción de los clientes.

Los tiempos en los que se suponía un valor añadido o diferencial al Departamento de Calidad ya han pasado. Es necesario dar un paso adelante y demostrar esta aportación si no queremos convertirnos en una carga para la organización, en un mal necesario.

En este proceso de cambio, el Departamento de Calidad debe transformarse para ser capaz de aportar valor al negocio, y poder demostrarlo con datos objetivos.

En un artículo anterior (ver Quality as a Service)  proponía una forma de emprender este proceso de transformación en cuatro fases:
  • Definiendo y difundiendo un porfolio de servicios que clarifique el valor aportado
  • Analizando los esfuerzos dedicado a cada servicio (¿enfocamos nuestro trabajo a ofrecer valor o andamos perdidos intentando atender las peticiones de unos auditores demasiado exigentes?)
  • Definiendo indicadores que expongan el valor que aportamos en cada uno de los servicios 
  • Estableciendo acuerdos (SLA, Service Level Agreements) con el resto de la organización que marquen nuestras metas.
Es un proceso largo que, sin embargo, puede acometerse en diferentes fases y escenificarse desde un principio con pequeños pero importante gestos. Uno de ellos pasa por cambiar la forma en que exponemos nuestro trabajo, en incorporar el marketing a nuestras actividades.

En Calidad, es bastante habitual esperar al final del año para elaborar un concienzudo informe en el que analizamos cada uno de los procesos de la organización, mostramos la evolución de ciertos indicadores, las acciones correctoras emprendidas  y los resultados de la auditorías internas y externas. Esperamos con este informe convencer a la Dirección de la relevancia de nuestro trabajo y de la necesidad de disponer de los recursos adecuados para continuar con tan importante labor.

Pocas veces lo conseguimos. Quizás el problema no está en los fundamentos de nuestro trabajo sino en la forma de exponerlo. Seguramente, el Comité de Dirección no dispone de tiempo para analizar en detalle un extenso documento de 100 páginas, ni siquiera logrará captar su atención un lustroso Powerpoint de 40 transparencias.

Pero puede que sí se sienta a traído por una sola página, una infografía, en la que, de forma extremadamente visual, mostremos los principales logros del departamento. Si así conseguimos captar su atención, después ya habrá tiempo para analizar pormenorizadamente cada detalle.

¿QUÉ ES UN INFOGRAFÍA?

Una infografía es una forma de exponer la información de forma resumida en un espacio que no suele superar el tamaño de un DIN A3. Esta limitación de espacio obliga a utilizar un formato muy visual, en el que diferentes tipos de gráficos se combinan con algunos mensajes clave.

En función de la información que queramos exponer y la forma de hacerlo, las infografías pueden clasificarse de diferentes maneras:
  • Diagramas de Flujo: se detallan procesos, métodos de trabajo, tomas de decisiones. Entrarían también en esta categoría los organigramas y las jerarquías (ejemplo1, ejemplo2, ejemplo3, ejemplo4, ejemplo5)
  • Líneas de Tiempo: para recalcar acontecimiento, trabajos realizados en un periodo de tiempo, procesos de toma de decisión (ejemplo1, ejemplo2, ejemplo3, ejemplo4)
  • Comparativas: para analizar las diferencias entre diferentes productos, procesos, o los resultados de diferentes áreas de una organización (ejemplo1, ejemplo2, ejemplo3)
Hay infinidad de propuestas, tantas como abarque la imaginación de un buen diseñador (echad un vistazo a esta ¿"pizarragrafía"? sobre la metodología Lean Startup). Sin embargo, lo más importante es entender cuál es el mensaje que queremos transmitir y elegir el diseño más adecuado para hacerlo. Así que, echad un vistazo a los ejemplos que os propongo en esta clasificación y luego tomad vuestra decisión.

¿CÓMO HACER UNA INFOGRAFÍA?

Las Infografías no son algo nuevo. Las recuerdo en mi infancia inmersas en enciclopedias ilustradas o como reclamo en la revista MUY INTERESANTE (lamentablemente esta publicación sucumbió a los encantos de esta herramienta centrándose en la anécdota y olvidándose de esa labor divulgadora que tan bien la caracterizó en sus comienzos, pero eso es otra historia).

Lo que ha cambiado es la disponibilidad de un buen conjunto de herramientas que permiten a cualquier profano elaborar fantásticas representaciones sin tener conocimientos de diseño gráfico o incluso careciendo del más mínimo gusto artístico (es mí caso; a pesar de disponer de una genética favorable hacia las artes, salí ingeniero).

He de reconocer que no soy un experto en este área. Cuando decidí incorporar las infografías a mi experiencia profesional consulté algunas comparativas (ya que estamos os dejo un infografía sobre algunas), probé un par de herramientas y acabé decantándome por una de ellas bastante rápidamente.

Elegí PiktoChart. Sinceramente, no sé si es la mejor pero sí puedo comentaros porqué sigo utilizándola:
  • Está disponibble online así que no requiere instalación alguna
  • Se puede usar de forma gratuita con ciertas limitaciones y su versión de pago tiene un coste muy asequible
  • Es bastante intuitiva y sencilla de usar. Si te manejas con Powerpoint, no te costará demasiado adaptarte.
  • Ofrece un buen conjunto (aunque no demasiado amplio) de atractivos gráficos para representar datos
  • Los datas para estos gráficos pueden introducirse manualmente mediante un sencilla hoja tipo "Excel" o bien puedes hacer que la herramienta los lea directamente de Google Drive. De esta forma, puedes crear una hoja de cálculo en tu Drive y cada vez que la modifiques se actualizará automáticamente la infografía.
  • Dispone de una amplia biblioteca de iconos y también de algunas formas predefinidas para remarcar datos o mensajes
  • En la versión de pago tienes a tu disposición un extenso conjunto de diseños que puedes adaptar fácilmente a tus necesidades
  • Ofrece utilidades para manejar paneles y objetos. Puedes agruparlos, ordenarlos, llevarlos al fondo, ponerlos en el frente o incluso bloquear su posición lo que facilita la edición y mantener la estructura básica impuesta por el diseño
TODO UN AÑO DE TRABAJO EN UN SOLA PÁGINA

Optar por esta forma de representación no sólo es una cuestión técnica o de diseño. En necesario emprender un largo proceso de reflexión que nos permita resumir toda la información acumulada en el año con un puñado de gráficos y unos cuantos mensajes clave.

En este proceso deberemos recopilar toda la información posible, organizarla, priorizarla para poder descartar todo lo que no sea realmente importante y, finalmente, encontrar la mejor manera de exponerla.

Aquí os dejo un artículo con algunas recomendaciones que, como no podía ser de otra manera, utiliza una sencilla y clara infografía. Y una más de cosecha propia: a la hora de priorizar ponte siempre en el lugar de la persona a la que le vas a mostrar la información y piensa si realmente le va a interesar. Si no lo ves claro, ya sabes lo que tienes que hacer.

Es un ejercicio que yo recomendaría a cualquier persona con independencia de área en el que trabaje. Es incluso interesante a la hora de elaborar nuestro Curriculm Vitae. Si estáis en esta fase de vuestra vida profesional, os recomiendo este artículo. En él encontraréis algunas propuestas fantásticas para darle un toque personal y profesional a esta documento tan importante.

Volviendo al tema que nos ocupa, y considerando un Departamento de Calidad estándar, en nuestra infografía deberíamos incluir información sobre:
  • La satisfacción de los clientes según el tipo de productos o servicios. Para ello, vamos a utilizar una representación clásica del NPS (Net Promoter Score) (ver "¿Se puede evaluar la satisfacción del cliente con un sólo indicador?"). También podría resultar interesante (no lo he hecho en ejemplo) añadir una matriz BCG que, por ejemplo, relacione la satisfacción del cliente con la cifra de negocio (más información...)
  • Las auditorías realizadas y sus resultados. 
  • Las No-Conformidades detectadas y su estado. Aquí emplearemos un Pareto con dos bandas acumuladas, una para las no-confomidades abietas y otras cerradas
  • La situación de los principales indicadores.
  • El cumplimiento de los objetivos marcados.
  • Recomendaciones para la mejora en el siguiente periodo
Ni que decir tiene que me dejo mil cosas en el tintero, cada uno tendréis que decidir en dónde hacer hincapié. Eso sí, intentando siempre hablar en el idioma que mejor entiende la dirección, el negocio (cifras de venta, margenes directos y operativos, etc) (ver "En Calidad hablamos poco de dinero y nos cuesta muy caro")

Y, nada más, aquí tenéis el resultado el final. Espero que os guste a pesar de mis ya reconocidas carencias artísticas ...


También puede interesarte:


Sensores y Wearables para controlar la calidad del aire en las Smart Cities

$
0
0
Nuestra generación ha sido la primera capaz de comprender el daño que estamos haciendo al planeta pero nuestros esfuerzos por remediarlo no han resultado suficientes. Es más, la emisiones de CO2 continúan aumentando año tras año.

Afortunadamente, hemos dedicado ingentes esfuerzos a la concienciación  medioambiental esperando que nuestros hijos o nuestros nietos se muestren más diligentes para atajar el problema.

Sin embargo, también nos hemos mostrado muy capaces de ocultar nuestras miserias. Hemos sabido disimular con gran decoro los vertederos en las afueras de las ciudades. Los vehículos emiten ahora mucho menos CO2 y nos parece un avance importante aunque se vea eclipsado por el aumento en su número y la mayor distancia que debemos recorrer diariamente. Aunque los fondos marinos se encuentran en un estado lamentable, nos bañamos ahora en playas más limpias que hace 40 años pues los ayuntamientos se afanan en limpiar con esmero el litoral no sea que un turista intransigente opte otro destino más saneado.

Es posible que esta confrontación, entre concienciación y ocultación, comience a ofrecer un vencedor con la llegada de los nuevos sensores de calidad del aire que pronto veremos incorporados en Wearables de distinta índole y, algo más tarde, en nuestros dispositivos móviles. Quizás así, gracias al aviso de un dispositivo electrónico, dejemos de tolerar vivir en ambientes demasiado contaminados y seamos capaces de reaccionar. Quizás así evitemos tener que escuchar a alcaldes y gobernantes decirnos que todo va bien, que esa niebla que nos impide ver más allá es accidental (la foto es de un mañana soleada en 2011, este año ha sido peor en Madrid)

SENSORES DE LA CALIDAD DEL AIRE

En los próximos años, cientos o miles de dispositivos electrónicos inundarán el mercado ofreciendo las más variopintas aplicaciones. La mayoría se conectarán a nuestros dispositivos móviles aunque también lo harán entre ellos para crear esa Internet de la Cosas de la que ya se lleva un tiempo hablando.

Gafas y relojes han sido los primeros y, aunque no han alcanzado el éxito esperado, nadie duda que han venido para quedarse. Al menos así lo sugieren las enormes inversiones de las grandes empresas tecnológicas y el auge de los wereables orientados a controlar las actividades deportivas.

Una de las aplicaciones más interesantes de estos dispositivos estriba en su uso como sensores para tomar diferentes mediciones relacionadas con el medio-ambiente. Para finales de 2015 ya está previsto el lanzamiento de algunos productos capaces de medir la calidad del aire y la concentración en él de diferentes sustancias químicas nocivas.

Entre estos nuevos dispositivos podemos destacar TZOAAirBeamPEMAir Quality EggChemiSenseWEPO o Clariy. Os dejo enlaces a cada uno de ellos pero, básicamente, todos son capaces de medir la temperatura, la humedad, la concentración de CO2 y, los más avanzados, la exposición a los nocivos rayos ultravioleta. Además, la mayoría ofrecen la posibilidad conectarse con un smartphone para registrar en la red la información medioambiental capturada y dan acceso a mapas geográficos que muestran la situación en tiempo real.

Si estáis preocupados por la calidad del aire que respiráis, ya existen algunos productos comerciales capaces de medir de forma continuada la calidad del aire en el interior del hogar como la WebCam Whithings Home, los sensores de Canary o las estaciones meteorológicas de NetAtmo.

Incluso se están diseñando nuevas prendas que serán capaces de purificar el aire en nuestro entorno como la BBSuit 2.0 o paraguas capaces de medir el nivel de contaminación como el Sensing Umbrella (un experimento, un tanto loco, realizado en Copenhague).

LA PARTICIPACIÓN CIUDADANA

Por el momento estos sensores son relativamente caros (entre 50 y 100 euros) y demasiado grandes, pero no tardarán en abaratarse y reducir su tamaño. Cuando esto ocurra podrán incorporarse al, cada vez más extenso, conjunto de sensores de nuestro teléfono móvil.

Y así, agregando la información proporcionada por miriadas de sensores y combinándola con sistemas de localización GPS será posible crear mapas extremadamente detallados de la situación medioambiental en las grandes ciudades o, incluso, en todo un continente, un objetivo que está ya en la agenda de todas las Smart Cities.

Los primeros en llegar serán los de contaminación acústica pues para generarlos se pueden utilizar los micrófonos de los Smart Phones. Puede parece una tarea sencilla. Sin embargo, existen bastantes dificultades técnicas derivadas del lugar y el momento en que se realizan las mediciones del nivel de ruido. ¿Y si estamos viendo la TV o tenemos a dos personas hablando a gritos demasiado cerca?. Para solventar este problema, las Apps más avanzadas analizan el entorno para determinar si estamos o no dentro de un edificio o si se escuchan conversaciones cercanas. Sólo en caso de estar en un ambiente "limpio" la grabación es tomada en consideración (más información...).

En cuanto a la polución, merece la pena mencionar la iniciativa AirCasting, una plataforma Open Source que ofrece este tipo de mapas a partir de la información capturada por una gran variedad de sensores conectados a dispositivos móviles. Si te interesa participar, puedes hacerlo con tu móvil Android instalándote esta App grratuita. Si no dispones de un sensor más avanzado, sólo podrás informar sobre la contaminación acústica a través del micrófono de tu móvil, pero es un primer paso.

En la misma línea está el observatorio del aire de la Unión Europea, un servicio que permitirá conocer la calidad del aire en las diferentes regiones a partir de la información proporcionada por las ciudades y los teléfonos móviles de los europeos.

Frente a esta forma de participación ciudadana activa, ciudades como Chicago ya están instalando un alumbrado que incorpora sensores para controlar la polución y el tránsito de personas por determinadas áreas.


También puede interesarte:

15 Lecciones Aprendidas sobre la Gestión mediante Indicadores

$
0
0
Si dispones de datos, obtener indicadores es un proceso sencillo. Cuentas, sumas, divides, sacas el porcentaje y voilà, ya tienes un fantástico indicador. Si, además, tus procesos están relativamente bien automatizados, datos no te van a faltar así que tu problema no va a pasar por disponer de indicadores.

Más bien morirás de éxito, abrumado por cientos de numeritos que irán adoptando diferentes formas y colores con el paso del tiempo. Si eres una persona curiosa (es mi caso) lo agradecerás pues podrás pasarte las horas muertas investigando los entresijos de tu empresa mientras juegas con tablas dinámicas o navegas por las entrañas de los cuadros de mando.

Sin embargo, la utilidad de los indicadores en la gestión bebe de fuentes bien diferentes. Frente a la curiosidad se busca la utilidad, frente a la cantidad la calidad, frente a la contemplación la acción.

En lo que sigue dejaré al héroe Akademo reposar tranquilo en los jardines de la institución fundada por Platón, esa famosa Academia que tanto influyó en la evolución del pensamiento occidental en los dos milenios siguientes, para centrarme en algunas lecciones aprendidas a lo largo de los años que, espero, saber exponer mediante ejemplos concretos que os resulten útiles.

LA CLAVE ESTÁ EN EL SIGNIFICADO

Dicen que, en su momento de mayor prosperidad, Arthur Andersen se gestionaba con tan sólo tres indicadores: el facturable, el write-off y las horas trabajadas. Tanto la dirección, como los socios y el resto de los empleados eran evaluados en función de estos tres temibles valores que marcaban la famosa política de Up-or-Out.

Si os interesan las aventuras y desventuras de la Firma, así es como la llamaban "los arturos", os recomiendo el libro "El Legado de Arhur Andersen"). En palabras de sus autores:

"La importancia de estos tres indicadores simples radicaba en que facilitaban el alineamiento de los intereses individuales de cada profesional con los intereses colectivos de la firma en su conjunto y los de los diferentes segmentos organizativos: oficinas, prácticas, proyectos, etc. Por su simplicidad, facilitaban, en todos los niveles, la comunicación rápida de lo que iba bien o no tan bien en toda la organización".

Elegir un conjunto limitado de indicadores clave, de KPIs (Key Process Indicators) que resulten significativos (alineados con la estrategia de la organización), es sin duda, la tarea más importante y compleja a la hora de diseñar un modelo de gestión mediante indicadores.

TODO ESTÁ RELACIONADO

Los "arturos" consiguieron tal proeza porque, en realidad, todo está relacionado. Existen fuertes dependencias entre todos los procesos y, en consecuencia, un conjunto muy limitado de indicadores puede darnos información sobre todos los procesos de la empresa.

Podemos considerar, por ejemplo, unos de los más clásicos, el Índice de Crecimiento de una organización:

Índice Crecimiento = (Plantilla Actual - Plantilla Inicial) / Plantilla Inicial

Pero la situación actual de la plantilla está íntimamente relacionada con el Ratio de Contratación, la Rotación Voluntaria (el número de personas que deciden abandonar la organización) y el Porcentaje de Despidos:

Índice Crecimiento = (Contrataciones - Bajas Voluntarias - Despidos) / Plantilla Inicial

En consecuencia, cuando hablamos de crecimiento también lo hacemos de la bondad de las políticas de recursos humanos, de nuestra capacidad para identificar y retener el talento e, incluso, de la imagen de marca y la evolución de la cifra de negocio. No se entiende que aumenten las contrataciones si no mejoran las ventas o que seamos capaces de retener a los trabajadores sin una buena imagen de marca y unas políticas de retribución adecuadas.

SE FLEXIBLE

En todo sistema de gestión, la estrategia de la organización debe trasladarse desde la dirección al resto de los estamentos (departamentos, divisiones, unidades de negocio, personas).

Con los indicadores de gestión ocurre exactamente lo mismo pues no hacen sino cuantificar dicha estrategia. Sin embargo, en este tránsito pueden (y deben) sufrir transformaciones adaptándose a la visión particular de cada área.

Si la estrategia pasa por el crecimiento, todos deberán considerar este factor en el diseño de un cuadro de mando de indicadores clave que les ayude en sus tareas de gestión. Sin embargo, podrán afrontar este reto desde diferentes perspectivas.

Seguramente, en el departamento de selección de personal se centren en el Índice de Contratación y en el Porcentaje de Despidos (cuando nos vemos forzados a despedir a alguien suele ser consecuencia de un inadecuado proceso de selección). Por su parte, Recursos Humanos trabajará sobre el Índice de Rotación Voluntaria centrando sus acciones en el establecimiento de políticas de retribución adecuadas y en identificar y reconocer el talento. Por su parte, los comerciales lucharán por aumentar las ventas pues, en realidad, sólo a través de un incremento sustancial la empresa podrá crecer si pretende seguir manteniendo la rentabilidad. Todos ellos deberán conocer el crecimiento actual de la organización y las perspectivas de futuro pero controlarán y actuarán sobre indicadores derivados de éste.

CONCÉNTRATE EN DONDE PUEDAS ACTUAR

Un indicador es algo más que un simple cálculo numérico, es un valor que debe tener un significado relevante para la organización.

Una alteración en este valor puede equiparse con una advertencia, con una voz de alarma que nos sugiere que algo se está desviando de los cauces esperados. Esta alteración puede ser positiva o negativa pero siempre requerirá nuestra atención.

Siguiendo con el ejemplo, para poder crecer más debemos aumentar el ritmo de contratación, luchar por evitar la bajas (voluntarias o no) o actuar sobre los tres factores simultáneamente. Será esta capacidad de actuación la que guíe la selección de los indicadores clave que incorporaremos a nuestro cuadro de mando.

Si no nos sentimos capaces de evitar las deserciones o impedir los despidos, ¿qué sentido tiene incorporar el crecimiento a nuestro panel de indicadores clave?. ¿No resultaría mucho más rentable centrar nuestros esfuerzos en el ritmo de contratación?.

En definitiva, no pierdan el tiempo midiendo aquello sobre lo que no piensas o puedas actuar.

NO FUERCES LA SITUACIÓN

En un sistema de gestión bien diseñado, todo debe estar relacionado. La estrategia de la organización debe difundirse a todos los niveles y expresarse mediante indicadores y objetivos y, en consecuencia, en políticas de reconocimiento y retribución.

Por tanto, una mala elección de un objetivo para un indicador o del indicador mismo puede forzar comportamientos inadecuados. Si el indicador es realmente significativo marcará en cierta medida la evaluación del desempeño en toda la organización y esto podría obligar a ciertas personas a tomar malas decisiones.

En nuestro caso, fijar un objetivo de crecimiento sabiendo que será muy complicado aumentar la ventas podría forzar a alguien a contratar más personal del necesario. La rentabilidad en su área se verá fuertemente afectada pero habrá conseguido cumplir con el objetivo exigido.

Para evitar estas malas praxis es fundamental seleccionar con extremo cuidado el conjunto de indicadores sobre el que vamos a trabajar estableciendo interdependencias entre ellos de forma que no resulte sencillo alterar de forma artificial uno sólo de ellos.

SE TOLERANTE

No tiene sentido levantar la manta cada vez que detectamos una mínima desviación en un indicador. Por tanto, debemos fijar un valor objetivo, un valor crítico y un valor de excelencia que delaten la situación del proceso que caracterizan y marquen el momento y la forma en que debemos actuar.

No es posible definir un indicador sin fijar estos tres niveles (algunos ponen objeciones a la utilidad del Nivel de Excelencia; yo siempre he preferido mantenerlo pero es vuestra decisión) y sin establecer un proceso de revisión periódica; de poco sirve disponer de un cuadro de mando con todos los indicadores en verde.

A partir de estos tres listones se establecen cuatro rangos de actuación:
  • Por debajo del Nivel Crítico (Rojo): las cosas están yendo realmente mal, es necesario tomar acciones que nos permitan corregir la situación de forma inmediata.
  • Por debajo del Nivel Objetivo (Amarillo): es una situación bastante habitual cuando fijamos un objetivo ambicioso. Las acciones previamente planificadas deberían ir haciendo que el indicador vaya progresando.
  • Por encima del Nivel Objetivo (Verde Claro): el proceso está controlado y estamos cumpliendo con lo previsto. Es hora de buscar la excelencia
  • Por encima del Nivel de Excelencia (Verde): ya estamos en donde queríamos estar aunque ... ¡cuidado con la auto-complacencia!, quizás fuimos demasiado precavidos cuando fijamos los niveles del indicador o no hemos sabido revisarlos a tiempo y ya no son un fiel reflejo de la realidad.
LA IMPORTANCIA DE LA HISTORIA

Los que seguís de forma habitual este blog (cada vez sois más, así que gracias a todos), sabréis que, de vez en cuando, me da por sacar a la palestra un episodio histórico para ilustrar algún hecho de mayor actualidad (ver "El primer Plan de Gestión de Conocimiento de la Historia" o "La Edad Oscura"). Es consecuencia de mi pasión por la historia del mundo clásico; pienso, sinceramente, que tenemos mucho que aprender de los antiguos (perdonadme pero no me he podido resistir a poner esta imagen de la Vida de Brian en donde Pilatos habla de su amigo Pijus Macnificus y su mujer Incontinencia Suma).

De igual manera, cuando hablamos de indicadores, repasar la historia es especialmente importante. Y podemos comprobarlo con un sencillo ejemplo relacionado también con el Ratio de Crecimiento.

Supongamos que trabajamos en un empresa que, tras experimentar un crecimiento del 8% en el ejercicio anterior, está formada por 1000 empleados. Como suele ser habitual, la estrategia pasa por seguir creciendo y el director quiere aumentar la plantilla en un 10% durante 2015.

Sólo tenemos que crecer un 2% más que el año anterior así que, ¡manos a la obra!. Ya tenemos un Indicador Estratégico, un Objetivo y un Nivel Crítico que quedará establecido en el 5% pues, aunque resulta inconcebible empeorar los resultados del ejercicio anterior, no querremos ser demasiado optimistas. En la misma línea fijamos el Nivel de Excelencia en el 13%.

Ratio Crecimiento -> Actual=8%, Crítico=5%, Objetivo=10%, Excelencia=13%

Comenzaremos por debajo del objetivo lo que implica que debemos platear algunas acciones que nos permitan progresar más rápidamente que en el ejercicio anterior. Así que decidimos fijar un plan de incentivos por nuevas contrataciones que, esperamos, dé resultados ya en el primer trimestre.

Toca ahora obtener un indicador que nos permita estimar la eficacia de las acciones emprendidas. Una posibilidad es calcular el crecimiento en el año actual y extrapolarlo a final de año:

Crecimiento = 100 * (Plantilla Actual - Plantilla Inicial) / Plantilla Inicial
Crecimiento Estimado= 12 * (Crecimiento / Mes Actual)

Puede ser una buena estimación pero, si disponemos de datos históricos, quizás podemos mejorarla calculando el crecimiento medio en los últimos 12 meses y después extrapolando dicho valor:

Crecimiento Plantilla por Mes = (Plantilla Actual - Plantilla hace 12 meses) / 12
Plantilla Estimada Final Año = Plantilla Actual + (12-Mes Actual) * Crecimiento Plantilla Mes
Crecimiento Estimado = (Plantilla Estimada - Plantilla Inicial) / Plantilla Inicial

En la siguiente tabla podéis ver la evolución del indicador según ambos métodos de cálculo:


Se observa que, aunque ambos acaban convergiendo, empleando datos históricos obtenemos una previsión mucho mejor desde el principio.

SE PRECAVIDO

Si tenéis la sana costumbre de revisar vuestros indicadores y los niveles asociados con el comienzo de cada año, comprobaréis la íntima relación de este proceso con la gestión de riesgos.

Y cuando hablamos de riesgos siempre es necesario considerar el Nivel de Tolerancia y el Nivel de Seguridad. Si el riesgo se sitúa por debajo del primer nivel debemos actuar pues la organización no tolera tal grado de incertidumbre. Y las acciones deberán continuar hasta que volvamos a encontrarnos en la zona de confort marcada por el segundo nivel.

En consecuencia, tras realizar el primer análisis de riesgos es necesario planificar una serie de acciones:
  • Los Planes de Mitigación que se ejecutarán para prevenir que el nivel de riesgo se sitúe por debajo del Nivel de Tolerancia.
  • Los Planes de Contingencia que se se podrán en marcha si fallan los anteriores para minimizar el impacto de una amenaza que, desafortunadamente se ha materializado
Si trabajáis en el mundo de la calidad os resultará sencillo asimilar estos planes con las Acciones Preventivas y Correctivas.

De la misma forma, cuando definimos nuestros indicadores es necesario establecer planes que eviten que sus valores se sitúen en niveles críticos y otros para corregir la situación cuando esto ocurra. Los primeros deberá ejecutarse tan pronto como el indicador se encuentre por debajo del Nivel Objetivo mientras que los segundos entrarán en acción cuando sobrepasemos el Nivel Crítico.

Volviendo al ejemplo anterior, cuando decidimos cambiar la política de incentivos para fomentar las nuevas contrataciones estamos actuando para tratar de cumplir con nuestro objetivo (alcanzar ese crecimiento del 10%). También deberíamos ser precavidos y pensar en un "Plan-B" para contener los estragos que, el fallo de estas primeras acciones de mitigación, supondría para la organización.

CUIDADO CON EL OPTIMISMO

Afortunadamente parece que toda va bien pues, tras el primer trimestre, el indicador sugiere que alcanzaremos el objetivo a final de año (10,13%), afirmación que se ve confirmada al término del segundo trimestre cuando ya superamos incluso el Nivel de Excelencia (13,50%). El Plan de Mitigación ha tenido éxito y seguramente no vamos a necesitar ejecutar esas acciones de contención siempre tan molestas. Sin embargo, es una promesa efímera como constatamos en el siguiente trimestre (volvemos al 10%) y al final de un año que acaba sin cumplir el objetivo (9%). La situación sería aún más imprevisible si hubiéramos optado por el primer método de cálculo.

De este ejercicio podemos extraer una lección importante: si nos vamos a guiar por el estado de un indicador, es importante considerar cierta holgura a la hora de fijar niveles. Es decir, conviene asignar un cierto riesgo a los niveles establecidos y adaptarlos en función de él. Seguramente nos habría ido mucho mejor considerando un 8% y un 15% respectivamente para los niveles crítico y de excelencia pues nos habrían hecho sentirnos menos confiados a mitad de año.

Para determinar esta riesgo, la incertidumbre asociada con el cumplimiento de nuestro objetivo, podemos realizar algunas simulaciones. Un simple Excel bien construido puede resultar suficiente. En el ejemplo bastará con ir cambiando el número de empleados en cada trimestre en función de diferentes supuestos (fuertes contrataciones iniciales, aumento de la rotación, caída de las ventas, etc) y ver cómo evoluciona el indicador. Los valores mínimos y máximos deberían servirnos para fijar los dos niveles.

También podemos recurrir a herramientas más sofisticadas como el Método de Montecarlo que propone realizar de forma sistemática cientos de simulaciones asignando números aleatorios a ciertas variables para analizar estadísticamente los resultados que ofrecen las funciones en estudio (en nuestro caso la variable sería el número de empleados y la función el indicador de crecimiento).

No os costará encontrar documentación sobre este método e incluso algunas herramientas que harán el trabajo por vosotros. Aquí os dejo un buen manual sobre como implementar esté método con Excel y una lista de herramientas gratuitas (algunas Open Source) incluyendo algún plug-in para Excel (de entre todos, XLSIM es el más popular).

De todas formas, tampoco conviene matar moscas a cañonazos.

NO TODOS SON NÚMEROS

Me han recordado en uno de los foros en donde he publicado esta entrada (gracias Pablo) la quinta de las que Demming quiso nombrar como "Las Siete Enfermedades Mortales de la Dirección":

"Es erróneo suponer que lo que no se puede medir, no se puede dirigir; un mito caro.."

"En realidad, las cifras más importantes que se necesitan para la gestión son desconocidas e imposibles de conocer...."

Y, aunque Demming se refería más a los datos contables que a los indicadores de gestión, nos recuerda que no todo es fácilmente cuantificable. Las empresas operan en una nueva Sociedad del Conocimiento en donde los activos intangibles cobran cada vez mayor relevancia. Y una buena parte de estos activos, de este conocimiento, es difícilmente explicitable y, en consecuencia, cuantificable. ¿Podemos encontrar un indicador que nos informe sobre la capacitación de los colaboradores de la empresa?, ¿de su capacidad para ser innovadores?, ¿para poner en práctica nuevas ideas trasgresoras?, ¿para lanzar al mercado nuevos productos con la velocidad exigida por el nuevo mercado tecnológico?.

Incluso si pudiéramos cuantificar todos estos aspectos, no somos simples autómatas que actúan siguiendo el dictado de unos cuantos datos. Aspectos puramente humanos como la intuición, la imaginación, la diligencia o el liderazgo siempre marcarán la diferencia.

Termino con un enlace a un fantástico artículo ("Cuidado con los números") que me ha hecho llegar Joan a través de las redes. Es un buen contrapunto a tanta medida. Habla de  números, de obsesiones y de yogures. Y cita:

"La estadística es una ciencia que demuestra que si mi vecino tiene dos coches y yo ninguno, los dos tenemos uno" (George Bernard Shaw)

LECCIONES APRENDIDAS

  • Frente a la curiosidad busca la utilidad, frente a la cantidad la calidad, frente a la contemplación la acción.
  • Elije un conjunto limitado de indicadores clave que resulten significativos.
  • Un puñado de ellos, convenientemente alienados con la estrategia de la empresa, puede resultar suficiente pues existen fuertes correlaciones entre todos los procesos.
  • Toda la empresa debe conocer el estado actual y perspectivas de evolución de los indicadores estratégicos.
  • Diseña conjuntos de indicadores específicos para cada estamento de la organización que reflejen la estrategia desde su perspectiva particular.
  • No midas aquéllo sobre lo que no piensas o puedas actuar
  • Ten cuidado: una mala elección de un objetivo para un indicador puede forzar comportamientos inadecuados
  • Establece interdependencias entre los indicadores y objetivos de forma que no resulte sencillo alterar de forma artificial uno sólo de ellos
  • Para cada indicador establece un Nivel Objetivo, un Nivel Crítico y un Nivel de Excelencia.
  • Revisa frecuentemente estos niveles para asegurar que se ajustan a la realidad de los procesos que caracterizan
  • Mantén datos históricos e incorpóralos, cuando sea posible, al método de calculo de cada indicador.
  • Establece planes y ejecútalos tan pronto el indicador descienda por debajo del objetivo.
  • Prevé cómo piensas actuar si el indicador se sitúa en niveles críticos. Ten siempre a mano un Plan-B
  • No te vuelvas demasiado confiado, la situación puede cambiar rápida y drásticamente. Evita el exceso de confianza estableciendo un objetivo ambicioso y un nivel crítico exigente
  • Y recuerda, no todo es cuantificable. La intuición, la imaginación, la diligencia o el liderazgo siempre marcarán la diferencia.

También puede interesarte

¿Cuánto cuesta independizarse tecnológicamente?

$
0
0
Carta a mi mismo:

"Querido yo,

Llevamos un tiempo dándole vueltas a esta tema y creo que ha llegado el momento de que te independices. Sabes que tengo razón. No tiene sentido que sigas dependiendo de los medios ofrecidos por una empresa o verte obligado a traspasar información cada vez que se te queda corto uno de esos chismes de almacenamiento que parecen inundar todos los rincones de tu casa.

Olvídate del pasado y crea tu propio espacio, un lugar que perdure en el tiempo en donde puedas almacenar tu experiencia y comunicarte con familia, amigos y el resto de las personas con las que colaboras habitualmente. Va a ser duro, pero sé que tienes algo de dinerillo por ahí guardado que vamos a intentar exprimir al máximo. Así que deja de holgazanear y manos a la obra.

Y no, no necesitas comprar una "tablet". Estaban de moda pero pronto van a pasar a ser vintage. Ahora se llevan los portátiles híbridos (también los llaman Ultrabooks). Los tienes desde 400 euros en adelante. Eso sí, busca un disco duro SSD (256 Gb pueden resultar suficientes), lo vas a notar en la velocidad y lo agradecerá la batería. Aquí te dejo una lista de algunos que salieron en 2013. Los hay más modernos pero ya sabes la regla de oro en esto de la tecnología, "nunca seas el primero en comprar lo último".

Eso sí, asegúrate de que tu nuevo equipo te permite instalar un sistema operativo multi-tarea decente. Si aún confías en Android, tranquilo, algunos modelos te lo ofrecen junto con Windows. Linux es otra buena opción aunque todo dependerá de lo que hagan los chicos de Microsoft está primavera con esa nueva versión gratuita de su sistema operativo llena de promesas. Sé que nunca te has visto tentado por la manzana, pero si decides pecar tienes también fantásticas opciones. Te saldrá algo más caro adquirir equipos con peores prestaciones pero seguramente todo estará mejor integrado, irá más rápido y será más intuitivo..

Del SmartPhone no te libras por el momento a menos que quieras colgarte de la oreja kilo y pico cada vez que te llame la familia. Seguro que tu operador te ofrece algún modelo chulo a pagar en cómodos plazos pero, si quieres independizarte de verdad, quizás te interese adquirir un móvil liberado. Tampoco hay que dejarte la piel en este empeño. Tirando de patriotismo, tienes una más que digna tecnología española de la mano de BQ por menos de 200 euros.

Y, ahora, a conectarnos al mundo. Queremos ir rápido así que toca fibra óptica. Una tarifa plana integrada con línea móvil te puede salir por unos 40 euros al mes. Es algo cara, mucho más que en otros países que hemos visitado juntos, pero aquí somos así.

La siguiente decisión es algo más complicada: necesitas correo electrónico, un espacio de almacenamiento en la nube y alguna forma ágil de comunicarte y trabajar. Lo hemos discutido en innumerables ocasiones y nunca hemos llegado a estar de acuerdo sobre cuál es la mejor solución. Así que lo dejo en tus manos pero recuerda...

La propuesta de Googlees realmente atractiva. Puedes crear una cuenta de correo en gMail, sacar partido del nuevo Inbox y disponer de forma gratuita de 15Gb en la nube con Google Drive (si necesitas más espacio puedes contratar hasta 1 Tera por 10 dólares al mes). Tendrás a tu alcance otros servicios de valor añadido como la edición OnLine de documentos, la mensajería instantánea, la pantalla compartida o la vídeo conferencia a través de Google Hangouts. Y, por supuesto, tendrás en tus manos toda la potencia del buscador más potente del mundo y, en poco tiempo, una inteligencia artificial que te ayudará a localizar la información que realmente necesitas.

Micorsoft andaba algo despistado pero parece que se está espabilando. Ahora te ofrece cuentas de correo a través Outlook,com y espacio en la nube con OneDrive. Curiosamente, son 15 Gigas gratuitos que puedes ampliar hasta 1 Tera por 7 euros al mes. La gran diferencia es que por esa nimia cantidad dispondrás de Office 365 y la posibilidad de instalar las herramientas ofimáticas de Microsoft en 5 dispositivos diferentes o acceder a su versión OnLine (un pelín más limitada pero realmente potente y accesible desde tablets Android y dispositivos IoS). También dispondrás de una cuenta en Skype (ya sabes, chat, mensajería, audio y vídeo-conferencia, pantalla compartida) y 60 minutos gratis de llamadas móviles. No es que esto ahora importante demasiado con las tarifas planas pero lo agradeceremos en nuestros viajes. El único "pero" lo encontrarás en el componente social. Yammer está trabajando en la integración con Office 365 pero me temo que no va ganar esta carrera.

Las dos soluciones son buenas, y podrás acceder a ellas desde cualquier dispositivo móvil. Pero te conozco bien y sé que no vas a renunciar a la integración con Office. Así que ve reservando los 70 euros.

Ya tienes lo básico: un buen portátil (Ultrabook, perdón), un SmartPhone con mucha más funcionalidad de la que necesitas, una digna conexión por fibra óptica, una cuenta de correo, 1 Tera de almacenamiento en la nube y unas cuantas herramientas para trabajar, colaborar y comunicarte.

Anunciar tu presencia en las principales redes y sitios sociales no te a va costar un euro. No parece que vaya a cambiar demasiado la situación en 2015 así que, date una vuelta por ahí ,y presenta tus respetos en LinkedIn, Facebook, Twitter, Google+ e Instagram. Tampoco te olvides de WhatsApp, es gratuito el primer año y, si tienes mala suerte, te tocará pagar 1 euro el segundo.

Me estoy enrollando un poco, pero ya queda poco. Sólo recordarte que siempre andas liado en mil batallas así que te conviene crear un espacio donde organizar los equipos que trabajan en cada proyecto. Asana o Trello pueden ser buenas opciones aunque también puedes decantarte por Slack. Sus versiones básicas son gratuitas y seguramente no necesites más por un tiempo.

Ya ves que no es tan complicado así que anímate y cuéntame cómo te ha ido. Ah! y date prisa. Si lo dejas pasar unos cuantos meses más quizás tengamos que volver a hablar aunque esta vez de wearables y algún que otro invento más.

Un abrazo."

Seguramente, a pocos os habrá sorprendido esta carta. Sin embargo, he querido empezar así para exponer una de las más importantes paradojas que se están dando en las empresas actuales y que afecta muy especialmente al ínclito departamento de IT.

Si no trabajas en este mundo te estarás preguntando: ¿con la cantidad de dinero que nos gastamos, cómo puede ser que a nivel personal disponga de mejores herramientas que las que es capaz de ofrecerme mi empresa?

Haciendo cuentas (y perdonadme esta atrevida simplificación), dotarse de una tecnología punta puede suponer para una empresa:

951 euros al año por empleado

  • UltraBook (900 euros amortizable en 3 años):  300 euros/año
  • Smart Phone liberado (amortización 2 años): 100 euros/año
  • Fibra + Móvil: 480 euros/año
  • Office 365 + Skype + Ourlook.com + 1 Tera en la nube: 70 euros/año
  • Whatsapp: 1 euro/año
  • Slack: 0 euros/año (80 euros/año Standard)
Para atender a 500 empleados una empresa necesitaría 475.500 o puede que la mitad si se muestra capaz de negociar algún tipo de acuerdo por volumen con los distintos proveedores. Y nada más, ni centro de proceso de datos, ni espacios físicos, ni licencias de software adicionales, ni equipos de red, ni copias de seguridad y todo gestionado por un equipo de soporte realmente reducido.

Y aún hay más pues aquí nos topamos con la segunda paradoja: el Retorno de la Inversión aumenta cuanto menor sea el tamaño de la empresa. Una PYME con tan sólo 10 empleados necesitaría 9.510 euros para cubrir la mayor parte de sus necesidades tecnológicas, un presupuesto que en el pasado apenas le daría para comprar un PC (que haría las veces de servidor para todo) y ofrecer una paupérrima beca al "chico de la informática".

La pregunta es evidente: ¿y por qué no lo hacen?. Pero la respuesta no es sencilla. Se pueden alegar aspectos relacionados con la seguridad y la confidencialidad pues confiar todos tus archivos a un tercero no siempre es posible ni conveniente. También hay consideraciones presupuestarias relacionadas con la amortización de las inversiones precedentes pues deberemos seguir pagando lo adquirido en los últimos años.

Sin embargo, el gran problema radica en la celeridad de los cambios que se están produciendo en los últimos años. Esta aceleración, esta explosión de nuevas y prometedoras tecnologías, dificulta tomar decisiones estratégicas a un medio plazo que, cuando hablamos de tecnología y más es particular de las tecnologías de la información, se reduce a dos o tres años.

La primera página Web se publicó en 1991, Facebook nació en 2004, Youtube en 2005 y Twitter en 2006 (más información...) coincidiendo con la irrupción oficial de la nube anunciada por Amazon. Un año después apareció en primer iPhone, le siguió la App Store en 2008 y en 2009 el iPhone 4 sobre redes 3G cuando también comenzaron a llegar al gran público servicios en Cloud como Google Apps. Las tablets llegaron un año después, en 2010, para cambiar el mundo y puede que ya estén dando sus últimos coletazos traicionadas por Ultrabooks, Smartphones y Wearables.

Si un directivo se hubiera visto obligado a invertir en tecnología hace 5 o 6 años, se habría encontrado con un mundo en el que los móviles gateaban por la red, con algunos rumores sobre la irrupción de revolucionarios dispositivos parecidos a portátiles sin teclado y a unos cuantos locos visionarios anunciando servicios en la nube. Incluso dotado de una portentosa visión de futuro, seguramente no habría podido adelantar la materialización de tales promesas en tan corto plazo.

De intentarlo ahora, se encontraría con tecnologías que permiten procesar cantidades inimaginables de datos casi de forma instantánea (BigData), inteligencias artificiales capaces de comprender el lenguaje natural y reconocer rostros y objetos (Deep Learning), un elenco de "cosas" que hablan entre ellas (IoT) y hasta ciudades conectadas (Smart Cities), lugares y entornos de trabajo inteligentes que comprenden el entorno y se adaptan al estado de ánimo de sus moradores (inteligencia de ambiente), drones amenazando con colapsar el espacio aéreo, robots inteligentes y holografías y mundos virtuales cada vez más reales y complejos. Parece, en definitiva, que nuestro pobre directivo nunca va a encontrar un buen momento para invertir.

Pero si seguimos el consejo de mi otro yo, " nunca seas el primero en comprar lo último", creo que es un buen momento para que las empresas se suban a la nube de forma decidida y definitiva. Quizás, y sólo quizás, cuando las empresas se libren de su infraestructura actual que no hace sino oprimirlas y limitarlas, cuando las conexiones y servicios sean ofrecidos por terceros, todo resulte un poco más fácil y se rompa la brecha entre ese particular dotado de la más portentosa tecnología y el pobre trabajador peleado con su portátil del siglo pasado.

Ocurra o no esta transformación, lo mejor de todo es que, al ritmo que evoluciona la tecnología, no tardaremos demasiado en comprobarlo. El mundo en 2020 será, desde luego, muy diferente. Si lo dudáis, echad un vistazo a este panel de iniciativas relacionadas con la inteligencia artificial, no tiene desperdicio:



También puede interesarte:

Hablando con mi hija de ... Minecraft

$
0
0
- ¿Cómo vas?
- Ando un poco laggeada
- ¿Y eso?
- No sé, será la Wifi
- Pero, ¿puedes jugar?
- Si, no te preocupes
- Y, ¿en qué andas metida?
- Estoy intentando llegar al Nether en 15 minutos
- ¿Para qué quieres ir allí?
- Por qué allí es el único sitio en donde puedo encontrar barras de Blaze
- Parece complicado, ¿lo vas a conseguir?
- No sé, ya tengo la obsidiana pero aún tengo que craftear el pedernal

Es una conversación real que ocurrió el Sábado pasado mientras mi hija andaba jugando al Minecraft, ese juego del minero cuadriculado que lleva tiempo arrasando entre jóvenes y no tan jóvenes.

Fui afortunado,  mi hija estaba jugando sola y tuvo tiempo para atender mis constantes preguntas. No es lo más habitual. Normalmente se sienta en el sofá, pone el portátil sobre las piernas y tira el móvil a su lado, con el manos-libres activado. Lo utiliza para comunicarse por Skype con unos cuantos amigos del colegio mientras juegan todos juntos en algún tornero.

Un par de horas de juego no fueron suficientes para ilustrarme así que la pedí que, según se le fueran ocurriendo, me enviara por Whatsapp esas palabrejas que tan sólo ella conoce. Tras una semana, he conseguido crear una especie de diccionario, un pequeño glosario de términos y expresiones que os dejo al final por si pretendéis comunicaros con vuestros hijos en su propio idioma.

Recurriendo a tan prosaico artilugio os resultará algo más sencillo traducir la conversación.

Básicamente mi hija intentaba decirme que, como Internet no iba demasiado bien, el portátil no podía renderizar (ella conoce perfectamente este término que se refiere al proceso de plasmar en 2D un objeto diseñado en 3D) a tiempo las escenas y, en consecuencia, Steve (es el protagonista del juego; ahora tiene una compañera que se llama Alex, creo) se movía con dificultad y reaccionaba demasiado tarde a sus órdenes.

Cuando habla del Nether, se refiere a un lugar muy especial del juego, el infierno, al que sólo se puede acceder creando un portal con obsidiana que luego debes quemar. Para ello necesitas crear un mechero juntando pedernal con hierro en una mesa de trabajo (en una mesa de crafteo, de ahí lo de craftear). Los Blazes son unos monstruos voladores, unos de los enemigos más temibles del juego; cuando consigues matar a uno de ellos dropea (suelta) unas barras que luego puedes utilizar para conseguir ojos de Ender y con ellos llegar al End (el hipotético final del juego).

Si no estáis familiarizados con el juego seguramente ni aún así entendáis nada. A mis padres les debía ocurrir lo mismo, tampoco sabían muy bien de qué les hablaba cuando era joven.

Yo tuve mi primer ordenador (un Spectrum) con 14 años y, dada la novedad, era lógico que no estuvieran familiarizados con algunos términos informáticos. Pero tampoco habían oído hablar de mis grupos de música preferidos ni entendían por qué tenía que copar de chapas la chupa nueva para ir al concierto de Iron Maiden.

Me prometí que esto no me ocurriría a mi cuando tuviera hijos; parece que he fracasado.

Sea como fuere, soy un apasionado de la tecnología y de la informática (aún sigo programando cuando el resto de mis obligaciones me lo permiten) así que, desde que mi hija era muy pequeña, ha estado rodeada de aparatos electrónicos. Cuando comenzó a hablar ya jugaba con el ordenador y, seguramente, aprendió a reconocer los colores y a contar antes de la mano de Pippo (el personaje de uno de sus juegos preferidos) que de la de su profesora en infantil.

Su relación con los ordenadores y las consolas de juegos ha continuado con los años, una afición que preocupa a algunas personas al considerar que puede convertirse en adicción. Quizás por ello limitan el tiempo que sus hijos pasan delante de las pantalla a unas pocas por semana.

No pretendo cuestionar este tipo de decisiones; mi experiencia como padre viene limitada por el muy escaso número de hijos y su corta edad. Pero sí he observado que cuando se prohíbe algo se suele conseguir un efecto opuesto al perseguido. Para mi hija estar ante un ordenador es algo natural y como tal carece de relevancia. Si no tiene otra cosa que hacer juega o navega por las redes pero siempre prefiere estar con los amigos cuando andan por casa (algo poco frecuente en las grandes ciudades) e incluso trata de no conectar la consola o ver películas a pesar de su insistencia.

Incluso manteniendo ciertas reticencias frente al excesivo uso de la tecnología, merece la pena conocer Minecraft, un vídeo-juego diferente con un increíble potencial educativo, un Lego en modo superlativo.

Fue creado en 2009 por el sueco Markus Alexej Persson (mejor conocido como Notch). Una licencia vale apenas 20 euros y ya se han vendido cerca de 200 millones así que este chaval, de apenas 35 años, atesora una pequeña fortuna que ha aumentado sensiblemente el año pasado cuando Microsoft adquirió su compañía, Mojang AB, por cerca de 2000 millones de euros.

A Minecraft se puede jugar en tres modos:
  • Creativo: tienes a tu disposición todos los materiales posibles y tu objetivo es, simplemente, recorrer el mundo virtual e ir creando edificios y otras estructuras.
  • Supervivencia: aquí tienes que ir buscándote la vida para encontrar o crear todo lo que necesitas. Y tienes que hacerlo rápido pues necesitas construir un lugar donde cobijarte antes de que caiga la noche (los días duran 20 minutos) y comiencen a acosarte los zombies. También deberás excavar minas, cultivar y criar animales.
  • Colaborativo: exsiten cientos de servidores en donde puedes conectarte para competir o colaborar con otros jugadores. Lo más habitual son las competiciones del estilo "sólo puede quedar uno" pero también puedes jugar al escondite, participar en concursos artísticos, correr sin parar para intentar no caer al vacío y hacer mil diabluras más.
Con independencia del modo de juego, en Minecraft siempre debes ir buscando materiales (madera, arena, roca, minerales, plantas) para, con ellos, ir construyendo estructuras y creando herramientas y armas que garanticen tu supervivencia por la noche. Debes, por tanto, planificar tus acciones con sumo cuidado (el día pasa rápidamente) y sacar el máximo partido del material de que dispones para ir progresando en esta nueva vida virtual. Los primeros días vivirás bajo tierra en un lúgubre agujero que habrás excavado con las manos. Pero no tardarán en levantar una pequeña cabaña y después una confortable vivienda rodeada de campos de cultivo, granjas y minas de donde extraerás el material necesario para seguir prosperando.

Orientación espacial, Planificación y gestión de los recursos son algunas de las cualidades que potencia el juego. Pero, sobre todo, refuerza la creatividad y la colaboración.

Si tenéis dudas echad un vistazo a este vídeo en el se expone el trabajo de unos cuantos chavales con visas de arquitectos que han recreado, ladrillo a ladrillo, el mundo completo de Juego de Tronos:


O este otro en donde un ingeniero electrónico ha creado un ordenador utilizando los bloques de Minecraft y algunos materiales especiales que se han ido incorporando al juego con el paso del tiempo. No me refiero a algo inerte que se parece a un ordenador, es una máquina virtual con memoria, procesador, pantalla, teclado y todo completamente operativo (más información...):


Creo que estos ejemplo ilustran bastante bien el potencial de este juego como herramienta educativa aunque también entiendo el recelo que, las largas horas que nuestros hijos pasan frente a los ordenadores, despiertan en todos nosotros. En mi opinión los beneficios compensan pero es sólo eso, una opinión.

Y no hemos más que empezar. Echad un vistazo a esta presentación de Microsoft en la que se combina MineCraft con la consola XBox y el nuevo HoloLens que acompañará al lanzamiento de Windows 10:



Y nada más. Os dejo el prometido vocabulario:
  • "Ir Laggeada": cuando todo va un poco lento debido a la velocidad del ordenador o de la conexión de Internet
  • "Craftear" hacer herramientas en una mesa de trabajo (mesa de crafteo)
  • "Trolear": gastar bromas en Minecraft. Por ejemplo, invitas a alguien a saltar sobre un precipicio y le plantas un bloque mientras está en el aire para que caiga al vacío.
  • "Dropear": en ocasiones cuando matas a alguien o algo suelta (dropea)  materiales o herramientas 
  • "Instalar un mod": añadir al juego una extensión para obtener nuevos materiales, herramientas o romper algunas reglas 
  • "Hacker": jugador que tiene Mods especiales que hacen trampas en el juego. Por ejemplo, el "Hack de Anti-knockback", una extensión que evita que te puedan empujar y hacerte caer por un precipicio
  • "Noob " (o n00b; gracias Ramiro): persona que se le dan mal los video-juegos
  • "Pro": lo contrario
  • "VIP": jugadores que tienen derechos especiales (pagando, claro). 
  • "Youtubber": jugadores que han dado su cuenta en Youtube y que, a veces, actúan como reporteros grabando las escenas y batallas para luego publicarlas. En España, el trío más popular es conocido como L3Craft; su canal de vídeo cuenta ya con millones de suscriptores, la mayoría niños y adolescentes. A mí, personalmente, sí me preocupa este fenómeno y la influencia que sobre nuestros hijos tienen estos personajes algunos, por decir algo suave, un tanto alterados.
  • "hacer Focus": todos contra uno, especialmente si es famoso
  • "El Nether", el infierno de Minecraft. Se llega quemando un portal previamente creado con obsidiana
  • "El End": una dimensión paralela a la que se accede cuando crafteas Ojos de Ender que luego lanzas y sigues hasta que se paren. En ese punto picas hasta encontrar una gruta en donde está el portal que te llevará al End. 
  • "Ultra HardCore": modo de juego tipo batalla en el que sólo regeneras vida usando magia
  • "Blazes, Enderman, Zombie Pigman", son algunos de los enemigos
  • "Bedrock": una roca que no se puede romper con nada
  • "Estoy Margi": cuando mandas un mensaje por Skype y nadie contesta (no tiene nada que ver con Minecraft pero me hizo gracia la expresión). 

Guía práctica para gestionar la Innovación (parte I)

$
0
0

Dicen que hay normas para todo y, como no podía ser de otra manera, también hay una para acreditar el proceso de gestión de la I+D+ì (Investigación, Desarrollo e Innovación).

Se trata de la UNE 166002, la hermana mayor de la mucho más popular UNE 166001. Para los que hemos trabajado en I+D+i, conocer en profundidad esta última norma resulta imprescindible pues, certificar los proyectos de investigación con ella, aumenta sensiblemente las posibilidades de conseguir esas ansiadas desgravaciones fiscales (al menos en España).

Aunque sus beneficios a corto plazo son menos evidentes (de ahí su menor popularidad), el alcance de la norma UNE 166002 es mucho mayor, escapando de la operación de un único proyecto para abarcar todo el proceso de gestión de la innovación en una organización. Es, en consecuencia, una de esas normas que requieren el compromiso real de la empresa en su propósito de exprimir al máximo los recursos disponibles para potenciar la innovación tanto interna como externa.

UNA NORMA ESPAÑOLA

UNE son las siglas de "Una Norma Española" (en fin...) y caracterizan a las normas promovidas por ENAC (Entidad Nacional de ACreditación). Con el tiempo, algunas de ellas pasan al CEN (Comité Europeo de Normalización; European Committee for Standarization) y adquieren la denominación EN (European Norm). 

En el caso que nos ocupa, es el comité del CEN/TC 389 el encargado de realizar esta transición. Su trabajos han supuesto recientemente la publicación de las primeras normas de la familia EN 16555 que recogen los requisitos básicos de los sistemas de gestión de la I+D+i. Tras este proceso, se promoverá su paso internacional a través de ISO (International Organization for Standarization) aunque aún habrá que esperar un tiempo.

Perdonadme este baile de siglas tan característico (y desesperante) de las normas y acreditaciones pero sólo quiero enfatizar con él las perspectivas de futuro de una norma de origen español cuya aplicación (algunos dirían que en contra de lo habitual) resulta cercana a la realidad y, en consecuencia, puede resultar realmente útil para las organizaciones empeñadas en innovar.

Nos os preocupéis, las formalidades acaban aquí. 

ANTES DE COMENZAR

De una manera u otra, todos entendemos el significado de la siglas I+D+i aunque, en no pocas ocasiones, las fronteras entre estos términos se diluyen haciendo complicado clasificar una actividad determinada como Investigación, Desarrollo (Tecnológico) o Innovación. Y es un tema realmente importante pues incluso las fuentes de financiación pública varían drásticamente en función de dicha clasificación.

La norma ISO 160000 "Terminología y Definiciones de las Actividades de I+D+i" intenta resolver esta cuestión proponiendo las siguientes definiciones:

  • Investigación: Indagación original y planificada que persigue descubrir nuevos conocimientos y una superior comprensión en el ámbito científico o tecnológico
    • Investigación fundamental o básica: Ampliación de los conocimientos generales científicos y técnicos no vinculados directamente con productos o procesos industriales o comerciales.
    • Investigación industrial o aplicada: Investigación dirigida a adquirir nuevos conocimientos con vistas a explotarlos en el desarrollo de productos o procesos nuevos, o para suscitar mejoras importantes de productos o procesos existentes.
  • Desarrollo Tecnológico: Aplicación de los resultados de la investigación, o de cualquier otro tipo de conocimiento científico, para la fabricación de nuevos materiales, productos, para el diseño de nuevos procesos, sistemas de producción o de prestación de servicios, así como la mejora tecnológica sustancial de materiales, productos, procesos o sistemas preexistentes. Esta actividad incluirá la materialización de los resultados de la investigación en un plano, esquema o diseño, así como la creación de prototipos no comercializables y los proyectos de demostración inicial o proyectos piloto, siempre que los mismos no se conviertan o utilicen en aplicaciones industriales o para su explotación comercial
  • Innovación: Actividad cuyo resultado es la obtención de nuevos productos o procesos, o mejoras sustancialmente significativas de los ya existentes. Las actividades de innovación son: incorporación de tecnologías materiales e inmateriales, diseño industrial, equipamiento, e ingeniería industrial, lanzamiento de la fabricación, comercialización de nuevos productos y procesos. Se distinguen:
    • Innovación en tecnología: Actividad de generación y puesta a punto de nuevas tecnologías en el mercado que, una vez consolidadas, empezarán a ser usadas por otros procesos innovadores asociados a productos y procesos.
    • Innovación tecnológica: Actividad de incorporación, en el desarrollo de un nuevo producto o proceso, de tecnologías básicas existentes y disponibles en el mercado.
    • Innovación en la gestión: Mejoras relacionadas con la manera de organizar los recursos para conseguir productos o procesos innovadores.
(fuente:  "I+D+I Innovación Serie Normas 166000 Open Innovation")

LOS COMPONENTES BÁSICOS

Desde un punto de vista práctico, para implantar un sistema de gestión de la I+D+i debemos definir los siguientes procesos:
  • Estrategia de I+D+i
  • Proceso de Vigilancia Tecnológica
  • Proceso de Gestión de Ideas
  • Proceso de Gestión de la Cartera de Proyectos de I+D+i
  • Proceso de Gestión de los Proyectos de I+D+i
  • Proceso de Explotación de los Resultados
  • Proceso de Revisión por la Dirección
  • Proceso de Mejora Continua
Parece razonable. La empresa debe definir su forma de entender la I+D+i (su política, estrategia, objetivos, contexto en el que se desarrollan las actividades), debe vigilar su entorno para conocer los avances que se están produciendo y los principales actores y debe establecer los mecanismos necesarios para convertir las ideas de la organización en proyectos de I+D+i que, más tarde, se convertirán en nuevos productos, soluciones o servicios.

Como os digo, una norma cercana a la realidad.

ESTRATEGIA

La estrategia de I+D+i de la organización deben plasmarse en un documento en el que la Dirección exprese:
  • La motivación para investigar y su propósito: ¿por qué queremos dedicar ingentes esfuerzos a innovar?, ¿queremos generar nuevos productos?, ¿servicios?, ¿buscamos adquirir know-how para ofrecerlo a nuestros clientes?, ¿intentamos abrir nuevos mercados?, ¿diferenciarnos de la competencia?, ¿buscamos mejorar la imagen y reputación de la organización?, ¿hacerla más atractiva para los trabajadores ofreciendo nuevas oportunidades de desarrollo profesional?
  • El compromiso:¿cómo fomentaremos una Cultura de Innovación en el seno de la organización?, ¿a qué nos comprometemos?, ¿qué esperamos de cada estamento de la empresa?.. La Tolerancia al Fracaso debe ser parte fundamental de esta cultura aunque también se deben establecer límites en cuanto al tiempo, coste o recursos de las inversiones planteadas.
  • Los recursos: ¿fomentaremos la innovación independiente en cada área de la organización?, ¿crearemos una unidad específica para la gestión de la I+D+i?, ¿quién financiará la investigación?, ¿de dónde provendrán los fondos y recursos necesarios?, ¿buscaremos ayudas públicas, financiación privada?
Esta estrategia deberá trasladarse a la Política de I+D+i (aquí tenéis un ejemplo) a través de la cuál la empresa exprese sus intenciones, objetivos y compromisos en este área así como sus expectativas y exigencias para cada uno de los estamentos de la organización. 

Como ocurre en otras áreas, esta política marca las directrices del sistema de gestión que se pretende implementar y debe ser difundida y conocida por todos los miembros de la organización y el resto de las partes interesadas (suele ser frecuente hacerla pública).

VIGILANCIA

Ya en el siglo XVII, Isaac Newton afirmó que "sólo logramos avanzar cabalgando a lomos de gigantes". En la actualidad, sigue sin ser posible lograr avances significativos de forma aislada, sin conocer las intenciones y progresos de los otros. 

El sistema de gestión de la I+D+i requiere, por tanto, un sistema que nos permite vigilar el entorno para:
  • Conocer los avances tecnológicos (Vigilancia Tecnológica) que se están produciendo
  • Analizar en qué está trabajando nuestra competencia (Vigilancia Competitiva
  • Estar al tanto de los últimos movimientos en el mercado
  • Controlar los cambios normativos o legislativos 
  • Buscar socios que puedan ayudarnos a avanzar.
El sistema de vigilancia que implantemos puede ser tan simple o tan complejo como deseemos. 
  • Desde definir una simple Ficha de Vigilancia y pedir a cada área de la organización que sistemática, periódica o compulsivamente nos envíen sus análisis del entorno (avances tecnológicos, análisis de mercado, análisis de la competencia, etc)
  • Hasta crear un Observatorio Tecnológico que ofrezca servicios de vigilancia al resto de la organización.

Sea como fuere, la información recopilada deberá emplearse para analizar el contexto en donde se mueve la I+D+i de la organización y servir como entrada del proceso de Revisión por la Dirección, el cual marcará la estrategia y objetivos del siguiente periodo.

Podéis obtener más de información de este proceso, uno de los más complejos de implantar según mi opinión, consultando "Una forma práctica de implantar un Sistema de Vigilancia Tecnológica: Procesos" y "Una forma práctica de implantar un Sistema de Vigilancia Tecnológica: Modelos y Herramientas" en este mismo blog.

LAS IDEAS

Debemos también ocuparnos de definir un proceso que nos permita establecer canales de comunicación para recopilar ideas. Estos canales pueden ser:
  • Privados: se crean grupos de expertos (internos, externos) que, mediante diferentes mecanismos de colaboración, analizan la organización, el mercado y los planes estratégicos y proponen las líneas de investigación o las áreas en donde la innovación resulta más necesaria.
  • Cerrados: se ofrece la posibilidad de proponer ideas y propuestas de investigación o innovación a través de canales privados. En este modelo se puede permitir participar a toda la organización o, lo que es más habitual, sólo a los responsables de las áreas estratégicas o a personas clave.
  • Abiertos: se ofrece a toda la organización la posibilidad de proponer ideas, realizar propuestas y opinar sobre las de los otros. Aquí resultan especialmente relevantes las técnicas de Gamificación  así como la implantación de políticas, sistemas y algoritmos de motivación y recompensa.
Lo más conveniente es combinar varios pues cada uno presenta ventajas e inconvenientes. Los canales privados y cerrados facilitan el enfoque pero limitan el número de ideas mientras que los canales abiertos y distribuidos aumentan su número y variedad promoviendo el establecimiento de una cultura de innovación en el seno de la organización. Requieren, sin embargo, un mayor esfuerzo para fomentar esta cultura, seleccionar las ideas potencialmente valiosas y desarrollarlas hasta convertirlas en propuestas de innovación o investigación. 

Decantarse por uno de estos modelos es una decisión difícil que, sin duda, formará parte del proceso de definición de la estrategia de I+D+i de la organización.

Con independencia del canal elegido, todas las ideas deberán ser evaluadas para determinar su grado de madurez y oportunidad viabilidad tanto técnica como económica. Después deberemos seleccionar las más prometedoras en función de las líneas estratégicas establecidas y desarrollarlas hasta obtener el suficiente detalle que nos permita convertirlas en proyectos de investigación o innovación.

EN LA SEGUNDA PARTE

Hasta ahora hemos visto la necesidad de establecer una estrategia y política de I+D+i  que fomenten una cultura de innovación en la organización y cómo éstas deberá venir acompañadas de un proceso de vigilancia (tecnológica, competitiva, de mercado) y otro de generación de ideas (privado, cerrado, abierto, distribuido) que nos permita comenzar a definir los proyectos de innovación o investigación que queremos desarrollar.

En la siguiente entrega veremos la necesidad de establecer una Unidad de Gestión de la I+D+i que se encargue de trabajar sobre las ideas seleccionadas hasta convertirlas en proyectos viables, controlar su ejecución y los resultados obtenidos.

Nos ocuparemos también del proceso de Revisión por la Dirección, de la Mejora Continúa y la forma en que se explotarán los resultados de la investigación o innovación. Hablaremos, en consecuencia, del análisis del contexto en el que se mueve la organización, de indicadores, del inventario de activos intangibles y de los diferentes mecanismos para proteger los resultados de la I+D+i.

También dedicaremos unas cuantas líneas a comentar la forma en que la I+D+i debería integrarse con el resto de los sistemas de gestión de la compañía.


También puede interesarte:

Guía práctica para gestionar la Innovación (parte II)

$
0
0
En la primera parte hablamos de la necesidad de establecer una Estrategia de I+D+i y fomentar una Cultura de Innovación en la organización así como de establecer procesos que nos permitan observar el entorno (Vigilancia Tecnológica, Inteligencia Competitiva) y recopilar y analizar las Ideas generadas por la organización.

Si tenéis la norma UNE 166002 (ven su versión de 2014) a mano, podréis comprobar que no estoy siguiendo la estructura propuesta. He preferido comenzar así para poder poner el foco en aquellos aspectos que más diferencian a éste de otros sistemas de gestión. 

Y, si me lo permitís, continuaré así un poco más, hablando de la Cartera de Proyectos, de la forma de gestionar los Resultados de las Investigaciones, de la Propiedad Intelectual e Industrial, del Inventario de Activos Intangibles y de la Gestión del Conocimiento.

Empero este aparente caos, prometo dedicar íntegramente la última entrega a poner todos estos elementos en su contexto y explicar cómo se pueden estructurar siguiendo las directrices de la norma UNE 166002.

LA UNIDAD DE GESTIÓN DE LA I+D+i 

La Unidad de Gestión de la I+D+i es la encargada de plasmar (de llevar al terreno) la Estrategia de la organización. Debe, por tanto, asegurar que se vigila el entorno, que se fomenta una Cultura de Innovación en la organización y, con ella, la Creatividad y la Colaboración.

De tener éxito en este propósito, los procesos combinados de Vigilancia Tecnológica, Inteligencia Competitiva y Generación de Ideas deberían permitir a la organización lanzar un cierto número de proyectos de investigación, desarrollo tecnológico o innovación que, en su conjunto, constituirán la Cartera de Proyectos de I+D+i.

La Unidad de Gestión deberá controlar esta cartera, asegurando que las ideas seleccionadas para convertirse en proyectos son suficientes para cubrir los objetivos de la organización, que dichos proyectos obtienen los recursos necesarios, incluyendo las posibles subvenciones, bonificaciones y desgravaciones fiscales, para su correcta ejecución y que su progreso sigue los cauces esperados.

Además, deberá asegurar que se establecen los canales de colaboración adecuados tanto internos (entre los proyectos y las diferentes áreas de la organización) como externos (socios, proveedores tecnológicos, organismos públicos, etc.) y que los resultados de la investigación se protegen, divulgan y explotan según lo previsto.

Sin temor a equivocarnos podemos afirmar que los chicos de la Unidad de Gestión de la I+D+i tienen bastante trabajo.

ANALIZANDO EL CONTEXTO

Para poder elegir en cuáles de los proyectos propuestos invertir los, siempre limitados, recursos humanos, financieros y materiales, la Unidad de Gestión debe conocer y analizar el entorno, tanto desde un punto de vista interno como externo.

Desde un punto de vista externo, deberemos conocer:
  • El mercado: las necesidades de los clientes, en qué está trabajando la competencia y con qué proveedores y socios podríamos trabajar 
  • Los desarrollos científicos que podrían afectar positiva o negativamente a nuestra actividad (algunos podrían ayudarnos a progresar pero otros podrían dar al traste con nuestras investigaciones)
  • Las normas y regulaciones que afectan a nuestro sistema incluyendo aquéllas relacionadas con la propiedad intelectual e industrial
  • Las relaciones con las diferentes administraciones públicas (locales, nacionales, internacionales) incluyendo aspectos legislativos y reglamentarios 
  • Los posibles canales de financiación (subvenciones directas, créditos, desgravaciones fiscales, bonificaciones a la Seguridad Social)
  • Aspectos socio-económicos: situación macro-económica, demografía, sostenibilidad
Si estáis implantando un Sistema de Gestión de la I+D+i por primera vez, seguramente os resultará complicado dar respuesta a alguno de estos aspectos, especialmente los relacionados con normativas, legislación o protección de la propiedad intelectual o industrial. Si es el caso, os recomiendo daros un paseo por la página de InnoCámaras allí podéis encontrar información sobre estrategia de innovación, legislación, ayudas, normativas, estudios, una página realmente completa.

También deberemos considerar el contexto desde un punto de vista interno:
  • Las prácticas e iniciativas de I+D+i existentes y los resultados en el pasado reciente
  • Las normas implantadas. Aquí será importante analizar cómo afectan posibles normas en uso por la organización como la ISO 9001 (Calidad), la ISO 14001 (Medioambiente) o la ISO 27001 (Seguridad de la Información) a nuestro sistema y estudiar las diferentes posibilidades de integración (ver "Seis Consejos para Integrar Sistemas de Gestión")
  • La cultura y la historia de la organización en cuanto a la investigación, la colaboración o la participación
  • La capacidad de la organización para emprender proyectos de I+D+i: competencias, capacidades, instalaciones, recursos humanos, materiales y financieros
  • Modelos empresariales y procesos establecidos, productos y servicios disponibles, herramientas
El análisis del entorno quedaría incompleto sin que nos ocupemos de las necesidades y expectativas de las partes interesadas. Aunque no es posible generalizar éstas deberían incluir:
  • Externas: clientes/usuarios, socios, proveedores, distribuidores, organismos públicos, entidades de investigación, la sociedad en su conjunto, etc.
  • Internas: accionistas, dirección, otros departamentos, fuerza comercial, empleados
Y aquí es necesario considerar también el grado de implicación de cada una de estas terceras partes en nuestro sistema de gestión, qué expectativas tenemos cubiertas, cuáles podremos cubrir y cuáles quedarán insatisfechas. En definitiva, deberemos analizar los riesgos y las oportunidades que surgen de nuestra relación con cada uno de los actores implicados.

Toda esta información (contexto interno y externo, necesidades y expectativas de las partes interesadas, riesgos y oportunidades) debería recopilarse, analizarse y plasmarse en un informe que marcará en gran medida la toma de decisiones a la hora de diseñar, implantar y hacer progresar al sistema de gestión de la I+D+i.

Para los que trabajáis en calidad, quizás aún no estéis demasiado familiarizados con este documento de contexto. Sin embargo, pronto lo estaréis pues comienza a aparecer en las nuevas versiones de la mayoría de las normas como punto de partida del diseño del sistema de gestión y de los procesos de revisión por la dirección.

La idea es que, a partir de este análisis del contexto, puedan identificarse los principales riesgos y oportunidades de mejora para el sistema de gestión (otro de los procesos que aparecerá de forma sistemática en la revisión de todas las normas) los cuáles deberán trasladarse al informe de revisión por la dirección y ser el punto de partida para establecer los objetivos de mejora del siguiente periodo así como las necesidades de recursos.

Una forma de incorporar este análisis de riesgos y oportunidades pasa por construir un DAFO en el que se vean expresadas las necesidades y expectativas de cada una de las partes, cuáles de ellas tenemos cubiertas (fortalezas), cuáles no podremos cubrir (debilidades), a cuáles podremos dar respuesta (oportunidades) y qué factores podrían alterar nuestros planes para hacerlo (Amenazas). Por supuesto, esta primera aproximación debería completarse con un análisis más detallado (ver "Cómo incorporar el Análisis de Riesgos y Oportunidades al proceso de Revisión por la Dirección").

LA EJECUCIÓN DE LOS PROYECTOS

Establecida la cartera de proyectos de I+D+i y asignados los recursos necesarios, toca emprender la investigación propiamente dicha o lanzar los proyectos de innovación seleccionados. Desde un punto de vista operativo, la ejecución, gestión y control debería basarse en mismas metodologías y utilizar las mismas herramientas que el resto de los proyectos de la organización.

Si hacemos las cosas bien, un proyecto de I+D+i no debería tener problemas para pasar una auditoría de calidad bajo, por ejemplo, la norma ISO 9001 aunque tendremos que tener en cuanta algunos aspectos diferenciadores:

  • Los requisitos no suelen estar completamente definidos. Tendremos una idea de lo que perseguimos pero con seguridad, a medida que avance el proyecto, nuestras expectativas irán cambiando.
  • La agenda del proyecto raramente estará claramente definida. Especialmente en las fases iniciales podemos encontrarnos con sorpresas que podrían afectar a los tiempos o costes del proyecto. Las replanificaciones serán, en consecuencia, mucho más frecuentes.
  • El análisis de riesgos debería incorporar aspectos propios de un proceso en el que la incertidumbre es la norma. Aquí la indefinición o los cambios en los requisitos son frecuentes así como los cambios de rumbo o incluso la posibilidad de tener que detener un proyecto. ¿Son sólidos los cimientos en los que se basa nuestra investigación?, ¿existen otras investigaciones en curso cuyos resultados pueden afectar de forma drástica al resto de las fases del proyecto?, ¿puede adelantarse nuestra competencia?, ¿los proveedores estarán a las altura de nuestras expectativas?, ¿existen líneas alternativas de investigación que podrían dar mejores frutos?, ¿tenemos las competencias suficientes para emprender proyectos tan exigentes?, ¿seremos capaces de retener en la organización a los investigadores principales?, ¿existen riesgos en cuanto a la protección de la investigación?, ¿estamos seguros de recibir todas las subvenciones previstas?, ¿pueden producirse cambios en la legislación que afecten a dichas subvenciones?
    • Deberemos además planificar actividades específicas para difundir y proteger los resultados así como para su transferencia al resto de la organización.
    En función de todo esto, parecen evidentes las ventajas de aplicar metodologías ágiles para la gestión como, por ejemplo, SCRUM. Aunque esto es ya otra historia.

    LOS RESULTADOS DE LA INVESTIGACIÓN

    En todo proyecto de investigación o innovación debería establecerse un Plan de Divulgación y Explotación de los resultados. Este plan debería esbozarse incluso antes de lanzar el proyecto pues la forma en que esperamos sacar partido de los esfuerzos dedicados a la investigación es uno de los criterios fundamentales a la hora de incorporar un proyecto a la cartera de I+D+i.

    Por supuesto, este plan deberá ir ganando detalle con el paso del tiempo pero ya desde el primer momento deberíamos tener claro:
    • Beneficios esperados en cuanto al desarrollo de nuevos productos o soluciones, el aumento de la capacidad tecnológica, la adquisición de know-how, la mejora en procesos, la reducción de costes de producción, la mejora de la posición competitiva, etc.
    • Impacto sobre la sociedad: creación de empleo, reducción del impacto ambiental, inclusión de colectivos marginados, desarrollo de regiones menos favorecidas, etc.
    • Plan de Divulgación de los Resultados: publicación en revistas científicas y generalistas, apariciones en prensa, participación en congresos, difusión en la Web y Redes Sociales, presentaciones a clientes. Especialmente importantes serán las acciones de divulgación interna y, en especial, a la fuerza comercial de la organización y la preparación de material comercial y demostradores
    • Plan de Explotación de los Resultados:
      • Mercado potencial: usuarios, clientes, competencia
      • Socios Potenciales
      • Enumeración de los resultados científico-técnicos esperados: nuevos productos, procesos o servicios, relevancia de la innovación tecnológica, ventajas económicas y tecnológicas
      • Plan de protección de los resultados: tipo de protección, reparto, titularidad, etc (hablaremos de este plan algo más adelante)
      • Plan de transferencia de los resultados y potenciales barreras 
      • Plan de Negocio incluyendo el retorno de la inversión esperado. ¿Qué valor potencial tiene el producto en el mercado?, ¿cuanto tiempo necesitaremos para recuperar la inversión y comenzar a ganar dinero?. Aquí es importante tener en cuenta que, en ocasiones, realizaremos las investigaciones para mejorar nuestro know-how o para implantar innovaciones en nuestros procesos internos que nos ayuden a ser más productivos o a aumentar la rentabilidad. En estos casos, establecer un plan de negocio o justificar el ROI se complica aunque siempre es posible hacerlo cuantificando estos nuevos activos intangibles.
    Establecer un buen plan de divulgación y explotación es complicado pero, en mi experiencia, la calidad de estos planes está directamente relacionada con el éxito de de la investigación. En demasiadas ocasiones se ponen en marcha fantásticas iniciativas completamente ajenas a la realidad de la empresa o del mercado y muchas otras acaban muriendo ante la falta de una buena planificación sobre la forma en que difundiremos o transferiremos los resultados de nuestra investigación a la organización.

    EN LA TERCERA PARTE...

    Hasta ahora hemos visto la forma en que la Visión y Estrategia de la organización quedan plasmadas en un política de I+D+i y cómo, a través de ella, debemos fomentar una Cultura de Innovación en donde la Creatividad y la Colaboración coexistan con cierta Tolerancia al Fracaso.

    Esta estrategia marcará las áreas en la que deberemos establecer un proceso de Vigilancia (tanto tecnológica, como del mercado y la competencia), uno de los puntos de partida para analizar el Contexto en el que se mueve la organización.

    Este conocimiento del entorno nos permitirá analizar los posibles Riesgos y Oportunidades en cada área estratégica y seleccionar aquéllas Ideas más prometedoras para ponerlas en práctica a través de diversos Proyectos de I+D+i. El conjunto de todos ellos constituirá nuestra Cartera de Proyectos que deberá ser controlada por la Unidad de Gestión de la I+D+i, la verdadera protagonista de nuestro sistema.

    Cada uno de estos proyectos deberá ejecutarse (con algunas salvedades) siguiendo las metodologías establecidas por la organización y, ya desde un principio, deberá definirse un Plan de Divulgación y Explotación de los Resultados de la investigación o del proceso de innovación incluyendo su transferencia al resto de los estamentos.

    En la tercera parte veremos los diferentes mecanismos para Proteger estos resultados que, en su conjunto, formarán parte del Inventario de Activos Intangibles y ofreceremos un breve resumen de cómo implantar este tipo de sistemas siguiendo la norma UNE 166002.

    Y ya sabéis, podéis suscribiros a este blog si queréis recibir tan pronto como sea publicada la tercera y última entrega de esta serie dedicada a la gestión de la innovación.

    También puede interesarte:

    Guía Práctica para Gestionar la Innovación (III): el Capital Intelectual

    $
    0
    0
    En la primera entrega hablamos de Estrategia, Cultura, Ideas y Vigilancia para, en la segunda, ocuparnos de aspectos más operativos como el Análisis del Contexto, la identificación de Riesgos y Oportunidades, la gestión de la Cartera de Proyectos y la necesidad de establecer un plan para Divulgar y Explotar los Resultados de la investigación.

    En esta tercera parte ofreceremos detalles sobre la Gestión del Capital Intelectual, la creación de un Inventario de Activos Intangibles y sobre cómo Proteger los Resultados de la Investigación.

    Terminaremos la serie (eso espero, esperaba que fueran sólo dos artículos y ya llevo tres) poniendo un poco de orden en todos estos procesos y explicando cómo pueden organizarse siguiendo las directrices de la norma UNE 166002.

    EL CAPITAL INTELECTUAL Y ACTIVOS INTANGIBLES

    El Capital Intelectual es el conjunto de activos intangibles que posee una empresa. Aunque existen muchas definiciones, personalmente prefiero utilizar una de uso común en el el mundo contable:

    "Los archivos intangibles son derechos susceptibles de valoración económica, identificables, medibles y con capacidad de aportar beneficios futuros"

    Son menos de 20 palabras pero engloban los aspectos más relevantes relacionados con la gestión del Capital Intelectual.  Viene a decir que los Activos Intangibles pueden y deben ser identificados, cuantificados y valorados pues son objeto de comercio y, por tanto, capaces de aportar beneficios a la compañía. En este sentido, se  estima que los Activos Intangibles pueden llegar a constituir el 80% del valor de una empresa y, sin embargo, no solemos prestarles la suficiente atención.

    Parte de este capital lo constituyen los recursos humanos y, aunque parezca extraño, sí dedicamos ingentes esfuerzos a protegerlos. En muchas empresas se firman Acuerdos de Confidencialidad, se incluyen cláusulas específicas en los contratos o se establecen políticas para identificar y recompensar al personal clave en un intento por evitar que abandonen la organización llevándose unos conocimientos de valor incalculable.

    En cuanto al resto, existen infinitas clasificaciones y todas ellas incluyen elementos no directamente relacionados con la I+D+i. Aquí os propongo una elaborada por la Oficina Española de Marcas y Patentes (la podéis encontrar con mucho más detalle al final de este excelente documento sobre la gestión del capital intelectual):
    • Elementos Distintivos: el nombre de la empresa, marcas y nombres comerciales registrados, logotipos y otros elementos gráficos y multimedia (vídeos, esa cancioncilla que identifica a algunas empresas, etc), dominios en Internet, identificadores en redes sociales y otros elementos de la identidad corporativa incluyendo los de marketing (folletos, carteles, membretes, presentación corporativa, el fondo o el salvador de pantallas, etc.).
    • Reputación: referencias comerciales de clientes, proveedores y usuarios, homologaciones y aceditaciones, autorizaciones administrativas, patrocinios, responsabilidad social corporativa, certificaciones técnicas, etc.
    • Productos: programas software (de uso interno o desarrollados para terceros incluyendo especificaciones, diseños, manuales de usuario, casos de uso, etc.), licencias de software, manuales y procedimientos internos, metodologías de gestión, publicaciones técnicas y científicas, formación, bases de datos, diseños y planos de ingeniería, resultados de la investigación y desarrollos tecnológicos, procesos de fabricación y productos, secretos industriales, publicaciones técnicas y científicas
    • Contratos y Acuerdos: acuerdos de confidencialidad, de licencia, de cesión, de colaboración, alianzas estratégicas, franquicias, acuerdos de no-competencia, no interferencia, colaboraciones con universidades, convenios, etc.
    • Clientes y Proveedores:  know-how comercial (conocimiento del mercado, de los clientes), listados de clientes y proveedores, contratos, redes de distribución, etc.
    • Gestión Empresarial: estrategia, misión, visión y valores, códigos éticos, políticas, planes de negocio, planes de formación, planes de comunicación y marketing, redes de contactos, sistemas de gestión, etc.
    • Propiedad Intelectual e Industrial: nombres comerciales, marcas, patentes y modelos de utilidad, diseños estéticos (registrados o no), etc.

    EL INVENTARIO DE ACTIVOS INTANGIBLES

    Aunque no es muy frecuente, al menos en España, algunas organizaciones publican un Libro de Capital Intelectual, en el que se detallan todos estos elementos y la forma en que son gestionados y protegidos.

    Sin embargo, para el tema que nos ocupa es suficiente con asegurar que somos capaces de crear y gestionar (o contribuir si la empresa ya dispone de uno) un inventario de estos activos. Por tanto, deberemos establecer un proceso que nos permita
    • Identificarlos: en los planes de Divulgación y Explotación de los Resultados de cada proyecto de I+D+i deberían estar ya identificados los Activos Intangibles que se generarán como resultado de la investigación, el desarrollo tecnológico o la innovación. Será labor de la Unidad de Gestión de la I+D+i conocer el grado de desarrollo de estos activos y asegurar su correcto registro en el Inventario de Activos Intangibles
    • Documentarlos: los activos generados deberán quedar registrados y correctamente documentados en un inventario incluyendo:
      • Naturaleza según la clasificación anterior
      • El propietario, el Autor, la fecha de creación y actualización
      • Valoración para la empresa (idealmente una valoración económica aunque, si no es posible, se puede utilizar algún tipo de escala). Si hacemos las cosas bien, deberíamos estar hablando de un valor contable, imprescindible si estamos considerando la propiedad industrial. 
      • Previsiones: cuando hablamos de I+D+i, también deberíamos incluir consideraciones sobre el valor presente y futuro de cada activo así como sobre los factores que podrían afectar dicha valoración. En definitiva, deberíamos incluir un análisis de riesgos y oportunidades asociado a cada activo
      • Prioridad o relevancia para la organización
      • Ámbito de aplicación y partes interesadas
      • Ubicación (física, electrónica)
      • La forma en que están protegidos incluyendo el periodo de vigencia
      • La forma en que se serán explotados/comercializados (licencias, franquicias, uso interno, incremento del know-how, cesión de patentes, patent-box, etc.)
    • Gestionarlos: quién gestiona el inventario, cómo se incorporan y retiran los activos, procesos de revisión y auditoría, formación del personal, divulgación interna o externa
    PROTEGER LOS ACTIVOS INTANGIBLES

    Como ya hemos comentado, no sólo es necesario establecer planes (normalmente dentro del Plan de Divulgación y Explotación de Resultados de cada proyecto) para incrementar nuestro Capital Intelectual y registrar cada uno de los activos intangibles generados. También deberemos planificar cómo serán protegidos y establecer mecanismos para garantizar dicha protección.

    El Capital Humano forma parte de nuestro inventario de activos intangibles y, como tal, debemos establecer los mecanismos necesarios para protegerlo. Éstos pasan por las políticas de recursos humanos (para evitar su fuga), por la firma de acuerdos de confidencialidad y por la formación y concienciación.

    En cuanto a los resultados de la investigación y las innovaciones tecnológicas, la Propiedad Intelectual, nace con la autoría de una obra y, por tanto, no necesitamos realizar acción alguna para obtenerla (el famoso símbolo del copyright "@" es más un elemento disuasorio que un garante de unos derechos que ya poseemos). Por el contrario, la Propiedad Industrial se obtiene con el registro y, en consecuencia la posee quién primero la reclama.

    Pero demostrar ser el autor de un obra o invención original o haber sido el primero en registrarla puede resultar muy complicado, de ahí que resulte necesario emplear mecanismos que garanticen nuestros derechos frente a la copia o la usurpación y no preparen para enfrentarnos a posibles litigios:
    • El Secreto Industrial: sirve para proteger cualquier información que se considere valiosa sea de tipo técnico, comercial o estratégico. La difusión no autorizada de los secretos empresariales esta penada por una leyes contra la competencia desleal, las cuáles protegen nuestros derechos siempre y cuando seamos capaces de demostrar que hemos empleado todos los medios a nuestro alcance para mantener dicho secreto. Y no es una tarea sencilla establecer un sistema eficaz para salvaguardar el secreto empresarial. Entre otras cosas, deberíamos:
      • Identificar y describir de forma adecuada la información que queremos proteger. 
      • Implantar mecanismos para proteger dicha información (sistemas informáticos, cajas fuertes, etc.)
      • Establecer y comunicar a los empleados las normas sobre clasificación, manejo y custodia de la información sensible 
      • Establecer cláusulas de confidencialidad en los contratos laborales
      • Incluir cláusulas similares en todos los pedidos a proveedores y contratos con socios
      • Realizar inspecciones y auditorías para comprobar que las normas establecidas se están cumpliendo
    • El Registro de la Propiedad Intelectual es un mecanismo formal, sencillo, rápido, barato y confidencial de conseguir una prueba de autoría.
    • Patentes y Modelos de Utilidad: son títulos otorgados al autor de una invención mediante los cuáles se le concede el derecho a su explotación en exclusiva en un determinado territorio (20 años en el caso de la patente y 10 años para los modelos de utilidad). Patentar es todo un arte y una práctica que fácilmente puede volverse en nuestra contra. Algún día escribiré sobre la guerras que se están librando entre las grandes corporaciones y la indefensión a la que quedan sometidos los pequeños inventores abrumados por costes, demandas y procesos judiciales. Por el momento, aquí tenéis una página que explica qué se puede patentar y cómo y un interesante artículo sobre el tema en el ámbito de las TIC. De todas formas, siempre, SIEMPRE, hay que poner un abogado especializado de por medio.
      • Diseño Industrial: permite la protección únicamente de la apariencia o forma externa de la totalidad o de una parte de un producto. El título otorga protección durante 5 años, renovables en periodos de 5 años hasta un máximo de 25.
        • Registro Notarial puede también utilizarse para tener una prueba de autoría. No es la forma más segura ni la más barata de proteger un activo pero sí puede ser un mecanismo de defensa aceptable ante litigios.
        • Publicaciones defensivas: Aunque puede parecer un contrasentido, una de las formas más efectivas de proteger el capital intelectual es hacerlo público. Esta publicación evitará que otros, haciendo ingeniería inversa, obtengan una patente (la novedad es necesaria) que impediría que el autor genuino pueda solicitarla, explotarla o, incluso, utilizarla en el futuro (la historia de la ingeniería está plagada de ejemplos).
        Decidir qué mecanismo emplear resulta realmente complicado. Os dejo aquí una herramienta para tomar esta decisión (fuente OEPM):



        INNOVACIÓN ABIERTA

        Cada vez es más frecuente que las empresas renuncien al secreto industrial o a la obtención de patentes en favor de una innovación abierta y/o distribuida.

        Bajo esta decisión estratégica subyacen diferentes motivaciones. Por una parte, supone un ahorro importante de costes al no ser necesario invertir recursos en guardar el secreto o proteger las inversiones. Por otra, aumenta la reputación de la empresa en un determinado sector desde un primer momento y, en cierta medida, disuade a la competencia.

        Os pongo un ejemplo que ha aparecido en prensa apenas hace unos días. Airbus y Altran han diseñado un silla de ruedas que permitirá a una persona discapacitada subir al Kilimanjaro (más información...), proeza que, si todo va bien, acontecerá el próximo Septiembre (¡suerte Hugo!).

        Este desarrollo entra dentro de las políticas de Responsabilidad Social de ambas compañías y no busca, por tanto, beneficio comercial alguno (al menos directo). Sin embargo, la silla en sí misma podría ser patentada por otra compañía alegando que llevaba ya tiempo trabajando en un diseño similar. La publicación de la noticia ya debería disuadir a este tipo de intrusos pero, para asegurarse que no podrán ser patentados ingenios similares, Airbus va a hacer públicos los planos de la silla (publicación defensiva).

        Otra tendencia cada vez más presente es optar por la cocreación en donde la empresa busca innovar compartiendo experiencias con los clientes y usuarios. 

        EN LA CUARTA PARTE

        El la última entrega espero poner un poco de orden en todos estos procesos siguiendo la estructura propuesta por la norma UNE 166002 y hablar de cómo es posible integrar la I+D+i con el resto de los sistemas de gestión.


        AI as a Service: ¿Acabaremos alquilando inteligencia?

        $
        0
        0
        UN POCO DE HISTORIA

        En 1956, durante la famosa conferencia de DarthmounthJon McCAthty acuño el término Inteligencia Artificial, definiéndola simplemente como:

         "La ciencia y el ingenio de hacer máquinas inteligentes"

        En la introducción de la conferencia se mencionan los objetivos de aquella joven ciencia que, cincuenta años después, aún se mantienen vigentes:

        "Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrito con tanta precisión que puede fabricarse una máquina para simularlo. Se intentará averiguar cómo fabricar máquinas que utilicen el lenguaje, formen abstracciones y conceptos, resuelvan las clases de problemas ahora reservados para los seres humanos, y mejoren por sí mismas"

        Por aquel entonces apenas se habían desarrollado los primeros Sistemas Expertos, unos algoritmos primitivos que, basándose en reglas heurísticas y lógica difusa, eran capaces de tomar ciertas decisiones. Pasarían diez años hasta que uno de ellos, DENDRAL, mostrara cierta utilidad en el mundo real.

        Sin embargo, dos años después de la conferencia, se abrió otra línea de investigación mucho más prometedora. En 1958, Frank Rosenblat desarrolló el PERCEPTRON, un algoritmo capaz de reconocer algunos patrones utilizando una red neuronal de dos niveles.

        Aunque pronto se demostró que sería necesaria mucha mayor complejidad para poder resolver incluso los problemas más sencillos, se esperaba que, con el tiempo, las redes neuronales fueran capaces de emular el funcionamiento del cerebro humano.

        Lamentablemente, ni siquiera la llegada de la computación en paralelo en los años ochenta permitió lograr los avances prometidos por lo que la investigación en redes neuronales fue decayendo eclipsada por los SVM (Support Vector Machines) y los algoritmos de clasificación no-lineal.

        Tras estos fracasos se abrieron nuevas líneas de investigación como los algoritmos evolutivos en donde las posibles soluciones a un problema (un inmenso conjunto creado aleatoriamente) competían en un entorno en donde rigen los principios de la Selección Natural (recombinación, mutaciones, herencia, etc) o la Teoría Computacional de la Mente en un intento por encontrar un plan maestro tras el procesamiento neuronal considerando al cerebro como un ordenador que ejecuta un programa capaz de procesar un lenguaje simbólico.

        Ha sido un agrio debate que ha mantenido ocupados a los investigadores durante casi cuatro décadas aunque parece que estamos cerca de ver su conclusión en favor de ...

        EL APRENDIZAJE PROFUNDO

        El aprendizaje profundo (el Deep Learning) es un término de nueva factura que engloba un conjunto de algoritmos que tratan de simular el funcionamiento básico del cerebro, encadenando en cascada varias redes neuronales (más información...).


        El modelo no es nuevo, se basa en los trabajos de Kunihiko Fukushima quién  propuso en los años 80 un algoritmo conocido como "neocognitron" en donde se empleaban varias redes para emular el funcionamiento de las neuronas del córtex visual primario.

        En su interpretación moderna, se establece una jerarquía de redes neuronales capaces de procesar determinadas características de un conjunto de datos, desde las más básicas a las más complejas. Así los resultados de una red son empleados por el siguiente nivel para lidiar con un problema de mayor calado.

        La estructura de cada una de estas redes neuronales puede ser diferente y pueden intervenir en ella diferentes tipos de neuronas aunque siempre incorporan un componente de aprendizaje (supervisado o no). De la misma manera, la arquitectura de las capas también puede variar según sea el propósito del algoritmo.

        En la actualidad todos los grandes actores de Internet y las Redes Sociales están tratando de explotar este tipo de algoritmos para mejorar los servicios que ofrecen a sus miles de millones de usuarios pues resultan especialmente útiles para el reconocimiento de imágenes y el entendimiento del lenguaje natural:
        • Google lo emplea en sus buscadores de contenidos e imágenes, Google Now (su asistente personal) y en Inbox (su nuevo cliente de correo electrónico)
        • Microsoft sigue una línea similar incorporando el Deep Learning en Cortana (su asistente personal) y en Outlook.com
        • Facebook lo utiliza para clasificar los contenidos en nuestra página personal y para el reconocimiento facial
        Experimentar con el Deep Learning, aunque sea a pequeña escala, está al alcance de todos gracias a los servicios Cloud. Os dejo aquí un fantástico artículo, aunque reservado para frikis de la programación, sobre cómo montar un entorno de este tipo utilizando los servicios Amazon EC2 y Phyton.

        EL TAMAÑO SÍ IMPORTA

        Buscadores inteligentes capaces de localizar los contenidos en función de preguntas expresadas en lenguaje natural, asistentes personales que conocen tus preferencias, sistemas capaces de reconocer los objetos que aparecen en una fotografía, clientes de correo electrónico que no sólo son capaces de clasificar los mensajes en función de su temática sino que, además, escriben por ti la respuesta. Las aplicaciones del Deep Learning son infinitas y no hemos hecho más que dar los primeros pasos.

        Por poner sólo un ejemplo, recientemente Google ha presentado el proyecto Im2Calories para desarrollar un agente cognitivo (así se llaman este tipo de aplicaciones inteligentes) capaz de contar las calorías que te aportará el plato que te dispones a comer. Bastará con sacar una fotografía para que la aplicación reconozca los alimentos presentes en el menú y te informe sobre su contenido calórico.

        Para realizar esta proeza, la imagen del plato no será procesada en tu móvil, será transmitida a un inmenso centro de proceso de datos en donde se ejecutará alguno de los componentes desarrolladoa por el equipo de Google Brain, el proyecto para crear un cerebro artificial del gigante del buscador. Entre sus proyectos, destaca también Descartes, un agente capaz de mantener una conversación sin haber sido previamente entrenado (os dejo también el paper publicado recientemente por Oril Vinyals. uno de los investigadores del proyecto)

        En la misma línea Microsoft está desarrollando Adam e IBM trabaja para crear Watson, su agente inteligente (ver "La carrera por crear la primera Inteligencia Artificial"). Incluso la Unión Europea está dispuesta a invertir 1200 millones de euros para crear su propio cerebro artificial lanzando el ambicioso y polémico Human Brain Project .

        Todas estas inteligencias artificiales en ciernes surgen de la potencia combinada de cientos de miles de procesadores. El super-ordenador Blue Gene de IBM cuenta en la actualidad con 150.000 procesadores funcionando en paralelo (más...). Ahora mismo, es capaz de emular 1.500 millones de neuronas y 6 billones de sinapsis, toda una proeza. Y sin embargo, aún no puede competir con el cerebro humano en donde se estima hay 86.000 millones de neuronas capaces de establecer 100.000 billones de sinapsis.

        Las cifras asustan pero IBM piensa que será capaz de alcanzar la capacidad de proceso del cerebro humano en 2020 (¡sólo quedan 5 años!) cuando dispongan de los 800.000 procesadores necesarios. Quedan por resolver otros problemas como la velocidad de proceso y el consumo energético pero no parece que sean irresolubles.

        Para soslayarlos, ya se están desarrollando chips neuromórficos en los que la clásica arquitectura de Von Newman es reemplazada por otra inspirada por el funcionamiento de las neuronas. IBM ya tiene disponible Synapse, un chip capaz de contener en su interior 1 millón de neuronas y establecer 256 millones de sinapsis.

        Aunque uno sólo de estos chips puede hacer que un robot tenga una inteligencia quizás equiparable a la de un ratón, para comprender el lenguaje natural o reconocer objetos se necesita mucho más y, por el momento, no existe una tecnología que pueda integrarse en un móvil o un ordenador de medianas prestaciones.

        SEGUIMOS SIENDO LOS MÁS INTELIGENTES

        El Deep Learning  no es sólo potencia de procesamiento, requiere de un trabajo previo para diseñar la arquitectura de las capas de redes neuronales (pues cada una puede incorporar diferentes tipos de neuronas y métodos de aprendizaje) y para entrenar al conjunto.

        Tampoco un sistema de este tipo nace agraciado por una "inteligencia" prodigiosa, la adquiere siguiendo el, tan conocido para los humanos, método de ensayo y error. Es un burdo proceso pero muy efectivo si disponemos de la suficiente masa crítica.

        Supongamos que buscamos desarrollar un algoritmo capaz de interpretar el contenido de una imagen. Para entrenarlo podemos suministrarle unas cuantas imágenes de melocotones y contratar a una persona para determinar si los resultados que ofrece son correctos. Si acierta, se reforzarán automáticamente algunas conexiones neuronales y, si falla, se reducirá la relevancia de otras.

        Pero, claro, no todo en la viña del señor son melocotones. Existen infinidad de objetos cuyas imágenes se ven afectadas por la perspectiva o las condiciones de iluminación y que, además, pueden combinarse de cualquier manera.

        En consecuencia, para entrenar a un sistema de visión artificial se necesitan miles de millones de imágenes y un número parejo de personas que vayan validando o descartando los resultados obtenidos.

        Si la inversión necesaria en infraestructura está al alcance de muy pocos, disponer del inmenso conjunto de datos y los recursos humanos necesarios para entrenar las redes neuronales restringe los candidatos a sólo un puñado.

        UNA ESTRATEGIA WIN-WIN

        Todos los grandes están luchando por incorporar el Deep Learning a sus servicios. Basta con revisar las constantes notas de prensa sobre la adquisición de startups  que ofrecen soluciones innovadoras en este área o la contratación de los mejores expertos, académicos o del sector privado, para dirigir los departamentos de I+D de las grandes corporaciones. Por poner sólo dos ejemplos, citar la contratación de Yannn LeCiun por parte de Facebook o la adquisición de DeepMinds por Google..

        Son inversiones millonarias para ofrecernos unos servicios cada vez más inteligentes de forma aparentemente gratuita. Sin embargo, tras estos "regalos" se esconden importantes intereses económicos relacionados con la publicidad.

        Conseguir que el asistente personal de nuestro móvil acierte cada vez con más frecuencia, no sólo nos facilita la vida, también permite a Google, Apple o Microsoft conocer en detalle nuestras preferencias y, a través de ellas, mostrarnos anuncios que puedan resultar de nuestro interés. No hay que olvidar que estas empresas cobran una pequeña cantidad por poner los banners y otra mucho mayor si pulsamos en ellos para acceder a las páginas de los anunciantes.

        Pero, además, trabajamos para estas corporaciones gratuitamente, entrenando a sus Inteligencias Artificiales con nuestras elecciones.

        Así, cada vez que pulsamos en un contenido, anuncio o imagen sugerido por Google o Facebook, aceptamos la clasificación de un correo electrónico propuesta por Outlook,com, Inbox.com o IBM Verse  o seguimos las recomendaciones de Google Now, Siri o Kortana estamos ayudando a la Inteligencia Artificial subyacente (Google Brain, Adam, Watson o Wolfram Alpha el polémico agente cognitivo que está detrás de Siri).

        Así se establece un modelo de negocio beneficioso para ambas partes. Nosotros recibimos un mejor servicio de forma gratuita y a cambio las empresas disponen de un enorme campo de pruebas para probar sus algoritmos (perdonad la imagen, no he podido resistirme aunque nada más lejos de la realidad ;-).

        En algunas ocasiones este intercambio se ha realizado sin respetar unos mínimos principios éticos. No es la primera vez que comento en este blog el caso de Facebook, empresa que osó manipular el panel de entrada de 700.000 usuarios para ofrecerles contenidos negativos y analizar los cambios de su compartimiento en la red (más información...).

        En cualquier caso, éste no es el único modelo de negocio posible.

        AI as a Service

        Como hemos visto, en la actualidad resulta ya prácticamente imposible competir con estas grandes corporaciones, ni en infraestructura ni en masa crítica, por lo que pronto nos veremos obligados a alquilar algún tipo de inteligencia alojada en Cloud si queremos también mejorar nuestros propios servicios.

        En realidad, ya lo estamos haciendo si contratamos Google Apps for Work u Office 365 pues sus indexadores de contenidos van incorporando cierta inteligencia de forma progresiva. Lo mismo ocurrirá si optamos por Facebook at Work (saldrá este mismo año) o por IBM Connections (ver "Las grandes Redes Sociales buscan acaparar el mercado empresarial").

        La propuesta del gigante americano merece mención aparte. En 2014 anunció la salida al mercado de la familia de productos que se apoyan en Watson. Entre ellos destaca IBM Watson Foundations, un conjunto de aplicaciones que, apoyándose en la Inteligencia Artificial, realiza análisis predictivo sobre ingentes cantidades de datos (BigData) y ayuda al usuario en la toma de decisiones complejas. IBM tiene también planes para conectar su sitema de correo electrónico y trabajo colaborativo con Watson este mismo año lo que supondrá una mejora sustancial en sus capacidades de clasificación, detección de spam y respuesta automática (ver "Watson as a Service").

        Por su parte, Amazon ofrece el servicio Amazon Machine Learning (gracias Raúl por la referencia) para crear modelos de aprendizaje automático y explotar los algoritmos diseñados ad-hoc para detectar patrones y realizar predicciones. El servicio no tiene un coste de contratación y sólo se paga por la infraestructura que se utiliza.

        Microsoft también ha anunciado recientemente la posibilidad de añadir inteligencia a las aplicaciones a través del Proyecto Oxford, ofreciendo APIs para el reconocimiento facial, síntesis y reconocimiento de voz, análisis de imágenes y OCR (Reconocimiento de escritura a mano alzada) y comprensión del lenguaje natural.

        También hay compañías más modestas que ofrecen aplicaciones de inteligencia artificial alojadas en Cloud (ver "Startups luchan por democratizar el Deep Learning") como Nervana Systems, AlchemyApi, Expect Labs, Support.comSkyMindCloudera u Orbit. Esta última ofrece servicios ya clásicos para identificar personas y lugares en documentos, detectar automáticamente el idioma de un texto o extraer de forma automática tags de un contenido, pero también intenta hacer cosas más pintorescas como detectar sentimientos positivos o negativos en un documento.

        Dentro de estas pequeñas empresas merece la pena destacar a Sentient quién, recientemente, ha anunciado que es capaz de ensamblar la capacidad de procesamiento de cientos de ordenadores en Internet para ofrecer software de Inteligencia Artificial adecuado para resolver ciertos problemas. Aunque aún no han ofrecido todos los detalles, menciono este ejemplo al ser una aproximación radicalmente diferente.

        Me temo, no obstante, que no podrán sobrevivir en su lucha frente a los grandes. De todas formas, apenas consigan hacerles sombra serán absorbidas siguiendo los pasos de cualquier otra que ha despuntado en el área de Deep Learning en los últimos años.

        [Por cierto, el dominio ".ai" se extiende por la red poco a poco así que, si queréis localizar este tipo de Startups, podéis hacerlo fácilmente a través de Google introduciendo los términos de búsqueda seguidos de "site:.ai"]

        UN SENCILLO EXPERIMENTO

        Para terminar os propongo un sencillo experimento para comprobar hasta dónde llega la inteligencia de estos sistemas.

        Hasta hace poco si, en el buscador de imágenes, de Google introducías "melocotón", obtenías un buen conjunto de propuestas basadas, todas ellas, en la aparición de dicha palabra en las páginas Web donde aparece la imagen y en su relevancia.

        Sin embargo, ahora es posible poner "melocotones" para obtener imágenes en las que aparecen muchos de ellos. También obtendrás buenos resultados introduciendo "personas comiendo melocotones", "beber melocotón" o "plantar melocotón".

        Pero el algoritmo fallará estrepitosamente si pruebas con "dos personas comiendo melocotones" o "personas rodeadas de melocotones".

        Un resultado más dispar se obtiene poniendo "cortar melocotón". La primera imagen es acertada (una mano con un cuchillo cortando un melocotón) y algunas de las siguientes aceptables (melocotones cortados en gajos, por ejemplo). Puedes probar también a poner "cortar melocotón y tomate" y verás que la segunda imagen es un sorprendente acierto en comparación con las demás al igual que si pruebas con "melocotón y pera" aunque también aparecen cerezas, manzanas.

        A saber los intrincados senderos que guían a estas inteligencias en ciernes.

        Lo importante es comprender que estas sencillas pruebas muestran que los algoritmos aún necesitan refinarse tanto para comprender mejor nuestras preguntas cómo para analizar con mayor precisión los contenidos de las imágenes.

        Pero pronto mejorarán y lo harán muy rápido, Prometo realizar esta mismo experimento dentro de un año y os cuento.


        También puede interesarte:

        Los 10 vídeos más populares sobre Machine Learning en YouTube (y alguno más..)

        $
        0
        0
        Dar un paseo, además de saludable, es siempre una experiencia interesante. A veces vuelves a casa un tanto decepcionado, con la sensación de haber perdido el tiempo recorriendo calles conocidas, saludando a los vecinos mientras realizan tareas rutinarias, manteniendo la misma intrascendente conversación una y otra vez.

        Pero a menudo ocurre algo inesperado, divertido o sorprendente y regresas más animado sabedor de que, de no haberte decidido a caminar sin rumbo fijo, te lo habrías perdido.

        Con las redes sociales ocurre algo parecido. A menudo tienes la sensación  de caminar por calles demasiado familiares consultando una información demasiado repetida. Pero, en ocasiones, te das de bruces con algo diferente, enriquecedor y comprendes que pasear merece la pena aunque sólo sea por esos breves instantes especiales.

        Ha ocurrido ayer mismo cuando, de forma rutinaria, paseaba por LinkedIn. Un conocido (del que desconocía su interés por la Inteligencia Artificial) me ha recomendado un post en el que aparecen los 10 vídeos más visitados en Youtube relacionados con el Aprendizaje Automático (Machine Learning). Me he dirigido hacia allí sin demasiado entusiasmo y he vuelto maravillado por el contenido.

        Normalmente habría marcado el lugar en mis enlaces favoritos y me habría asegurado de que los sistemas que utilizo par estar medianamente informado visitasen la página de vez en cuando. Pero esta vez, no me apetece perder la pista a esta recopilación de joyas de Youtube así que he decidido trasladar al blog el trabajo de Grant Marshal.

        No sé si vulnero algún derecho de autor pero, por si acaso, sabed que el mérito es completamente suyo. Yo he cambiado el orden para dar un poco más de sentido a la colección y he incluido algunas notas adicionales, pero poco más.

        También os recomiendo visitar la página KDNUGGETS, un tanto caótica y de diseño arcano, pero os aseguro que ésta plagada de información valiosa, especialmente si os interesa la minería de datos, la analítica o el BigData.

        Y, nada más, aquí tenéis los vídeos sobre Machine Learning seleccionados (si queréis saltaros las explicaciones, el autor también ha creado una lista de reproducción).

        Mi intención es ir añadiendo a esta colección otros relacionados, quizás con menos visitas en YouTube, pero igual de interesantes desde mi punto de vista.

        CUANDO LAS MÁQUINAS APRENDEN A JUGAR

        En este vídeo podéis ver cómo una máquina dirige al famoso fontanero con una habilidad sorprendente. Cuando la ves jugar parece que está teniendo una suerte asombrosa pero, si tienes un poco de paciencia, comenzarán las explicaciones y podréis comprobar cómo, la combinación de redes neuronales y algoritmos genéticos, obran el milagro.


        Os dejo también un artículo sobre este tipo de entrenamientos realizado por DeepMind y este vídeo. Lo más interesante es comprobar cómo DQN, el agente inteligente, descubre por sí mismo tras 600 sesiones de entrenamiento la mejor estrategia para terminar con los ladrillos.



        En este otro tenéis una presentación de este empresa con todos los progresos en los diferentes vídeo-juegos de sus modelos de aprendizaje


        Google ha pagado 400 millones para adquirir DeepMind así que hacer que una red neuronal se eche una partidita no es un ejercicio tan inútil como pueda parecer.

        APROVECHAR LA PASIÓN DEL PÚBLICO

        Siguiendo con estas, aparentemente, más chabacanas aplicaciones de la Inteligencia Artificial, en este brevísimo vídeo, apenas un minuto, se dermuestra cómo el Deep Learning puede utilizarse para saber cuando han metido un gol en un partido de hockey. Para ello, un sistema inteligente analiza las reacciones del público captadas por un micrófono de ambiente. Además, cuando tu equipo marca (sólo el tuyo), el sistema lo celebra creando un fantástico espectáculo de luces en el salón; un buen ejemplo de lo que serán los nuevos espacios inteligentes:


        Tenéis toda la información en el blog del creador de este invento, François Maillet.

        APRENDER DE TU ENEMIGO

        La Inteligencia Artificial siempre se ha apoyado en la teoría de juegos al ser un buen campo de pruebas para determinar las capacidades reales de una máquina frente a un oponente humano (basta recordar esa fantástica película "Juegos de Guerra"). Juegos de mesa como el ajedrez siempre han estado en el tintero aunque últimamente está más de moda entrenar a un ordenador a manejar los vídeo-juegos.

        En esta ocasión, se utiliza Deep Learning para prever los movimientos de tus oponentes en un juego de cartas basado en el archiconocido WorldCraft. El vídeo es largo, pero ayuda a entender.



        PONENCIAS DE STANFORD SOBRE MACHINE LEARNING

        La primera dura un poco más de una hora, pero merece la pena asistir a esta clase magistral impartida por Andrew Ng, el director del laboratorio de Inteligencia Artificial de esta prestigiosa universidad.



        En la segunda, más breve, Andrew NG reflexiona sobre el futuro de la robótica y la Inteligencia Artificial y, en particular, sus aplicaciones en la visión artificial y los sistemas de navegación autónomos.


        Y, una última charla de este investigador, punto de referencia en Youtube como estáis comprobando. En esta ocasión trata sobre el aprendizaje automático no supervisado de las características elementales de ciertas fuentes (imágenes, grabaciones de voz), una de las bases de los nuevos algoritmos de visión artificial o reconocimiento de voz basados en Deep Learning. Realmente interesante, ilustrativa y educativa.


        Si os interesa el aprendizaje automático, este investigador ofrece sus conocimientos a través de una formación en Coursera

        LA NUEVAS REDES NEURONALES

        Otra interesante hora escuchando a Geoffrey Hinton, investigador distinguido en Google y profesor en la universidad de Toronto, hablando sobre Aprendizaje Profundo (Deep Learning). Si hay un tema candente en la Inteligencia Artificial, sin duda es éste. La charla es de 2007 pero aún mantiene su frescura.

        [por cierto, no deja de asombrarme cómo tan grandes universidades ofrecen páginas Web con tan poco glamour; pero lo importante es el contenido]


        CEREBRO, SEXO Y APRENDIZAJE AUTOMÁTICO

        Otra charla de este pródigo conferenciante. En esta ocasión trata sobre cómo, en el marco de la teoría de la evolución, la investigación en biología, reproducción y genética está ayudando a diseñar la arquitectura de las nuevas redes neuronales y algoritmos de aprendizaje.


        DEEP LEARNIG: INTELLIGENCE FORM BIGDATA

        Si hay dos temas candentes en la actualidad, ambos están imbuidos en el título de este vídeo presentado por en el VLAB del MIT.

        En él aparecen diferentes ponentes (Steve Jurvertson, socio de DFJ Ventures, Adam Verenzweig, CTO Clarifai, Naveen Rao, CEO de Nervana Systems, Elliot Turner, CEO de AlchemyAPI o Ilya Sutskever, uno de los científicos principales de Google Brain) hablando sobre el aprendizaje no supervisado, los niveles jerárquicos de aprendizaje o la detección de patrones. Un debate imprescindible



        APRENDIENDO DE LOS DATOS

        Siguiendo con el Deep Learning, aquí tenéis una charla de Yaser Abu-Mostafa, profesor en CalTech,


        La charla es, en realidad, la introducción al curso online que ofrece esta institución sobre los fundamentos de la Inteligencia Artificial. Son 19 interesantes sesiones de una hora que, si tenéis tiempo, no deberías perderos (yo aún no lo he encontrado).

        Y algunos vídeo más de selección propia como el proyecto Knowledge Graph de Google basado también en Deep Learning


        DEEP LEARNING

        Sean o los más populares, terminamos con algunos vídeo más sobre el área de investigación por excelencia de la Inteligencia Artificial, el Aprendizaje Profundo
        .
        He seleccionado esta ponencia de la Universidad de Oxford porque incluye un buen número de ejemplos prácticos:


        Si sos desarrolladores, quizás os interese esta otra ponencia en la que se explica cómo llevar Deep Learning a la práctica con Phyton:
        En este charla, se muestran algunas de las más recientes aplicaciones de Deep Learning:


        Si el Deep Learning constituye un gran reto para los investigadores, el aprendizaje no-supervisado es su gran meta, es decir, establecer un conjunto de redes neuronales capaz de aprender por sí misma cómo resolver problemas de cualquier naturaleza:



        También puede interesarte:



        Síntéctica, Analogía, Drones, Impresoras 3D y la Armada Británica

        $
        0
        0
        El término griego "sin" significa "juntos" y de él surgen palabras tan sugerentes como la simpatía (sin+pathos=sentir juntos), la sinfonía (sin+phono=sonar juntos), la sinopsis (sin+opsis=ver juntos), la sintaxis (sin+taxis=ordenar juntos), la síntesis (sin+thesis=poner juntos) o la sinergía (sin+ergon=trabajar juntos).

        Por su parte "etkos" significar "fuera" o "estar fuera de" y de él derivan palabras algo más tenebrosas como el ectoplasma o el ectodermo (la capa más externa de la piel).

        En la década de los 60, Willian Gordon asoció estas dos palabras griegas, sin (juntar) y ecto (estar fuera),  aparentemente antagónicas para recalcar la relevancia de "poner juntas las cosas diferentes" en el proceso creativo.

        Nació así  la Sinéctica,  una teoría que, a partir del estudio del proceso y los mecanismos psicológicos de la actividad creadora, propone un método (un procedimiento estructurado y repetible) capaz de aumentar las probabilidades de éxito de las personas en la solución de problemas.

        Tan atractivas como el término son algunas de las propuestas de la sinéctica. Esta teoría sugiere que las personas se vuelven más creativas cuando comprenden los procesos psicológicos subyacentes, que el componente emocional es más importante que el racional cuando hablamos de creatividad y que, en consecuencia, los componentes emocionales e irracionales deben ser comprendidos y explotados para aumentar las posibilidades de éxito en la generación de ideas inéditas para solucionar problemas.

        En este contexto, la analogía cobra especial importancia como técnica para fomentar la creatividad.

        Por ejemplo, se puede utilizar la Analogía Personal para crear una conexión entre la persona y un objeto o situación  (¿Qué ocurriría si yo fuera un ...?), la Analogía Directa para establecer relaciones y realizar comparaciones entre objetos, hechos o conocimientos que poseen algún grado de semejanza (si un avión planea por un gas y un barco navega por un líquido, ¿podemos poner alas a un barco?)  o la Analogía Simbólica a través de la cuál se relaciona un problema un conjunto de términos básicos buscando así determinar su esencia y experimentar con los significados descubiertos (avión, alas, motores, hélice, volar,  pájaro, flotar, pez, pez volador, barco con alas)

        LA SINÉCTICA EN LA ARMADA BRITÁNICA

        Hace unos días, la Royal Army, ha realizado un experimento para comprobar si es posible ensamblar en un fragata un dron de bajo coste a partir de piezas plásticas creadas por una impresora 3D (más información).

        Aunque los diferentes componentes han sido impresos en tierra, los planes de la armada británica pasan por poder imprimir en el mar estas piezas para ensamblar, casi en tiempo real, drones de diferentes características en función de las circunstancia a las que se enfrente la embarcación.

        Las fragatas podrán así disponer de un conjunto casi ilimitado de drones que serían construidos para emprender diferentes misiones: salvamento, vigilancia, espionaje o combate.

        Sinceramente, desconozco si las técnicas propuestas por la sinéctica han guiado a los ingenieros británicos en la concepción de esta idea, pero el hecho es que han utilizado la analogía para dar un paso más en una guerra imaginada hace tiempo por la ciencia ficción,

        No han sido los primeros. Las impresoras 3D capaces de imprimir alimentos son otro buen exponente del potencial de la analogía en el proceso creativo y otra de esas ideas propuestas por la ciencia ficción (recordad el Replicator de Star Treck) que cada vez están más cerca de verse hechas realidad (más información...).


        También puede interesarte:
        Viewing all 45 articles
        Browse latest View live