martes, 22 de octubre de 2013

Big Data y la Innovación Global en Servicios Actual y Futura

La Innovación Tecnológica siempre nos sorprende con su rapidez y beneficios, así como la influencia que ejerce en nuestro diario vivir actual y futuro. Pero específicamente ¿qué es Big Data? ¿Por qué tanta relevancia hoy en día con esta revolución tecnológica? ¿En qué podemos observar sus aplicaciones tecnológicas? ¿Cómo nos beneficia actualmente? ¿Qué nos depara el futuro del Big Data? Estos y otros puntos, son los que abordaremos a continuación en el presente artículo.

Evolución Histórica del Concepto de Big Data.-

Hablar de los orígnes del "Big Data" es complicado y relativo, dependiendo del punto de vista desde el cual se aborde. Sin embargo, si lo vemos desde una óptica macro e histórica, es más fácil su dilucidación, sus efectos en los Servicios a nivel global (tema que habíamos hablado con anterioridad en artículo anterior sobre Diseño de Servicios 1). Los orígenes del Big Data comienzan muchos años antes del "rumor del mismo Big Data". Ya hace setenta años, tal como lo sostiene Gil Press (2), nos encontramos con los primeros intentos de cuantificar la "tasa de crecimiento el volumen de datos o lo que se conoce como "La Explosión de la Información" (términos utilizado por primera vez en 1941, Diccionario Oxford, en inglés). Podemos resumir el surgimiento del concepto mediante hitos históricos sobre el dimensionamiento de los "Grandes Volúmenes de Datos o Big Data", así como las primeras ideas sobre Big Data y las observaciones relativas a los datos o explosión de la Información.

1944: Fremont Rider, bibliotecario de la Universidad de Wesleyan, publica "The Scholar and the Future on the Research Library", donde estima que las bibliotecas universitarias americanas duplicarán su tamaño cada 16 años. Dada esta tasa de crecimiento, especula que la biblioteca de Yale en 2040 tendrá aproximadamente 200 millones de volúmenes, que ocuparán más de 6.000 kilómetros de estanterías, lo cual requerirá personal de categorización de estanterías del orden de 6.000 personas.
1961: Derek Price, publica "Science Since Babylon", en donde traza el crecimiento de los conocimientos científicos al ver el crecimiento del número de publicaciones y trabajos científicos. Llega a la conclusión de que "el número de nuevas revistas ha crecido de manera exponencial y no lineal, duplicándose cada 15 años, multiplicándose su crecimiento por un factor de 10 cada medio siglo". Price denomina a esto "Ley de Crecimiento Exponencial", explicando que "cada avance genera nuevo avances a una tasa de crecimiento constante razonable, por lo que el número de generación de nuevo conocimiento es estríctamente proporcional al tamaño de la población de los descubrimientos en cualquier momento dado".
1967: BA Marron y P.A.D de Maine publican "Automatic Data Comprenssion", en The Communication of the ACM, afirmando que "la explosión de la información de los últimos años hace que sea esencial que los requerimientos de almacenamiento de toda la información se deduzca al mínimo". El documento describe un compresor de tres partes totalmente automático y rápido para reducir en gran medida los requisitos de almacenamientos externos lentos, y poder aumentar la tasa de transmisión de información a través de un ordenador.
1975: El Ministerio de Correos y Telecomunicaciones de Japón comienza la realización del "Censo de Flujo de Información" que busca llevar a cabo el seguiemiento del volumen de información que circula por Japón (idea sugerida por primera vez en un documento en 1969). El Censo presenta "las cantidades de palabras" como unidad de medida para la unificación en todos los medios. El Censo en 1975 ya considera que la oferta de información está aumentando mucho más rápido que el consumo de información, y en 1978 se informa que "la demanda de información proporcionada por los medios de telecomunicación (caracterizada por comunicaciones de dos vías) se ha incrementado drásticamente. Sostienen que la Sociedad se está moviendo hacia una nueva etapa en el que se coloca más prioridad en la Información Segmentada, más detallada para satisfacer las necesidades individuales, en lugar de Información Convencional Masificada.
1980: A. Tjomsland dicta una charla titulada "¿Hacia Dónde Vamos desde Aquí?" en el Fourth Symposium on Mass Storage System, donde sostiene que "aquellos que están asociados con dispositivos de almacenamiento, ya hace tiempo se han dado cuenta de que la primera Ley de Parkinson puede ser parafraseada para describir a la industria. Los Datos se expanden para llenar el espacio disponible, creo que se retienen grandes cantidades de datos, ya que los usuarios no tienen forma de identificación de datos obsoletos, por lo que las sanciones al almacenamiento de datos obsoletos son menos datos potencialmente útiles".
1983: Ithiel de Sola Pool, publica "Tracking the Flow of information", en Science. En base a las tendencias de crecimiento en 17 importantes medios de comunicación desde 1960 a 1977, concluye que "las palabras a disposición de los estadounidenses (mayores e 10 años) a través de los medios de comunicación, crecieron a un ritmo de 8,9% al año, es decir, en efecto se generan a partir de los medios de comunicación en apenas 2,9% por año. En el período de observación, gran parte del crecimiento en el flujo de información se debió al crecimiento en la radiodifusión. Pero hacia el final de ese período (1977), la situación cambió, dado que los medios de comunicación de punto a punto estaban creciendo más rápido que la radiodifusión. Pool, Innose, Takasaki y Hurwitz siguen en 1984 con "Communications Flows: A Census in the United States", un libro donde comparan los volúmenes de información que se producen en Estados Unidos y Japón.
1996: El Almacenamiento Digital se vuelve más rentable para el Almacenamiento de Datos en Papel, de acuerdo a  R.J.T. Morris y B.J. Trukowski, en "The Evolution of Storage System", IBM System Journal, Julio 1º de 2003.
1997: Michael Cox and David Elsworth publican "Application Controlled Demand Paging for Out of Core Visualization" en las actas de la 8º Conferencia IEE sobre Visualización. Comienzan el artículo con el hecho de que la Visualización ofrece un interesante desafío para los sistemas informáticos: los Conjuntos de Datos son generalmente bastante grandes, gravados en la capacidad de memoria principal, discos locales y discos remotos. Llamaron a esto "Problem of Big Data". Cuando los conjuntos de datos no caben en la memoria principal (en el núcleo), o cuando no caben incluso en un disco local, la solución más común es adquirir más recursos. Es el primer artículo de la biblioteca digital de ACM en utilizar el término "Big Data".
1998: John R. Marsey, Jefe Cientifico de SGI, presenta en una reunión USENIX un artículo titulado "Big Data and the next Wave of Infrastress".
1998: K.G. Coffman y Andrew Odlysko publican "The Size and Growth Rate of the Internet". Llegan a la conclusión de que la tasa de crecimiento del tráfico en la Internet Pública mientras más baja es a menudo citada, sigue siendo alrededor de 100% por año, muy superior al tráfico en otras redes. Por lo tanto, si las tendencias de crecimiento actuales continúan, el tráfico de datos en los Estados Unidos superará el tráfico de voz hacia el año 2002 y será dominado por la Internet. Odysko luego establece los estudios de tráfico de Internet de Minnesota (MINTS), haciendo un seguimiento del crecimiento en Internet desde 2002 a 2009.
2000: Peter Lyman y Hal R. Varian en la UC Berkley publican "How Much Information?". Es el primer estudio exhaustivo para cuantificcar, en términos de almacenamiento informático, el importe de la nueva información original (sin contar copias) creado en el mundo anualmente y almacenado en soportes físicos (papel, película, óptico -CD o DVD- y de manera magnética). El estudio revela que en 1999, el mundo produjo alrededor de 1,5 exabytes de información única, o alrededor de 250 megabytes por cada hombre, mujer y niño en la Tierra. También considera que "se crea una gran cantidad de informacón única y almacenada por los individuos (denominado Democratización de la Información), y que no sólo es la producción de información digital más grande en su totalidad, es también el más rápido crecimiento acontencido (a lo cual denominan "Dominio de la Tecnología Digital"). Lyman y Varian sostienen que "aún hoy en día, la mayoría de la información textual nace de los digital, y dentro de unos años esto será cierto para las imágenes también. Un estudio similar realizado en 2003 por los mismos investigadores, encontrarán que en el mundo se prudujo alrededor de 5 Exabytes de información nueva en el 2002 y que el 92% de la nueva información se almacenó en medios magnéticos, sobre todo en discos duros.
2000: Francis X. Diebold presenta en el VII Congreso Mundial de la Sociedad Econométrica, un artículo titulado "Big Data Dymanics Factor Model for Macroeconomic Measurement and Forecasting", en el que señala que recientemente en la ciencia, tanto físicos, biólogos o sociólogos se han visto obligados a afrontar el Big Data (beneficiándose de él). Grandes Volúmenes de Datos se refieren a la explosión en la cantidad y a veces calidad de los datos disponibles y potencialmente pertinentes, en gran parte de los resultados de avances recientes (y sin precedentes) en el registro de datos y la tecnología de almacenamiento".
De esta forma, otros investigadores como Doug Laney, Tim O´Reilly, John F. Gantz, David Reinsel, Bret Swanson, George Gilder, Randal E. Bryant, Randy H. Katz, Edward D. Lazowka, Roger E. Bohn, James E. Short, Keneth Cikier, Martin Hilbert, Priscilla Lopez, James Manyka, Michael Cui, Brad Brown, Jacques Bughin, Richard dobbs, Charles Roxburg, Angela Hung Byers, entre muchos otros también hicieron sus aportes al respecto (los cuales se detallan en el artículo en cuestión), hasta llegar a 2012 con Dana Boyd y Kate Crowford quienes publican "Critical Question for Big Data", donde ellos definen al Big Data como "un fenómeno Cultural, Tecnológico y Académico que se basa en la interacción de tecnología (potencia de cálculo maximizador y precisión algorítmica para reunir, enlazar y comparar conjunto de datos grandes); así como también de Análisis (dibujo de grandes conjuntos de datos para identificar patrones para las necesidades de reclamaciones económicas, sociales, técnicas y logales); y por último Mitológicas (la creencia generalizada de que los conjuntos de datos de gran tamaño ofrecen una forma más elevada de la inteligencia y el conocimiento que pueden generar ideas que antes eran imposibles, con el aura de la verdad, la objetividad y la precisión)".

 Definción de Big Data.-
Luego de verificar los orígenes históricos del Big Data, ¿podemos responder a la pregunta de qué es Big Data?
Big Data (Grandes Volúmenes de Datos) hace referencia a los Sistemas que manipulan grandes y complejos conjuntos de datos (Data Sets), que se hace difícil procesarlos con herramientas de gestión de base de datos o aplicaciones tradicionales de procesos de datos. Los desafíos del Big Data incluyen "la Captura, Almacenamiento, Búsqueda, Poder Compartir, Análisis y Visualización de Datos", en donde la tendencia es a manipular ingentes cantidades de datos, se debe a la derivable información adicional a partir del análisis de un solo gran conjunto de datos relacionados, en comparación con la separación de conjuntos más pequeños con la misma cantidad total de datos, permitiendo que las correlaciones que se pueden encontrar para "detectar tendencias de negocios", determine la calidad de la investigación, la prevención de enfermedades, combatir el delito y determinar las condiciones de tráfico de carretera en tiempo real"(3). De esta forma, a partir de 2012 los límites de tamaño de los conjuntos de datos que sean factibles de procesar en un período razonable de tiempo, eran del orden de "Exabyte"(4) de Datos (lo cual me hace relacionar mentalmente al tema del Big Data la "Ley de Moore y la Potencia de Micro Procesamiento, la Ley de Almacenamiento Digital Masiva y la Ley de Metcalfe, la Economía de Redes" como los Impulsores Tecnológicos de la Infraestructura de Tecnología de la Información y Comunicaciones al tema en cuestión) (5).

Los científicos se encuentran con regularidad con limitaciones debido a los grandes conjuntos de dato en muchas áreas, inlcuyendo la "meteorología, la genómica, conectómica, simulaciones físicas y complejas, así como la investigación biológica y ambiental". De igual forma, las limitaciones también afectan la búsqueda de Internet, Finanzas y Negocios de la Informática. Los conjuntos de datos crecen en tamaño, en parte debido a que cada vez más se reúnen datos en dispositivos móviles omnipresentes de detección de información, tecnologías de áreas sensoriales (teledetección), registros de software, cámaras, micrófonos, lectores de identificación por radiofrecuencia y redes de sensores inalámbricos. Se clacula que la capacidad per cápita tecnológica del mundo para almacenar la información "se ha duplicado cada 40 meses desde la déaca de 1980". A partir de 2012, todos los días 2,5 trillones de bytes de datos fueron creados. El reto para las grandes empresas es "determinar quién debe poseer las grandes iniciativas de datos que se sitúan en toda la organización".
A continuación, un video donde se explica el concepto de Big Data y sus orígenes:



El Big Data es difícil de trabajar con uso de software y aplicaciones de gestión de base de datos relacionales, y la mayoría de las estadísticas de escritorio y paquetes de aplicaciones de Visualización, lo que implica requerir de "procesamiento paralelo masivo que se ejecute en decenas, cientos o incluso miles de servidores en su lugar. ¿A qué se considera Big Data?
Varía dependiendo de la capacidad de la organización de gestión conjunta, así como de las capacidades de aplicaciones que se utilizan tradicionalmente para procesar y analizar los datos que configuran su dominio de acción. Para algunas organizaciones, enfrentar cientos de gigabytes de datos por primera vez puede desencadenar la necesidad de reconsiderar las opinones de gestión de datos. Para otros, puede tomar decenas o cientos de terabytes antes de que los datos se conviertan en una consideración importante.

El Concepto de Big Data por lo general incluye "los conjuntos de datos con tamaños más allá de la capacidad de la herramientas de software utilizadas para Capturar, Co-Adjunta, Gestionar y Procesar los Datos dentro de un tiempo transcurrido tolerable". El Big Data tiene un objetivo en constante movimiento, que a partir de 2012 va desde unas pocas decenas de terabytes a muchos petabytes de datos de un solo conjunto de datos. Por tal motivo, no es de extrañar que muchos usuarios comunes y corrientes, hoy en día se nos presente la necesidad de tener que trabajar con equipos computacionales (fijos y móviles), incluso unidades de almacenamiento externas con capacidades sobre 1 terabyte, o en su defecto con capacidades similares de almacenamiento en el Cloud -modelo de computación en la Nube-.

El Objetivo se mueve debido a la constante mejora en la tecnología de DBMS (Sistema de Gestión de Base de Datos ) tradicional, así como consecuencia de las nuevas bases de datos como NoSQL y su capacidad para manejar grandes cantidades de datos. Con esta dificultad, se están desarrollando nuevas plataformas de Big Data, como herramientas para manejar varios aspectos de grandes cantidades de datos.
En un informe de investigación de 2001 y conferencias relacionadas a Meta Group, el analista Doug Laney define los "Retos y Oportunidades del Crecimiento de Datos" tales como La Velocidad en Tres Dimensiones, la cual se refiere al aumento del volumen de datos (cantidad de datos, velocidad de datos interna y externa, y la variedad o gama de tipos de datos y fuentes)". Tanto Gartner como gran parte de la industria, siguen utilizando este modelo "3Vs" para describir los grandes volúmenes de datos(6).

Big Data y la Innovación Global de Servicios (Actual y Potencial de Futuro).-

Como podemos darnos cuenta ahora, el tema del Big Data no es nuevo en cuanto a sus orígenes. Sin embargo, las consecuencias de esta "Innovación Tecnológica" está tomando ribetes insospechados actualmente, tanto en temas de oportunidades de negocios, así como oportunidades de Innovación y Evolución en todo ámbito de temas, áreas e industrias (incluso en nuestros hábitos diarios como consumidores y ciudadanos comunes y corrientes).

Aplicaciones del Big Data Actualmente.
Según Luis Martin (7), la primera gran necesidad del Big Data es el propio almacenamiento de datos. Cuando se llega a esta magnitud, es difícil diseñar una estructura monolítica que pueda albergar toda la información. Se imponen "soluciones distribuidas" que permitan el acceso a las fuentes de información de forma unificada. En muchas aplicaciones para Internet, es neceario además que estos datos se almacenen y procesen rápidamente para ofrecer "análisis en tiempo real". Es necesario también considerar la naturaleza y estructura de los datos, que en estos casos suele ser bastante heterogénea. Las soluciones basadas en "bases de datos relacionadas (NoSQL)" ofrecen una mejor adaptación a este escenario que otras tradicionales en la mayor parte de los casos.
Una vez conseguido dar con una "solución para el almacenamiento" y acceso de grandes cantidades de datos, un gran número de aplicaciones emergen de la posibilidad de realizar análisis sobre los mismos. La tecnología de análisis distribuido de los datos, tales como "Hadoop y MapReduce" ofrecen esta funcionalidad, abriendo un gran número de posibilidades de aplicación como las que se listan a continuación:
  • Sistemas de Recomendación: Utilizan la información de comportamiento de cada usuario para predecir sus intenciones e intereses, y ofrece así contenidos adecuados. Son muy utilizados en Comercio Electrónico.
  • Análisis de Sentimientos: Basándose en conversaciones públicas (EJ: Twitter, foros) y otros elementos 2.0, se intentan predecir los gustos y el comportamiento de cada usuario con finalidad de diferente tipo. 
  • Predicción de Catástrofes: Las grandes cantidades de datos disponibles se utilizan en la detección de eventos como incendios o terremotos, de tal manera que se pueda predecir su impacto y generar una reacción temprana.
  • Juegos: Ajedrés (Deep Blue) o preguntas (Watson) son ejemplos de programas que analizan grandes cantidades de datos de partidas para derrotar a contrincantes humanos.
  • Categorización  y Reconocimiento: De lugares, caras o personas, mediante el análisis del gran volumen de datos de este tipo disponible.
  • Medicina: La medicina genómica personalizada (aún en el campo de la investigación) analiza e integra datos genómicos y clínicos para el diagnóstico precoz y una mejor aplicación de las terapias.
  • Comportamiento Inteligente de Servicios Públicos: Utilizando la información proveniente de datos recopilados por sensores inteligentes puede mejorarse la distribución y consumo de recursos fundamentales como el agua o la energía eléctrica.
  • Modelos de Riesgos: Algunas entidades bancarias y firmas de inversión líderes, utilizan tecnologías de análisis de grandes cantidades de datos para determinar el riesgo de operaciones, evaluando un gran número de escenarios financieros hipotéticos.
  • Detección de Fraudes: Utilizando técnicas para combinar bases de datos de comortamiento de usuarios, y datos transaccionales pueden detectarse actividades fraudulentas, como por ejemplo, el uso de una tarjeta de crédito robada.
  • Monitoreo de Redes: Las redes de servidores producen una gran cantidad de datos que pueden ser analizados para identificar cuellos de botella o ataques. Este tipo de análisis puede aplicarse también a otros tipos de redes, tales como redes de transporte, con el fin por ejemplo, de optimizar el consumo de combustible.
  • Investigación y Desarrollo: Algunas empresas con fuerte componente investigadora, como las farmacéuticas, realizan análisis de grandes volúmenes de documentación (EJ: Artículos Científicos) y otros tipos de datos históricos para mejorar el desarrollo de sus productos.
  • Big Science y el Gran Colisionador de Hadrones: Los experimentos representan unos 250 millones de sensores para la entrega de datos de aproximadamente 40 millones de veces por segundo, resultando en la investigación del Colisionador de Hadrones, cerca de 600 millones de colisiones por segundo. Luego de filtrar y abstenerse de registrar más del 99,999% de estos flujos, hay 100 colisiones de interés por segundo. Como resultado, sólo trabajar con menos de 0,001% de los datos de la corriente de sensores, el flujo de datos desde todos los cuatro experimentos del LHC representa 25 petabytes de tasa anual de información antes de la replicación (a partir de 2012). Esto se convierte en cerca de 200 petabytes de información después de la replicación. Si todos los datos de los sensores debían registrarse en el LHC, el flujo de datos sería muy difícil de trabajar. El flujo de datos superaría los 150 millones de petabytes de tasa anual, o cerca de 500 exabytes por día,  antes de la replicación. Para poner el número en perspectiva, esto equivale a 500 trillones de bytes por día, casi 200 veces mayor que todas las otras fuentes combinadas en el mundo.
  • La Astronomía: Desde que el Sloan Digital Survey (SDSS) comenzó a recopilar dato astronómicos en el año 2000, se acumuló más datos en sus primeras semanas, que todos los datos recogidos en la historia de la astronomía. Siguiendo a un ritmo de alrededor de 200 GB por noche, el SDSS ha acumulado más de 140 Terabytes de información. Cuando el Gran Telescopio para Rastreo Sinóptico, sucesor del SDSS, se ponga en línea en el año 2016, se prevé la adquisición de esa cantidad de datos cada cinco días.
  • Descifrando el Genóma Humano: Se refiere al proceso PGH de investigación científica con el objetivo fundamental de determinar la secuencia de pares de bases químicas que componen el ADN e identificar y cartografiar los aproximadamente 20.000 - 25.000 genes del genoma humano desde un punto de vista físico y funcional. El proyecto dotado con 3.000 millones de dólares fue fundado en 1990 en el Departamento de Energía y los Institutos Nacionales de Salud de los Estados Unidos, bajo la dirección de Francis Collins, quién lideraba el grupo de investigación público, conformado por múltiples científicos de diferentes países, con un plazo de realización de 15 años. Gracias a la amplia colaboración internacional a los avances en el campo de la genómica, así como los avances en la tecnología computacional, un borrador inicial del genoma fue terminado en el año 2000. Finalmente, el genoma completo fue presentado en abril de 2003, dos años antes de lo esperado. Los secuenciadores de ADN humano han dividido el costo de secuenciación por 10.000 en los últimos 10 años, lo cual es un factor de 100 en comparación con la Ley de Moore.
Otras áreas en las cuales se aplica Big Data, se cuenta a las Ciencias Sociales Computacionales, Gobierno, Sector Privado, Desarrollo Internacional, e-Commerce, Deportes, Cultura, Sector Salud, Juegos Digitales, Ecucación, Espionaje (Caso Prism y Boundless Informant por parte de Estados Unidos y otras Naciones), Smart Cities o Ciudades Inteligentes (Servicios de Planificacón y Servicios, Seguriad Pública, Edificios Publicos y Planificación Urbana, Gobierno y Administración de Agencias, Producción de Información para Predicción de Amenaza y Prevención, Servicios de Infraestructura, Energía y Agua Inteligente, Base de Operaciones Inteligentes, Medio Ambiente, Transporte, Programas Sociales, entre muchos otros), etc., los cuales tratamos en la presente publicación digital, pero que por un tema de extensión sólo nombramos acá en el presente blog. Algunos vieos explicativos al respecto:
* Cómo el Big Data Transforma los Negocios:


* Big Data y el Deporte:



* Big Data en el Sector Salud:

 

Dentro de los Casos que tratamos más en extenso relacionados al Big Data y su influencia actual y futura en nuestro artículo, dice relación con los Casos de Espionaje de Países como Estados Unidos y otros (Prism y Boundless Informat), El Caso del Big Data y el Comportamiento de las Personas (Sector Telecomunicaciones y como se beneficia el Sector Salud), Big Data y la Educación (MOOCs, Massive Online Open Course), Caso Big Data y las Smart Cities, entre otros.



Por último, analizamos y presentamos Proyectos Big Data que impactarán la Vida de los Usuarios comunes y corrientes en sus vidas, tales como:
1º.- Tiempo de Tránsito en Nueva York.
2º.- Topografía de los Tweets.
3º.- Reloj de Homicidios en DC.
4º.- Falling Fruits.
5º.- Mapa Interactivo de prevalencia de VIH en los Estados Unidos, para encontrar sitios de prueba más cercanos a su hogar.
6º.- Yelp Hipster Watch, para bares y restaurantes en su ciudad que están de moda.

Como verán, el fenómeno del Big Data no es una moda tecnológica, es una verdadera revolución tecnológica que se está transformando en una verdadera Innovación Disruptiva en todo ámbito e industrias a nivel global, que más que generar una oportunidad de negocio, está permitiéndo a la sociedad evolucionar a un nuevo contexto social, cuyo objetivo no es otro que el de mejorar el nivel de vida de la ciudadanía (en este caso del ser humano sin discriminación alguna). Según mi punto  de vista, esto marca un precedente de un "antes y un después del Big Data", dado que si creemos que esto es una revolución (por la prerrogativa y capacidad de poder predecir eventos a partir de datos), lo que sucederá en el corto plazo será aún mayor y con un impacto inconmensuable. Es cosa de comenzar a "Pensar Fuera de la Caja", sin considerar los paradigmas bajo los cuales hemos y estamos  funcionando, para darnos cuenta del potencial del Big Data. Si sumamos la "automatización", la "aplicación de tecnologías de sensores", "el internet de las cosas", "la domótica", "las nuevas tecnologías emergentes (como realidad aumentada, tecnología holográfica, tecnología de impresión 3D, tecnología que permite la interacción con aparatos electrónicos y tecnológicos con la mente, la realidad virtual, entre muchas otras)", "la implementación  de ampliación geográfica para el internet wifi para los 5.000 millones de personas que aún no tienen acceso a internet a nivel global", "desarrollo de la Inteligencia Artificial (AI)", entre muchas otras, a quienes nos especializamos en estos ámbitos nos permite dimensionar apenas la punta del iceberg de desarollo tecnológico y humano que estamos a punto de afrontar.
Muchos podrán pensar que se trata de un guión de ficción de Hollywood, pero no, es una realidad que estamos y continuaremos viviendo, permitiéndonos mejorar la calidad de vida del ser humano ¿Cómo? A través de la Innovación en las Industrias actuales y Nuevos Servicios. Esto es fácil de verificar si analizamos la rapidez y profundidad como se están llevando a cabo Innovaciones no sólo en productos y servicios, sino por sobre todo en Modelo de Negocios que atañen a descubrimiento de oportunidades de negocio que involucran tecnología. Con esto no quiero decir la tecnología sea un pilar necesario para el desarrollo y aplicación de Innovación, ¡para nada!. Sin embargo, la influencia y participación crítica y necesaria para generar Innovación en el ámbito del área de la Industria de Servicios, eso sí es otra cosa. Esto se debe a que, como sabemos quienes estamos embarcados en el ámbito del Emprendimiento y la Innovacón, los "Servicios (que no son Escalables) para ser Escalables (y poder tener un horizonte de desarrollo y cobertura a nivel global), necesitan de la aplicación de la tecnología", tranformando los Servicios en Productos Tecnológicos, los cuales, utilizando bondades de Internet, permiten la Captura, Creación y Desarrollo, así como la Distribucón de Valor, de nuevos beneficios para consumidores/ usuarios/ ciudadanos/ ser humano en general, a través de nuevas Propuestas de Valor que ayudan a la sociedad a Solucionar su Problemas, a Satisfacer sus Necesidades de maneras que antes ni siquiera el mismo mercado habría considerado posible.
Por lo tanto, si me preguntan que nos depara el futuro del desarrollo tecnológico y la Innovación en Servicios, considerando el Big Data, me atrevería a decir que, lo que actualmente estamos viviendo es a pensas la punta del Iceberg.

1) HCGlobal Group, Hugo Céspedes A., "Service Design y la Nueva Economía Global de Servicios",
2) Forbes, Gil Press, "A Very Short History of Big Data", 09/05/2013.
3) The Economist, Data, data everywhere.
4) A tener presente la siguiente tabla de conversión (en términos de byte y expresado en sistema internacional decimal):
1 Kilobyte (KB): 1.000 bytes; 2^3.
1 Megabyte (MB): 1.000.000 bytes; 2^6.
1 Gygabyte (GB): 1.000.000.000 bytes; 2^9.
1 Terabyte (TB): 1.000.000.000.000 bytes; 2^12.
1 Petabyte (PB): 1.000.000.000.000.000 bytes; 2^15.
1 Exabyte (EB): 1.000.000.000.000.000.000 bytes; 2^18.
1 Zettabute (ZB): 1.000.000.000.000.000.000.000 bytes; 2^21.
1 Yottabytes (YB): 1.000.000.000.000.000.000.000.000 bytes; 2^24.
5) Ley de Moore y la Potencia de Microprocesamiento: Desde la aparición del primer chip en 1959, se había duplicado cada año la cantidad de compomentes en un chip con los costos de manufactura más bajos por componentes. De acá surgen derivaciones de la Ley de Moore al respecto ("La Poencia de los Microprocesadores se duplica cada 18 meses -Gates 1977-, "El Precio de la Computación se reduce a la mitad cada 18 meses").
Ley de Almacenamiento Digital Masivo: "La cantidad de información Digital se dupplica más o menos cada año (Lyman y Varian, 2003)". En el mundo se producen alrededor de 5 exabytes de información exclusiva cada año (un exabyte equivale a mil millones de gigabytes).
Ley de Metcalfe y la Economía de Redes: "El Valor o potencia de una Red, crece exponencialmente como una función de la cantidad de miembros de una red". A medida que aumentan linealmente, el valor total del sistema aumenta exponencialmente y continúa creciendo siempre conforme se incrementan los miembros (Efecto de Economía de Redes y el Crecimiento de Internet). Kenneth C. Laudon & Jane P. Laudon, "Sistemas de información Gerencial: Administración de la Empresa Digital", (Impulsores de la Evolución de la Infraestructura), Pearson Pretince Hall, Décima Edición.
6) Gartenr, "Gartner Says Solving Big Data Challenge involves more than just managing volumes of Data", Beyer, Mark, 27 de Junio de 201, Gartner.
7) BrainsSINS, Luis Martin, "Big Data: Necesidades y Aplicaciones".

A continuación los dejamos con la publicación en cuestión (ojo, la publicación viene con códigos QR para poder acceder a videos complementarios, así como también las imágenes acompañadas de Cógidos QR, pueden ser clickeadas para acceder a los mismos videos, si es que el artículo se está leyendo en formato digital -pdf-). Recuerden que para la descarga del presente artículo, pueden dirigirse a nuestra web www.hcglobalgroup.com:



No hay comentarios: