Archivos para Tendencias

Relacionado con tendencias en el sector de IT

Blockchain es claramente una de las palabras de moda del sector de IT ahora mismo, arrancando el año escribí una explicación somera de esta tecnología tan prometedora, aquí puedes leer ese post.

Pero un tema que siempre queda en entredicho es si realmente es una revolución de un impacto tal cómo fue Internet cómo muchos afirman, o únicamente será un nuevo modelo de “base de datos distribuida lenta” como otros creen.

Yo si creo que es una gran revolución, y quiero explicar porqué

Continuar leyendo…

[Disclaimer: todas estas notas son personales, bajo mi libre interpretación y en ningún caso es un resumen oficial de Dell EMC o similar. Las notas las fui tomando durante las charlas, si he metido la pata de alguna forma… pues es lo que hay :-). El día anterior no sólo se agotó la batería del portátil sino que mi cargador murió, si no es por un compañero (mil gracias de nuevo Edorta) me quedo sin portátil hasta el lunes. Lo pude recuperar pero hasta el final de las charlas no pudé cargar el portátil, por lo que tomé las notas a mano y muchas fotos, a ver como queda la trascripción]

 

Para celebrar el último día del DTW 2018, de nuevo a las 8:30 arrancamos con una charla sobre “Understunding The CNCF Cloud Native Landscape: It’s more Than just Kubernates“. Charla muy interesante que empezó con poca gente y se fue llenando poco a poco (la hora era horrorosa).

El objetivo de la Cloud Native Computing Foundation es extraer el valor de toda la forma de operar de los “unicornios” de Internet y hacerlo disponible de una forma razonable a cualquier empresa. Una pregunta interesante con la que arrancó la charla fue el porqué si las CNA son tan maravillosas como todos decimos, no las adoptan de forma másiva todos las empresas, y la respuesta es básicamente porque desarrollar una CNA también es complejo.

 

Hay algunos problemas sobre está complejidad ya resueltos como la portabilidad de aplicaciones solucionada con dockers. Está complejidad viene de que las CNA requieren herramientas y telemetría para añadir automatización a la operativa “clud” de la aplicación.

Si pensamos en una Cloud Native Application, el gráfico inferior (que en la presentación “trocearon” en varias slides) indica los pasos a dar del más básico al complejo:

  1. Aislar y hacer portable la aplicación (conteinarizarla).
  2. Automatizar la integración en su integración y despliegue (CI-CD).
  3. Gestionar el ingente numero de instancias* que puede haber de contenedores (eso es Kubernates, el único proyecto del CNCF en estado “grduado”, el resto están en estado  de incubación).
  4. Una vez las instancias de contenedores están orquestadas, es necesario analizar como se comportan y controlar sus logs (monitoring-tracing).
  5. Y luego permitir que los servicios de los contenedores hablen entre ellos con funciones de automáticación de red (el nº 6 en la imágen).
  6. Y con gestores de servicios para el regitro y descubrimiento de los mismos (el nº 5 de la imágen).
  7. Luego podemos añadir Bases de datos para la gestión de información persistente. Una puntualización interesante que hizo el ponente en este punto es que si no tienes claro que tipo de base de datos usar (relacional o de tipo no sql) adoptes la tradicional, dado que la forma de entender la persistencia de información es más sencilla en un entorno ACID que en una base de datos de otros tipicos…
  8. y cuando la arquiectura crece, necesitaremos gestión de colas de mensajes.
  9. Ya por último podemos automatizar el runtime.
  10. Y como paso un tanto “experiamental” aún, el despliegue de software. Este punto es curioso y trata de asegurar en modo “notario” que los requisitos de un container que has pedido son los que te han dado, y de forma análoga que el código que espera ejecutar el contenedor es el adecuado. A título personal me pregunto cuanto tardará Blockchain en meterse en esta discusión.

Cómo se ve en el gráfico de la CNCF, la fundación tiene proyectos para todos los pasos, varios en algunos puntos. Se puede ver un gráfico bastante intuitivo e interactivo sobre los diferentes paquetes, uso y grado de desarrollo en: https://landscape.cncf.io/

Contínuo la charla explicando paso a paso cómo se iría constuyendo una CNA con las soluciones de CNCF:

  1. Creando un container en formato estándar OCI desde el sistema de control de versiones que cada uno uso (SVC) que corre en un SSOO.
    • Ese container tiene:
      • Una definición del sistema de ficheros.
      • Los límites de consumo de CPU, RAM, etc.
      • El namespace de procesos que puede ejecutar.
      • La configuració de puertos, entorno, links … y también iría aqui la definición de volumenes a usar.
      • Por último el comando de inicio.
  2. A esto se le añade un Runtime de containers que lea la imágen antes generada. Además este runtime puede correr en varios entornos (cada un con su OS).
  3. Luego se añade el coordinador de containers que va a hacer de plataformaKubernates.
  4. Cómo cada contenedor puede ser requerido o requerir de otros servicios que no conoce, hay que añadir un servicio de registros.
  5. Y cómo entre todos ellos pueden comunicarse, hay que añadir un servicio de comunicación.
  6. Para poder actuar sobre algo y mejorarlo, hay que medirlo (por cierto esto lo dijo Ashton Kutcher ayer en su charla), así que añadimos un servicio de métrica, gestión de trazas etc.
  7. Y por si nececesitamos persistencia de datos una BBDD adaptada al mundo de los Contedores.

Después la charla paso a versar sobre cómo se crea una plataforma. ¿Por qué una plataforma? porque (como se comentó en una charla posterior) los desarrolladores y operadores (DevOps) no quieren tener que pegarse con la integración de diferentes soluciones puntuales, por lo menos en el mundo de negocios genéricos (los Unicornios y demás empresas de ese pelo puede que si mientras le de una ventaja competitiva)…

Un caso particular dentro de la plataforma de Dell Technologies es BOSCH. Uno de los valores diferencias de Pivotal Cloud Foundry, que se encarga de toda la gestión del IaaS que no es objetivo clave de CNCF u otros proyectos similares, dado que cuentan con abstraerse de lo que hay debajo o directamente asumen correr sobre alguna Cloud publica tipo Hyperscaler (Amazon, Azure o Google Cloud platform).

Acabó la charla, cómo no podía ser de otra forma, con una demo, centrada en JAEGER el sistema de control de trazas de micrcoservicios de la CNCF. Muy espectacular la verdad y demuestró por un lado la complejidad derivada de una CNA “dummy” y como de necesarias son las diferentes piezas de CNCF para gestionar el entorno. Además sobre el ejemplo fue análizando los logs del sistema evaluando potenciales problemas/mejoras de la app…. muy útil la verdad.

(*) Sobre el numero de instancias, en otra charla posterior se mencionó que mientras sobre un servidor con catacterísticas genéricas se podrían correr hasta unas pocas cientos de maquinas virtuales, el numero podría ser de varios miles en el mundo de los contenedores… de ahí su éxito y también la complejidad en el manejo de instancias, que es exponencial incluso respecto al de máquinas virtuales.

Cómo nota final, al margen de la charla: vobre la parte de persistencia de Kubernates, hubo una presentación muy buena a la que no pude asistir, pero el contenido está aqui para descargar: link a pdf.


Después vino la charla técnica más interesante de todo el evento… Continuar leyendo…

[Disclaimer: todas estas notas son personales, bajo mi libre interpretación y en ningún caso es un resumen oficial de Dell EMC o similar. Las notas las fui tomando durante las charlas, si he metido la pata de alguna forma… pues es lo que hay 🙂]

De nuevo a las 8:30 arrancamos con una charla sobre “VxRaill powered by vSAN: Overview & What’s new with the hottest HCI appliance for vSphere environments“. Petada la sala con gente de pie al fondo, buena señal del éxito del producto.

Se empezó haciendo un repaso del mercacdo de HCI y como en teoría está impulsado por las grandes cuentas y medio-grande. También se desmitificó el uso de esas plataformas, indicando que el 47% de los clientes actuales lo están usando ya como infraestructura principal, y un 45% para cargas de trabajo hibridas. Ya no más lo de una isla para VDI.

VxRail tiene ahora más de 2.500 clientes con más de 20.000 nodos vendidos (300.000 cores y varios cientos de PB de almacenamiento).

El valor de la plataforma se basa en que permite un 70% mayor de velocidad en despliegue gracias a los 200 pasos automatizados para trabajar con la plataforma y una reducción de costes del 42% viendo end-to-end los costes totales de gestión y mantenimiento.

Luego se discutió lo que llevaba un VxRail y temas de licenciamiento, sobre todo que tipo de licencias pueden desplegarse con la plataforma cuando traes las tuyas propias. Básicamente si no es una Essential y la has comprado de Dell EMC / VMware, cualquier cosa es aceptable. Más detalles en la imágen abajo:

 

Hablando de los modelos 14G ahora mismo disponemos de:

  • E560/F como configuración minima.
  • V570/F para VDI
  • P570/F para alto rendimiento
  • S570 para almacenamiento denso.

Seguimos teniendo soluciones con modelos anteriores de 14G pero no se trato en la charla, está clara la apuesta de futuro.

Con las combinaciones de procesadores (sólo 38 opciones), RAM, almacenamiento, conectividad, GPU y hasta power supplies se acaba viendo que con VxRail puedes tener cualquier combinación…

Hablando sobre como escalar, el sistema permite arrancar pequeñ e ir creciendo scale up y scale out, aunque con algunas limitaciones como algunos cambios de arquitectura de procesadores.

Uno de los valores fundamentales de todas nuestras soluciones convergentes e hiperconvergentes simplificar el ciclo de vida de updates es un valor diferencial, y VxRail lo mantiene tanto para la parte software como hardware

Se preguntó por la diferencia de tiempo “lag” entre los códigos de VMware y su reflejo en VxRail… para parches son 4-5 días. Para código general lleva más tiempo y se alinea con las releases de código de la platforma, aunque se está trabajando para acelerar este último proceso para estar casi alineados con VMware.

Se habló también del VxRail manager, la herramienta general de gestión y trabajo de la plataforma, que se está intentando integrar mejor con el vCenter:

Luego se mencionó las opciones de protección de información que viene por defecto con VxRail. Y se pasó a ver que cargas no son apropiadas para VxRail: BBDD grandes, grandes despliegues de ficheros, HPC en nodos de calculo másivos o archivado de long-term (porque no sale a cuenta económicamente), pero se dejó muy claro que para todo lo demás es perfectamente válido, teniendo clientes con prácticamente cualquier carga de trabajo, y en el futuro hasta SAP HANA (cuando SAP lo permita).

Moviendonos a la capa de softwre se habló de:

  • Pivotal Ready Architecture, como arquitectura de referencia para que cada cliente se monte su Pivotal on premise o tire de servicios de Dell EMC para su despliegue.
  • Si lo que buscas es cómo montar tu plataforma SDDC sobre VxRail, tienes toda la información en la web de VMware: https://kb.vmware.com/s/article/54816

Hablando de las últimas novedades incorporadas se mencionó (primero SW y luego HW):

  • Los fixes para Meltdown y Spectre. Incluyendo pruebas de rendimiento para evitar un impacto de estos parches… en general el impacto es irrelevante y en picos de uso puede ser un máximo del 7%.
  • Se ha mejorado el API RESTful
  • Se ha iniciado la integración con el Open Manage Essentials de Dell.
  • Se han mejorado las opciones de crecimiento de los clusters (por ejemplo permitiendo nodos mixtos de generación 13 y 14G)
  • Mejoras en el soporte remoto estándar ESRS
  • Integración de la gestión de eventos con vCenter.
  • Se han mejorado las opciones de seguridad de los appliances. No se entró en detalle porque había una sesión dedicada a este aspecto.
  • NVME drives (800Gb para caché y 1.6Tb para almacenamiento), siempre en arquitecturas dual processor.
  • Conectividad 25Gb.
  • Se duplica la memoria disponible.
  • NVIDIA P40 GPUs

[Update]

Y aqui una actualización con todas las novedades de la última versión de VxRail de otras comunicaciones internas:

Features

  • NVMe Cache Drives: Future proof with NVMe 800GB and 1.6TB cache drive options for faster caching technology at 2X the caching tier capacity
  • 25GbE Connectivity: Most aggregate bandwidth of any other vendor’s appliance and 36% more network bandwidth and 25% more onboard throughput
  • High Memory Processors: Up to 2X more memory (3TB) using new high memory Intel Xeon processor options
  • NVIDIA P40 GPUs: 2x performance in graphics acceleration and 50% more users per board for scaling high performance virtual graphics and compute
  • Flash SATA Drives: With 30% lower cost per drive a good option for capacity intensive workloads
  • New Configuration and Ordering options:
    • From the 8th May VxRail will be available in the Dell ordering and configuration tolls across many of the countries with EMEA
    • Following the launch in the Dell tool set, there will be enablement training across EMEA on positioning, sizing and configuring within the Dell tools.

Dell EMC VxRack SDDC

Dell EMC VxRack SDDC system powered by VMware Cloud Foundation is a new class of hyper-converged integrated systems that provides the easiest path for a VMware multi cloud environment. This turnkey solution is fully engineered and takes advantage of market leading hardware and software technologies. It includes all the necessary compute, networking, and storage components to deliver a complete self-contained and optimized VMware private cloud experience. VxRack SDDC with VMware Cloud Foundation will simplify digital transformation and future proof your data center by removing the focus on maintaining infrastructure. Leveraging VxRack SDDC means you can now easily deliver a complete VMware SDDC at the speed your business requires. This new level of modern agility will be your competitive advantage by allowing you to provide services faster, deploy applications sooner, and reduce downtime

New Platform – Many new hardware options

  • VxRack SDDC now built with VxRail based on 14th Generation PowerEdge servers
  • 36 new fixed node configurations across R640/R740XD PowerEdge server platforms
  • Exclusive VxRack SDDC Automation and Serviceability Extensions capabilities
  • ESRS, Support 360 integration, physical node view, automated serviceability tasks support
  • Integration with SDDC Manager and SDDC Manager UI
  • MyQuotes Ordering
  • Dell EMC Supply Chain alignment with VxRail HW
  • Dell EMC Services/Support
  • Introduction of VxRack SDDC ESSM Support Matrix (no more RCM)

New VMware Cloud Foundation 2.3.x

  • vSphere 6.5
  • vSAN 6.6
  • NSX 6.3
  • Heterogeneous Server Support
  • Intel Xeon Scalable Processor family support
  • WLD Creation/Expansion Node type selection
  • Cloud Management Platform integration
    • vRealize Automation 7.3  Install
    • vRealize Operations 6.6  Install
  • Backup of Management Workload Domain UI integration
  • Offline Proxy LCM Support
  • External storage guidance
  • Data Protection Guidance

[/Update]

Una charla interesante de básicos y actualización de VxRail.


Cómo siempre a segunda hora tocó una charla general, bastante más prometedora que la media hasta ahora…

Continuar leyendo…

[Disclaimer: todas estas notas son personales, bajo mi libre interpretación y en ningún caso es un resumen oficial de Dell EMC o similar. Las notas las fui tomando durante las charlas, si he metido la pata de alguna forma… pues es lo que hay 🙂]

Arrancamos de nuevo el segundo día del DTW 2018 a las 8:30, con una charla de Aharon Blitzer y Marco Abela, del equipo de product management de XtremIO2, el título fue “XtremIO2 Native Replication: Use Cases Architecture & Best practices“. Un poco de storage, en el día de los anuncios, nunca viene mal.

La charla obviamente se centró en las capacidades de replica de X2 (quien lo diría con el titulo) y su relación con una copia de datos cualquiera, que X2 gestiona mejor que casi cualquier otra plataforma bajo el concepto de iCDM (intelligent copy data management).

Por supuesto se destacó uno de los problemas actuales de réplica: todo se copia por la red consumiendo recursos de ambos arrays y de la línea. La solución de X2 es replicar únicamente la información nueva en ambos sites, ya deduplicados en orígen como siempre hace X2. Los ahorros van en cascada si vamos a arquitecturas de 4:1 (fan in) como permite X2.

Entrando un poco en detalles técnicos se lanzaron a explicar el CAS (Content AWARE Storage … no confundir con otro CAS de Dell EMC centrado en Centera y ECS), XVC (XtremIO Virtual Copies) y otros elementos de la arquitectura de XtremIO que si no conocéis os ánimo a que investigueis, desde un punto de vista de I&D es un producto increíble.

Cómo hace entonces X2 para mandar únicamente los cambios? bueno el sistema:

  • Hace un snap y lo manda para inicializar el Array 1 al 2. Una vez eliminados los duplicados, por supuesto.
  • Dependiendo del RPO (el mínimo son 30 segundos) se lanza otro snap en Array 1 y tras un snap diff se mandan las diferencias no duplicadas al array 2.
  • En Array 2 se crea un point of time con el nuevo diff recibido.
  • Alguien dijo Recoverpoint? … pues si, funciona muy similar con las ventajas de como se sabe los snaps en XtremIO son automáticos y sin ningún tipo de impacto en consumo de almacenamiento o rendimiento en los array.

Obviamente las ventajas ante una caída de sistema es que la recuperación básicamente consiste en montar un snap en el site destino, que es algo que lleva pocos segundos en XtremIO2.

Las ventajas de este tipo de réplica respecto a otros sistemas es:

  • El ahorro en consumos porque se envían sólo los cambios.
  • Velocidad en los procesos al poder aprovechcar funcionalidades de X2 como write folding.
  • La deduplicación es global para toda la arquiectura. Piensa en varios X2 haciendo réplica sobre un entorno central, que hace dedup global sobre TODOS los nodos que replican contra él. Los ahorros pueden ser brutales.
  • y después de todas esas eficiencia, la compresión…

La sesión fue a toda leche para centrarse en una demo para mostrar lo jod***ente sencilla que es de gestionar y configurar.

El tío que hizo la demo sabía mucho, pero se notaba que no estaba comodo hablando para una audiencia grande. De todos modos para mostrar la sencillez de las nuevas opciones del interfaz de X2 no se necesitaba mucho, en una sola pantalla se ve la configuración, funcionamiento, rendimiento etc.También un gráfico con la topología de las máquinas en el entorno de protección, que nunca viene mal para saber dónde tienes problemas.

Luego obviamente podemos indicar detalles como RPO, tiempo de retención basado en 3 politicas de tiempo (corto-medio-largo) etc y estás políticas de retención pueden ser diferentes en orígen y destino. Es literalmente un wizard de 5 pasos. Más sencillo imposible.

Se cerró la charla hablando del ecosistema de aplicaciones con las funcionalidades de replica cómo VMware SRM o Appsync:

 

 

Y también mostraron unas cuantas estadísticas de anchos de banda alzanzados con tiempos de respuesta correspondientes a entornos intra y extra continentales, mostrando para entornos 1:1 y para entornos de réplica 4:1. Para 1.1 se manteía casi fijo un rendimiento de 1,7GB/s y para entornos 4:1 pasaba de los 7GB, bajando ligeramente en entornos extra continentales.

Por cierto, todo esto está disponible este jueves.

Si quieres algo más detallado, mejor leer el Blog del CTO de XtremIO un contenido similar pero más en profundidad y con mejores imágenes:

XIOS 6.1 – Introduction to XtremIO Native Replication

Fue una charla algo técnica e interesante, pero nada nuevo para empleados al día de X2 (de lo poco en lo que yo estoy al día últimamente).

nota final: deberíamos prohibir poner slides con cables en las charlas con clientes, menos aún como cierre de una charla en un evento general como el DTW2018.


Lo interesante vino en la siguiente charla Continuar leyendo…

[Disclaimer: todas estas notas son personales, bajo mi libre interpretación y en ningún caso es un resumen oficial de Dell EMC o similar. Las notas las fui tomando durante las charlas, si he metido la pata de alguna forma… pues es lo que hay 🙂] Este es sin duda el post más largo de mi vida…

Arrancamos el DTW 2018 prontito a las 8:30, con una charla de Rick Scherer, uno de nuestros Principal Architect de cuentas Globales, sobre “The Container Storage Interface: Storage in a Cloud Native World“. No muy relacionado con mi pasado-presente como preventa de cabinas de almacenamiento, pero para eso está en el DTW 2018, para aprender sobre las miles de cosas que hace Dell Technologies además de las que conocemos en el día a día !

La charla versó sobre como mantener la persistencia de datos en Containers, curioso la enorme cantidad de manos que se levantaron en la sala cuando se preguntó por los que estaban usando Containers a día de hoy (recordemos que el DTW es mundial aunque la mayoría de los asistentes por supuesto son de USA). Tambien curioso cómo la mitad bajaron la mano cuando se preguntó por lo mismo en entornos de producción…

En la misma encuesta a mano alzada parece que Kubernates está ganando la carrera sobre orquestador / “gestor” de Containers.

Arrancó Rick explicando porque esta moda de la “Digital Transformation” (gracioso el ejemplo de que el día de Home Depot descubrió que Amazon vendía más martillos que ellos, decidieron convertirse en una empresa de Software) no es una broma y viene para quedarse, la enlazó con la confluencia de las 4 fuerzas:

  • Containers: Él mismo explicó las ventajas de Containers sobre máquinas virtuales, así que la lucha de Containser Vs VM’s parece un poco estéril.
  • DevOps: Sobre como agilizar los despliegues para hacer varios cada día/hora y permitir a los nuevos desarolladores trabajar sobre partes pequeñas del código de una forma controlada.
  • Microservices: O sobre como acabar con las aplicaciones monoliticas y acabar con sus problemas, dependencias, complejidad por acoplamiento, problemas de escalabilidad, largas curvas de aprendizaje…
  • Metodología Agile.

La slide más fotografiada era la que dejaba claro que Agile NO es DevOps, que CloudNative no es DevOpcs y que los microservicios o containers NO son DevOps. Al final DevOps es una cultura y filosofía de trabajo derivada de las nuevas formas de desarrollar software.

Hablando de las Cloud Native apps, dejó claro (por fin) porqué son diferentes:

  • Operan a mucha mayor escala de usuarios e información que manejan.
  • Requieren una architectura escalable (Scale Out)
  • Por lo anterior, requiren de un concepto diferente de economía (correr sobre entornos commodity y gestionado por Sw).
  • Su capa de infraestructura require de gran automatización (“instrumentation” lo llamó el) y telemetría: quien hace qué, como se consumen recursos, etc…
  • Pero no es un entorno efímero, así que require de Almacenamiento Persistente! (que es el objetivo de está charla). Pero este concepto no estuvo en el orígen de los Containers, así que es un hueco a cubrir. De hecho si miras el Top 10 de imágenes de Docker Hub casi todas requieren de persistencia, como las BBDD…

Aunque la charla en teoría era “avanzada” puso la slide oficial de diferencias entre Containers y VMs :

El problema de la persistencia de datos es que los Containers quieren soportar las necesidades de las aplicaciones (BBDD por ejemplo), y con los servicios de toda la vida (snaps, réplica etc), con soporte sobre estas funcionalidades y otras más como control y gestión (“governance”) de la plataforma de almacenamiento.

El resto de la charla fue sobre las diferentes opciones de persistencia únicamente para Kubernates (en adelante K8s):

  • In-Tree Volume Plugin: directamente con los binarios de K8s pero muy dependiente de las versiones, con bugs etc… sin mucho futuro.
  • Out-of-Tree Volume Plugin, como RexRay y FlexVolume (ahora llamado FlexRex). A partir de K8s 1.2.
    • Usa un modelos de interfaz con drivers basado en ejecutables.
    • Los binarios de FelxVol tienen que estar en cada nodo (a veces los Master).
    • Los Pod interactuan son FelxVolume a través de un plugin In-Tree.
  • CSI: Container Storage Interface es un mecanismo estandarizado para los COs (Container Orchestration Systems) incluyendo K8s. Parece eliminar los problemas de FlexVolume como las dependencias y la necesidad de accesos con privilegios en algunos puntos.

 

 

Y con esto y kilos de recursos sobre como avanzar en este topic acabó la charla, muy interesante sobre el futuro del Software Cloud Native y su relación con el almacenamiento.


La siguiente charla fue la del jefe…

Continuar leyendo…

Ya estamos por Las Vegas los asistentes al Dell Technolgies World del 2018, antiguo Dell EMC World.

Son 4 días repletos de charlas (más de 24 en mi agenda), reuniones de clientes con ejecutivos y momento de lanzar los anuncios más importantes sobre nuevos productos de la empresa (esto sobre todo pasaré el Martes en la charla de Jeff Clarke).

Intentaré hacer en los próximos días post cortos sobre las novedades de lo que vea.

 

Make it Real!

Si quieres más información: https://www.delltechnologiesworld.com/index.htm

En entradas anteriores hablé por un lado de las nuevas arquiecturas de “computación ubicua” en la que el mundo de IoT se mezcla con el Big Data y con los procesos intermedios; también hablé de la complejidad que existe a veces para encontrar documentos de nivel de “doctorado” para cubrir huecos de conocimiento.

Bueno, pues este post tan breve es para destacar un magnifico documento que cubre ambos aspectos, habla del IoT y como relacionarlo con BigData desde un lenguaje MUY científico.

Link para descargar el fichero:

Continuar leyendo…

BlockChain

2 febrero, 2018 — 1 Comentario

Como sabéis uso mi Blog más como bloc de notas público que como púlpito dónde contar lo que se. Anoto links y alguna vez les doy forma para publicarlo y consultarlo para mi propia consulta.

Uno de los temas más en boga en 2017 y que aposté a que seguría dando que hablar en 2018 fue la tecnología Blockchain y varios conceptos que la rodean… es hora de poner en ordern las muchas notas alrededor de este concepto.

Así que, al lío sobre lo que he ido entendiendo de Blockchain y palabros alrededor:

Continuar leyendo…

La semana pasada repasaba las predicciones del 2017 y veía como de acertadas habían estado, sacaba un aprobado raspado pero es más de lo que saqué con la lotería, así que acabé el año feliz.

Ahora toca lanzar las predicciones sobre las grandes tendencias que explotarán y marcarán la agenda digital del 2018…

Vamos a por ellas. Continuar leyendo…

Arrancaba el blog este año con una serie de predicciones sobre lo que sería el 2017, y ahora toca mirar para atrás y ver como de acertadas fueron. Me voy a dar una nota del 1 (fallo catastrófico) al 10 (acierto sin dudas) y luego saco la media a ver si llego al aprobado… es el momento de la vergüenza:

Continuar leyendo…