Dell Technologies World 2018 (dia 3)

2 mayo, 2018 — 1 Comentario

[Disclaimer: todas estas notas son personales, bajo mi libre interpretación y en ningún caso es un resumen oficial de Dell EMC o similar. Las notas las fui tomando durante las charlas, si he metido la pata de alguna forma… pues es lo que hay 🙂]

De nuevo a las 8:30 arrancamos con una charla sobre “VxRaill powered by vSAN: Overview & What’s new with the hottest HCI appliance for vSphere environments“. Petada la sala con gente de pie al fondo, buena señal del éxito del producto.

Se empezó haciendo un repaso del mercacdo de HCI y como en teoría está impulsado por las grandes cuentas y medio-grande. También se desmitificó el uso de esas plataformas, indicando que el 47% de los clientes actuales lo están usando ya como infraestructura principal, y un 45% para cargas de trabajo hibridas. Ya no más lo de una isla para VDI.

VxRail tiene ahora más de 2.500 clientes con más de 20.000 nodos vendidos (300.000 cores y varios cientos de PB de almacenamiento).

El valor de la plataforma se basa en que permite un 70% mayor de velocidad en despliegue gracias a los 200 pasos automatizados para trabajar con la plataforma y una reducción de costes del 42% viendo end-to-end los costes totales de gestión y mantenimiento.

Luego se discutió lo que llevaba un VxRail y temas de licenciamiento, sobre todo que tipo de licencias pueden desplegarse con la plataforma cuando traes las tuyas propias. Básicamente si no es una Essential y la has comprado de Dell EMC / VMware, cualquier cosa es aceptable. Más detalles en la imágen abajo:

 

Hablando de los modelos 14G ahora mismo disponemos de:

  • E560/F como configuración minima.
  • V570/F para VDI
  • P570/F para alto rendimiento
  • S570 para almacenamiento denso.

Seguimos teniendo soluciones con modelos anteriores de 14G pero no se trato en la charla, está clara la apuesta de futuro.

Con las combinaciones de procesadores (sólo 38 opciones), RAM, almacenamiento, conectividad, GPU y hasta power supplies se acaba viendo que con VxRail puedes tener cualquier combinación…

Hablando sobre como escalar, el sistema permite arrancar pequeñ e ir creciendo scale up y scale out, aunque con algunas limitaciones como algunos cambios de arquitectura de procesadores.

Uno de los valores fundamentales de todas nuestras soluciones convergentes e hiperconvergentes simplificar el ciclo de vida de updates es un valor diferencial, y VxRail lo mantiene tanto para la parte software como hardware

Se preguntó por la diferencia de tiempo “lag” entre los códigos de VMware y su reflejo en VxRail… para parches son 4-5 días. Para código general lleva más tiempo y se alinea con las releases de código de la platforma, aunque se está trabajando para acelerar este último proceso para estar casi alineados con VMware.

Se habló también del VxRail manager, la herramienta general de gestión y trabajo de la plataforma, que se está intentando integrar mejor con el vCenter:

Luego se mencionó las opciones de protección de información que viene por defecto con VxRail. Y se pasó a ver que cargas no son apropiadas para VxRail: BBDD grandes, grandes despliegues de ficheros, HPC en nodos de calculo másivos o archivado de long-term (porque no sale a cuenta económicamente), pero se dejó muy claro que para todo lo demás es perfectamente válido, teniendo clientes con prácticamente cualquier carga de trabajo, y en el futuro hasta SAP HANA (cuando SAP lo permita).

Moviendonos a la capa de softwre se habló de:

  • Pivotal Ready Architecture, como arquitectura de referencia para que cada cliente se monte su Pivotal on premise o tire de servicios de Dell EMC para su despliegue.
  • Si lo que buscas es cómo montar tu plataforma SDDC sobre VxRail, tienes toda la información en la web de VMware: https://kb.vmware.com/s/article/54816

Hablando de las últimas novedades incorporadas se mencionó (primero SW y luego HW):

  • Los fixes para Meltdown y Spectre. Incluyendo pruebas de rendimiento para evitar un impacto de estos parches… en general el impacto es irrelevante y en picos de uso puede ser un máximo del 7%.
  • Se ha mejorado el API RESTful
  • Se ha iniciado la integración con el Open Manage Essentials de Dell.
  • Se han mejorado las opciones de crecimiento de los clusters (por ejemplo permitiendo nodos mixtos de generación 13 y 14G)
  • Mejoras en el soporte remoto estándar ESRS
  • Integración de la gestión de eventos con vCenter.
  • Se han mejorado las opciones de seguridad de los appliances. No se entró en detalle porque había una sesión dedicada a este aspecto.
  • NVME drives (800Gb para caché y 1.6Tb para almacenamiento), siempre en arquitecturas dual processor.
  • Conectividad 25Gb.
  • Se duplica la memoria disponible.
  • NVIDIA P40 GPUs

[Update]

Y aqui una actualización con todas las novedades de la última versión de VxRail de otras comunicaciones internas:

Features

  • NVMe Cache Drives: Future proof with NVMe 800GB and 1.6TB cache drive options for faster caching technology at 2X the caching tier capacity
  • 25GbE Connectivity: Most aggregate bandwidth of any other vendor’s appliance and 36% more network bandwidth and 25% more onboard throughput
  • High Memory Processors: Up to 2X more memory (3TB) using new high memory Intel Xeon processor options
  • NVIDIA P40 GPUs: 2x performance in graphics acceleration and 50% more users per board for scaling high performance virtual graphics and compute
  • Flash SATA Drives: With 30% lower cost per drive a good option for capacity intensive workloads
  • New Configuration and Ordering options:
    • From the 8th May VxRail will be available in the Dell ordering and configuration tolls across many of the countries with EMEA
    • Following the launch in the Dell tool set, there will be enablement training across EMEA on positioning, sizing and configuring within the Dell tools.

Dell EMC VxRack SDDC

Dell EMC VxRack SDDC system powered by VMware Cloud Foundation is a new class of hyper-converged integrated systems that provides the easiest path for a VMware multi cloud environment. This turnkey solution is fully engineered and takes advantage of market leading hardware and software technologies. It includes all the necessary compute, networking, and storage components to deliver a complete self-contained and optimized VMware private cloud experience. VxRack SDDC with VMware Cloud Foundation will simplify digital transformation and future proof your data center by removing the focus on maintaining infrastructure. Leveraging VxRack SDDC means you can now easily deliver a complete VMware SDDC at the speed your business requires. This new level of modern agility will be your competitive advantage by allowing you to provide services faster, deploy applications sooner, and reduce downtime

New Platform – Many new hardware options

  • VxRack SDDC now built with VxRail based on 14th Generation PowerEdge servers
  • 36 new fixed node configurations across R640/R740XD PowerEdge server platforms
  • Exclusive VxRack SDDC Automation and Serviceability Extensions capabilities
  • ESRS, Support 360 integration, physical node view, automated serviceability tasks support
  • Integration with SDDC Manager and SDDC Manager UI
  • MyQuotes Ordering
  • Dell EMC Supply Chain alignment with VxRail HW
  • Dell EMC Services/Support
  • Introduction of VxRack SDDC ESSM Support Matrix (no more RCM)

New VMware Cloud Foundation 2.3.x

  • vSphere 6.5
  • vSAN 6.6
  • NSX 6.3
  • Heterogeneous Server Support
  • Intel Xeon Scalable Processor family support
  • WLD Creation/Expansion Node type selection
  • Cloud Management Platform integration
    • vRealize Automation 7.3  Install
    • vRealize Operations 6.6  Install
  • Backup of Management Workload Domain UI integration
  • Offline Proxy LCM Support
  • External storage guidance
  • Data Protection Guidance

[/Update]

Una charla interesante de básicos y actualización de VxRail.


Cómo siempre a segunda hora tocó una charla general, bastante más prometedora que la media hasta ahora…

A las 10:00 arrancó la charla general “Technologies & Trends that are changing the world” con unos ponentes variados y muy interesantes: Jon Allison (nuestra nueva ejecutiva máxima de Marketing), Ashton Kutcher (actor, productor, amante de estrellas, emprendedor e inversor en IT), Ray O’Farrell (CTO de VMware y líder de nuestra organización de IoT) y Mr. John Roese nuestro CTO… variadito el elenco.

Arrancó Jon haciendo un repaso de las macro-tendencias con algunos ejemplos de empresas que están adoptando AI, VR, Blockchain etc. La oportunidad de estas iniciativas es gigantesca… y antes de ver la visión de nuestros CTOs se dió paso a Ashton Kutcher.

Él centro su charla en cómo gestionó sus inversiones en empresas de IT como Foursquare, Skype buscando plataformas que pudieran crear rapidament el network-effect del que tanto se habló en la charla de Guru de ayer martes. Uno de los puntos que mencionó fue la importancia de la pasión y el compromiso de los fundadores para poder seguir con una idea cuando la gente empiece a copiarla, cosa que según él es inevitable…

Algunos puntos de inversión que mencionó fueron sistemas de compartición de scooters, VR/AR aplicado al control de inventario y sobre todo inversiones de AI aplicados al sector de sanidad. Un caso increíble que mencionó es el diseño de dashbard sobre AI para detectar esclavos que están en USA… casí 80.000 han detectado tan solo en un año, basandonse en ciertos parametros de redes sociales (honestamente tengo que investigar más sobre esto para entenderlo del todo, empezaré por https://ind.pn/2JMZDEk )…

Cerro su charla hablando de un futuro optimista centrando en la economía de la felicidad dónde la mayor parte de a gente se centrará en ayudar al progreso del mundo.

Fue una charla interesante más sobre inversiones en start ups que en sí sobre las nuevas tendencias, interesante en cualquier caso.

Luego arrancó el CTO de VMware y líder de la iniciativa en IoT de Dell Technologies, hablando sobre la 4ª revolución industrial “Cyber Phisical” tras la del vapor, producción másiva y la de la informática. Está cuarta revolución es especial porque es la primera vez que la información digital “toca” el mundo físico, de eso se trata al hablar de IoT o de EDGE computing, moviendo el valor del proceso de información al “borde” dónde se encuentran los dispositivos que además de recoger información pueden interactuar con el mundo físico. Habló de tres ejemplos:

  • El sector de agricultura con la empresa ya mencionada de AeroFarms
  • Sanidad, con la capacidad de recibir información en tiempo real desde medidores de información en pacientes a dispositivos móviles de los médicos. Eso es el futuro de la sanidad.
  • Energía, hablando de plantas y el control de todos sus elementos en tiempo real.

Pero lo importante no es hablar de los 3 ejemplos previos, es hablar del siguiente paso, cuando todos esos verticales puedan interactuar simultaneamente: cuando sensores de una fábrica puedan mandar información al sector sanitario sobre el impacto en el aire, o accidentes que pueden tener un impacto en las Urgencias … o en la agricultura cercana que podrá tomar automáticamente medidas preventivas para evitar un desastre ecológico… eso es el siguiente paso de IoT.

Cerro su charla remarcando que la 4ª revolución industrial está pasando ahora, moviendo las cargas de IT al “edge” y debemos estar alerta a las cuestiones de seguridad derivadas.

La última parte la lidero John sobre AI. De nuevo arrancó indicando que AI está ahora, no es un tema de futuro: +50% de los clientes ya usan asistentes de voz, Google se ahora un 40% del coste de sus Datacenters por un sistema de AI, y el mercado de chips para AI será de $35B en 2021… los numeros responden la idea de John de que eso no va de futuro, va de presente.

También indicó cómo AI no está en nuestro alrededor sólo de una forma, sino que está en:

  • User Experience adaptada por AI:
    • Hablamos de asistentes digitales, robots industriales, casas inteligentes
    • Todo ello gracias a análisis de lenguaje natural, sensores visuales, AI predictiva.
    • La visibilidad de este tipo de AI es alta, es obvia para los usuarios.
  • Procesos gestionados por AI:
    • Hablamos de procesos optimizados, automatización de fabricas enteras, nuevas generaciones de negocios
    • Todo ello gracias a Data Analytics, soluciones como Tensorflow/Caffee, etc
    • La visibilidad es media, no es tan obvia como la anterior.
  • Infraestructura optimizada por AI:
    • Hablamos de control de coches autonomos, automatización de plataformas/clouds o el FAST en Powermax 🙂
    • Todo ello gracias a “feature design” o “technical support AIs”
    • La visilibilidad es casi inexistente, es casi transparente a nosotros…

La relación entre cómo de visible es una AI y como de extendida es es inversa! si sólo nos centramos en las primeras sobre user Experience estamos desperdiciendo parte del valor, porque:

  • User Experience se centra en mejorar la vida de los humanos.
  • Procesos se centra en mejorar el ROI.
  • Infraestructura optimizada se centra es ir más allá de los limites humanos!

Hizoz también un análisis interesante sobre como cada una de estas AI impacta en la generación y destrucción de puestos de trabajo.

Donde encaja DT en estas necesidades?

  1. Innovando en computo para mejorar el “motor” de la AI.
  2. Controlando todo el ciclo de vida de los datos, como “fuel” de la AI.
  3. Habilitando una plataforma multi-cloud para AI, que será el “cerebro” de la AI.

Este tío me encanta, si no hablará más rápido que el presentador de los Micro Machines sería perfecto.

Todo acabó con una entrevista entre todos bastante sosa…


Y de aqui corriendo a una reunión interna con nuestro CTO Todd Toles sobre el roadmap de PowerMax. No se puede poner nada de eso por escrito, pero el producto es la bomba! A partir de aqui mi día se complicó una barbaridad…


La reunión anterior casi se solapó con la charla que tenía agendada a las 12:00 sobre “Blockchain Challenges & Dell’s Solutions” que contó como ponentes con Steve Todd, Fellow de Dell Technologies y líder de las inicitaivas internas de Blockchain y con Mike DiPetrillo, VMware Senior Director de Blockchain. Los puntos fundamentales tratados fueron:

  • Evolución de Blockchain como almacenamiento fast-trusted . Arrancó Steve con una historia del almacenamiento desde los primeros sistas SCSI con 5 iops/segundo y como fue evolucionando aumentando la velocidad y luego reduciendola cuando se requería más seguridad… hasta llegar a BC que tiene el mayor nivel de seguridad … y también hace 5 iops/sec

  • Problemas en la industria con el despliegue de BC.
    • Latencia general de todas las transacciones.
    • Como de rapido pueden legar a consenso todos los nodos?
    • Como desplegar los smart-contracts de una forma segura?
    • Como integramos todos los segundos?

 

  • Cómo VMWare ha trabajando los últimos 4 años solucionando esos problemas:
    • Sobre como alcanzar consensus (proof of work en el caso de Bitcoin) y su impacto en el consumo de CPU. Otro modelo con menos consumo fue el proof-of-stake de Ethereus evolucionando a algortimos BFT (Byzantine Fault Tolerance) que no requiere casi de capital y con 4 nodos puede alcanzar el punto de consenso, es un algoritmo de voto (no requiere mineo).
    • También está trabajando en los modos de unirse a un entorno BC, de forma pública o privada, en está ultima se está centrando VMware.
    • La solución de VMware se diferencia en que:
      • Es SAAS pero permite nodos locales
      • Es MultiCloud distribuido.
      • Dispone de un entorno potente en UI, API y/o auditorias…
      • Al estar en el consorcio Hyperledger es un modelo multi-blockchain bajo un interfaz único.
      • Tiene soporte compleato para los contratos Ethereum.
    • ¿Por qué deberías atacar BC con VMware?
      • Al final BC es un problema de gestión distribuida … lo que lleva toda la vida haciendo VMware
      • Dispone de un gran ecosistemas de partners para entornos cloud = nodos potenciales
      • Dispone de especialistas en consensus.

  • Como se integra esto con las plataformas actuales?:
    • Steve explicó 11 problemas que tiene BC como concepto, y como diferentes solutions de Dell Technologies lo pueden solucionar. Fue imposible ponerlo por escrito así que muestro la slide final al respecto.

Me tuve que ir en la parte de preguntas de la charla para poder pasar a una reunión interna… no estuvo mal la charla pero esperaba un poco más la verdad, cosas de expectativas.


A las 13:00 arrancó una reunion de los CTO Ambassadors con John Rose, nuestro CTO. Lista de ideas generales de la charla que me dió tiempo a tomar, porque es el hombre más rápido hablando que he visto en mi vida:

  • Con la llegada de J. Clarke se ha reestructurado a mejor toda la función de la oficina del CTO y ahora se basa en 3 equipos:
    • Uno de ellos se encarga no de ver las nuevas tendencias en IT, sino en ver cuales serán esas tendencias en el largo plazo. Crear un pipeline de las nuevas tecnologías que regirán el mundo es un imperativo directamente de M. Dell para marcar la dirección estratégica no sólo de Dell EMC sin de Dell Technologies. El objetivo final que deberíamos tener los CTO Ambassadors es una lista de TOP 10 tecnología a tener en nuestro radar y poder preveer como impactarán en nuestro portfolio.
    • El segundo equipo trata de realizar algo parecido pero viendo como los mercados / usuarios consumen la tecnología, La idea es crear una pileline de ecosistemas que expliquen nuevos usos de la tecnología en nuevos mercados, generando tambien un TOP de casos de uso.
    • El tercer grupo es el encargado de influenciar, alinear y diseñar el roadmap de productos para cubrir las necesidades detectadas en los dos grupos anteriores sobre todo el portfolio de Dell Technologies.
  • Toda esta innovaciòn al final será “accionable” dependiendo del tamaño del mercado x posibilidades tecnológicas de poderse llevar a cabo x las posibilidades que los recursos nos den.
  • El impacto que esto tiene en los trabajadores de Dell EMC es también que los roadmaps serán más restrictivos en tiempo (de 18 meses a 12) y en acceso; pero por contra serán mucho más fiables y robustos.
  • SI, hay proesos de racionalización de productos, cosa no dificil teniando ahora más de 80 lineas de productos (lineas, no productos en si que son muchos más). La idea es permitir evolucionar a nuestros clientes hacia el futuro consolidando el portfolio para aumentar la innovación.
  • La relación de trabajo con VMware nunca ha sido mejor, compartimos modelos de negocio, código de producto y dentro de poco incluso productos en si!
  • Derivado de algunos puntos anteriores, calidad calidad calidad, ahora nuestros productos son rocas de estabilidad.
  • Tenemos una estrategia clara de Cloun, una visión basada en 6 puntos, lo que pude pillar fue:
    • Cloud management, hacer nuestras soluciones tan sencillas de gestionar como una Cloud publica.
    • Productos que funcionan en SaaS como Cloud IQ y que no tiene sentido desarrollar varias veces, son cross-platforms.
    • Una visión clara de como mover cargas hacia y desde la nube, y que será compartida por todas las plataformas.
    • Interacción con Public Cloud Applications como pueden ser nuestras versiones de productos VE y con Clod Native Applications, de nuevo cuño y preparadas para gestionar nuevas cargas e trabajo.
    • Cloud pay model. Creo que queda claro.
    • ….. maldita sea que rápido hablaba este tio…

Un ejemplo de todo este modelo de innovación se empieza a ver en los productos de nueva cuña, como Powermax, los cortos de miras (como algún competidor) sólo ven un VMAX más rápido, pero la idea subyacente es que todas esas nuevas tendencias de las que hablamos como AI, IoT, ML, etc van a acabar generando aplicaciones críticas que requieren de un High End preparado no sólo para la innovaciòn actual (NVMe) sino para el futuro como Storage Class Memories etc… estamos diseñando productos preparados para funcionalidades que aún ni existen!

En general una charla terriblemente interesante y que pronto tendrá efecto en los contenidos que recibamos de la oficina del CTO… tiempo bien empleado.

Lamentablemente la charla se alargó y me perdí la que tenía agendada de “Advancement in Blockchain developments” que era continuación de la de las 12:00 y se centraba en una demo de un smart contract sobre plataforma VMware… lástima no poder estar en 2 sitios a la vez.


Por suerte llegé a tiempo a la última charla del día, del tipo GURU (lo mejor hasta ahora) llamada “The innovators: How a group of inventors, hackers geniuses & geeks created the digital revolution” que impartió el insigne Walter Isaacson.

El autor de la gran biografía de Steve Jobs y el super libro sobre “Innovadores” habló sobre los grandes innovadores de la historia como Leonardo Da Vinci, poniendole como la intersección entre las ciencias, el arte y la creatividad/innovación y buscando un patrón en el mundo entre todas estas líneas de conocimiento. Habló de Benjamin Franklin y su afición  saber de todo lo que podía, botánica, zoología, etc buscando un patrón común en la naturaleza. Ada Lovelace que fue capaz de codificar esos patrones para ser ejecutados por máquinas, dando lugar al nacimiento de la informática… en el paper dónde describía prácticamente el futuro de una computadora, y decía que este tipo de máquinas podrían hacer lo que fuera excepto pensar, en el aspecto de tener imaginación o creatividad. Alan Turing vino después a describir pruebas para saber si una máquina podría pensar o no, su famoso “Turing Test”.

Walter predijó un futuro optimista de colaboración entre humanos y máquinas. Sobre todo de conjuntos de personas (esa crowd de la que se habló también ayer en la charla de Guru). De hecho destacó inventos modernos como el microchip, internet etc y como pese a tener nombres de “inventores” realmente fueron esfuerzos colectivos de varias personas, entidades y empresas alrededor de la misma ida.

Innovation is a collaborative effort as creativity

Cerró su charla (55 minutos sin slides) reflexionando si el futuro de tendencias como la AI era crear máquinas piensen por nosotros (y SIN nosotros) o máquinas que nos ayuden a ser más creativos y aumenten nuestra innovación. También ligado a ideas de la charla de ayer.

 

En este momento se me murió la batería del portátil y no pude tomar más notas sobre las preguntas y respuestas que como ayer fueron muy buenas.

La charla no fue la más divertida de todas, pero aún así fue interesante, un final decente para la saga de charlas guru, que en general han sido lo mejor del evento.


Y con esto acaba el tercer día, previo a la fiesta final de evento (aunque mañana hay charlas) con el concierto de Sting!

 

Trackbacks y pingbacks:

  1. El bueno, el feo y el malo (DTW 2018) « Se me pasa por la cabeza… - mayo 7, 2018

    […] Día 3 […]

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

w

Conectando a %s