Archivos para Noticias IT

Relacionado con noticias en el sector de IT

[Disclaimer: todas estas notas son personales, bajo mi libre interpretación y en ningún caso es un resumen oficial de Dell EMC o similar. Las notas las fui tomando durante las charlas, si he metido la pata de alguna forma… pues es lo que hay :-). El día anterior no sólo se agotó la batería del portátil sino que mi cargador murió, si no es por un compañero (mil gracias de nuevo Edorta) me quedo sin portátil hasta el lunes. Lo pude recuperar pero hasta el final de las charlas no pudé cargar el portátil, por lo que tomé las notas a mano y muchas fotos, a ver como queda la trascripción]

 

Para celebrar el último día del DTW 2018, de nuevo a las 8:30 arrancamos con una charla sobre “Understunding The CNCF Cloud Native Landscape: It’s more Than just Kubernates“. Charla muy interesante que empezó con poca gente y se fue llenando poco a poco (la hora era horrorosa).

El objetivo de la Cloud Native Computing Foundation es extraer el valor de toda la forma de operar de los “unicornios” de Internet y hacerlo disponible de una forma razonable a cualquier empresa. Una pregunta interesante con la que arrancó la charla fue el porqué si las CNA son tan maravillosas como todos decimos, no las adoptan de forma másiva todos las empresas, y la respuesta es básicamente porque desarrollar una CNA también es complejo.

 

Hay algunos problemas sobre está complejidad ya resueltos como la portabilidad de aplicaciones solucionada con dockers. Está complejidad viene de que las CNA requieren herramientas y telemetría para añadir automatización a la operativa “clud” de la aplicación.

Si pensamos en una Cloud Native Application, el gráfico inferior (que en la presentación “trocearon” en varias slides) indica los pasos a dar del más básico al complejo:

  1. Aislar y hacer portable la aplicación (conteinarizarla).
  2. Automatizar la integración en su integración y despliegue (CI-CD).
  3. Gestionar el ingente numero de instancias* que puede haber de contenedores (eso es Kubernates, el único proyecto del CNCF en estado “grduado”, el resto están en estado  de incubación).
  4. Una vez las instancias de contenedores están orquestadas, es necesario analizar como se comportan y controlar sus logs (monitoring-tracing).
  5. Y luego permitir que los servicios de los contenedores hablen entre ellos con funciones de automáticación de red (el nº 6 en la imágen).
  6. Y con gestores de servicios para el regitro y descubrimiento de los mismos (el nº 5 de la imágen).
  7. Luego podemos añadir Bases de datos para la gestión de información persistente. Una puntualización interesante que hizo el ponente en este punto es que si no tienes claro que tipo de base de datos usar (relacional o de tipo no sql) adoptes la tradicional, dado que la forma de entender la persistencia de información es más sencilla en un entorno ACID que en una base de datos de otros tipicos…
  8. y cuando la arquiectura crece, necesitaremos gestión de colas de mensajes.
  9. Ya por último podemos automatizar el runtime.
  10. Y como paso un tanto “experiamental” aún, el despliegue de software. Este punto es curioso y trata de asegurar en modo “notario” que los requisitos de un container que has pedido son los que te han dado, y de forma análoga que el código que espera ejecutar el contenedor es el adecuado. A título personal me pregunto cuanto tardará Blockchain en meterse en esta discusión.

Cómo se ve en el gráfico de la CNCF, la fundación tiene proyectos para todos los pasos, varios en algunos puntos. Se puede ver un gráfico bastante intuitivo e interactivo sobre los diferentes paquetes, uso y grado de desarrollo en: https://landscape.cncf.io/

Contínuo la charla explicando paso a paso cómo se iría constuyendo una CNA con las soluciones de CNCF:

  1. Creando un container en formato estándar OCI desde el sistema de control de versiones que cada uno uso (SVC) que corre en un SSOO.
    • Ese container tiene:
      • Una definición del sistema de ficheros.
      • Los límites de consumo de CPU, RAM, etc.
      • El namespace de procesos que puede ejecutar.
      • La configuració de puertos, entorno, links … y también iría aqui la definición de volumenes a usar.
      • Por último el comando de inicio.
  2. A esto se le añade un Runtime de containers que lea la imágen antes generada. Además este runtime puede correr en varios entornos (cada un con su OS).
  3. Luego se añade el coordinador de containers que va a hacer de plataformaKubernates.
  4. Cómo cada contenedor puede ser requerido o requerir de otros servicios que no conoce, hay que añadir un servicio de registros.
  5. Y cómo entre todos ellos pueden comunicarse, hay que añadir un servicio de comunicación.
  6. Para poder actuar sobre algo y mejorarlo, hay que medirlo (por cierto esto lo dijo Ashton Kutcher ayer en su charla), así que añadimos un servicio de métrica, gestión de trazas etc.
  7. Y por si nececesitamos persistencia de datos una BBDD adaptada al mundo de los Contedores.

Después la charla paso a versar sobre cómo se crea una plataforma. ¿Por qué una plataforma? porque (como se comentó en una charla posterior) los desarrolladores y operadores (DevOps) no quieren tener que pegarse con la integración de diferentes soluciones puntuales, por lo menos en el mundo de negocios genéricos (los Unicornios y demás empresas de ese pelo puede que si mientras le de una ventaja competitiva)…

Un caso particular dentro de la plataforma de Dell Technologies es BOSCH. Uno de los valores diferencias de Pivotal Cloud Foundry, que se encarga de toda la gestión del IaaS que no es objetivo clave de CNCF u otros proyectos similares, dado que cuentan con abstraerse de lo que hay debajo o directamente asumen correr sobre alguna Cloud publica tipo Hyperscaler (Amazon, Azure o Google Cloud platform).

Acabó la charla, cómo no podía ser de otra forma, con una demo, centrada en JAEGER el sistema de control de trazas de micrcoservicios de la CNCF. Muy espectacular la verdad y demuestró por un lado la complejidad derivada de una CNA “dummy” y como de necesarias son las diferentes piezas de CNCF para gestionar el entorno. Además sobre el ejemplo fue análizando los logs del sistema evaluando potenciales problemas/mejoras de la app…. muy útil la verdad.

(*) Sobre el numero de instancias, en otra charla posterior se mencionó que mientras sobre un servidor con catacterísticas genéricas se podrían correr hasta unas pocas cientos de maquinas virtuales, el numero podría ser de varios miles en el mundo de los contenedores… de ahí su éxito y también la complejidad en el manejo de instancias, que es exponencial incluso respecto al de máquinas virtuales.

Cómo nota final, al margen de la charla: vobre la parte de persistencia de Kubernates, hubo una presentación muy buena a la que no pude asistir, pero el contenido está aqui para descargar: link a pdf.


Después vino la charla técnica más interesante de todo el evento… Continuar leyendo…

[Disclaimer: todas estas notas son personales, bajo mi libre interpretación y en ningún caso es un resumen oficial de Dell EMC o similar. Las notas las fui tomando durante las charlas, si he metido la pata de alguna forma… pues es lo que hay 🙂]

De nuevo a las 8:30 arrancamos con una charla sobre “VxRaill powered by vSAN: Overview & What’s new with the hottest HCI appliance for vSphere environments“. Petada la sala con gente de pie al fondo, buena señal del éxito del producto.

Se empezó haciendo un repaso del mercacdo de HCI y como en teoría está impulsado por las grandes cuentas y medio-grande. También se desmitificó el uso de esas plataformas, indicando que el 47% de los clientes actuales lo están usando ya como infraestructura principal, y un 45% para cargas de trabajo hibridas. Ya no más lo de una isla para VDI.

VxRail tiene ahora más de 2.500 clientes con más de 20.000 nodos vendidos (300.000 cores y varios cientos de PB de almacenamiento).

El valor de la plataforma se basa en que permite un 70% mayor de velocidad en despliegue gracias a los 200 pasos automatizados para trabajar con la plataforma y una reducción de costes del 42% viendo end-to-end los costes totales de gestión y mantenimiento.

Luego se discutió lo que llevaba un VxRail y temas de licenciamiento, sobre todo que tipo de licencias pueden desplegarse con la plataforma cuando traes las tuyas propias. Básicamente si no es una Essential y la has comprado de Dell EMC / VMware, cualquier cosa es aceptable. Más detalles en la imágen abajo:

 

Hablando de los modelos 14G ahora mismo disponemos de:

  • E560/F como configuración minima.
  • V570/F para VDI
  • P570/F para alto rendimiento
  • S570 para almacenamiento denso.

Seguimos teniendo soluciones con modelos anteriores de 14G pero no se trato en la charla, está clara la apuesta de futuro.

Con las combinaciones de procesadores (sólo 38 opciones), RAM, almacenamiento, conectividad, GPU y hasta power supplies se acaba viendo que con VxRail puedes tener cualquier combinación…

Hablando sobre como escalar, el sistema permite arrancar pequeñ e ir creciendo scale up y scale out, aunque con algunas limitaciones como algunos cambios de arquitectura de procesadores.

Uno de los valores fundamentales de todas nuestras soluciones convergentes e hiperconvergentes simplificar el ciclo de vida de updates es un valor diferencial, y VxRail lo mantiene tanto para la parte software como hardware

Se preguntó por la diferencia de tiempo “lag” entre los códigos de VMware y su reflejo en VxRail… para parches son 4-5 días. Para código general lleva más tiempo y se alinea con las releases de código de la platforma, aunque se está trabajando para acelerar este último proceso para estar casi alineados con VMware.

Se habló también del VxRail manager, la herramienta general de gestión y trabajo de la plataforma, que se está intentando integrar mejor con el vCenter:

Luego se mencionó las opciones de protección de información que viene por defecto con VxRail. Y se pasó a ver que cargas no son apropiadas para VxRail: BBDD grandes, grandes despliegues de ficheros, HPC en nodos de calculo másivos o archivado de long-term (porque no sale a cuenta económicamente), pero se dejó muy claro que para todo lo demás es perfectamente válido, teniendo clientes con prácticamente cualquier carga de trabajo, y en el futuro hasta SAP HANA (cuando SAP lo permita).

Moviendonos a la capa de softwre se habló de:

  • Pivotal Ready Architecture, como arquitectura de referencia para que cada cliente se monte su Pivotal on premise o tire de servicios de Dell EMC para su despliegue.
  • Si lo que buscas es cómo montar tu plataforma SDDC sobre VxRail, tienes toda la información en la web de VMware: https://kb.vmware.com/s/article/54816

Hablando de las últimas novedades incorporadas se mencionó (primero SW y luego HW):

  • Los fixes para Meltdown y Spectre. Incluyendo pruebas de rendimiento para evitar un impacto de estos parches… en general el impacto es irrelevante y en picos de uso puede ser un máximo del 7%.
  • Se ha mejorado el API RESTful
  • Se ha iniciado la integración con el Open Manage Essentials de Dell.
  • Se han mejorado las opciones de crecimiento de los clusters (por ejemplo permitiendo nodos mixtos de generación 13 y 14G)
  • Mejoras en el soporte remoto estándar ESRS
  • Integración de la gestión de eventos con vCenter.
  • Se han mejorado las opciones de seguridad de los appliances. No se entró en detalle porque había una sesión dedicada a este aspecto.
  • NVME drives (800Gb para caché y 1.6Tb para almacenamiento), siempre en arquitecturas dual processor.
  • Conectividad 25Gb.
  • Se duplica la memoria disponible.
  • NVIDIA P40 GPUs

[Update]

Y aqui una actualización con todas las novedades de la última versión de VxRail de otras comunicaciones internas:

Features

  • NVMe Cache Drives: Future proof with NVMe 800GB and 1.6TB cache drive options for faster caching technology at 2X the caching tier capacity
  • 25GbE Connectivity: Most aggregate bandwidth of any other vendor’s appliance and 36% more network bandwidth and 25% more onboard throughput
  • High Memory Processors: Up to 2X more memory (3TB) using new high memory Intel Xeon processor options
  • NVIDIA P40 GPUs: 2x performance in graphics acceleration and 50% more users per board for scaling high performance virtual graphics and compute
  • Flash SATA Drives: With 30% lower cost per drive a good option for capacity intensive workloads
  • New Configuration and Ordering options:
    • From the 8th May VxRail will be available in the Dell ordering and configuration tolls across many of the countries with EMEA
    • Following the launch in the Dell tool set, there will be enablement training across EMEA on positioning, sizing and configuring within the Dell tools.

Dell EMC VxRack SDDC

Dell EMC VxRack SDDC system powered by VMware Cloud Foundation is a new class of hyper-converged integrated systems that provides the easiest path for a VMware multi cloud environment. This turnkey solution is fully engineered and takes advantage of market leading hardware and software technologies. It includes all the necessary compute, networking, and storage components to deliver a complete self-contained and optimized VMware private cloud experience. VxRack SDDC with VMware Cloud Foundation will simplify digital transformation and future proof your data center by removing the focus on maintaining infrastructure. Leveraging VxRack SDDC means you can now easily deliver a complete VMware SDDC at the speed your business requires. This new level of modern agility will be your competitive advantage by allowing you to provide services faster, deploy applications sooner, and reduce downtime

New Platform – Many new hardware options

  • VxRack SDDC now built with VxRail based on 14th Generation PowerEdge servers
  • 36 new fixed node configurations across R640/R740XD PowerEdge server platforms
  • Exclusive VxRack SDDC Automation and Serviceability Extensions capabilities
  • ESRS, Support 360 integration, physical node view, automated serviceability tasks support
  • Integration with SDDC Manager and SDDC Manager UI
  • MyQuotes Ordering
  • Dell EMC Supply Chain alignment with VxRail HW
  • Dell EMC Services/Support
  • Introduction of VxRack SDDC ESSM Support Matrix (no more RCM)

New VMware Cloud Foundation 2.3.x

  • vSphere 6.5
  • vSAN 6.6
  • NSX 6.3
  • Heterogeneous Server Support
  • Intel Xeon Scalable Processor family support
  • WLD Creation/Expansion Node type selection
  • Cloud Management Platform integration
    • vRealize Automation 7.3  Install
    • vRealize Operations 6.6  Install
  • Backup of Management Workload Domain UI integration
  • Offline Proxy LCM Support
  • External storage guidance
  • Data Protection Guidance

[/Update]

Una charla interesante de básicos y actualización de VxRail.


Cómo siempre a segunda hora tocó una charla general, bastante más prometedora que la media hasta ahora…

Continuar leyendo…

[Disclaimer: todas estas notas son personales, bajo mi libre interpretación y en ningún caso es un resumen oficial de Dell EMC o similar. Las notas las fui tomando durante las charlas, si he metido la pata de alguna forma… pues es lo que hay 🙂]

Arrancamos de nuevo el segundo día del DTW 2018 a las 8:30, con una charla de Aharon Blitzer y Marco Abela, del equipo de product management de XtremIO2, el título fue “XtremIO2 Native Replication: Use Cases Architecture & Best practices“. Un poco de storage, en el día de los anuncios, nunca viene mal.

La charla obviamente se centró en las capacidades de replica de X2 (quien lo diría con el titulo) y su relación con una copia de datos cualquiera, que X2 gestiona mejor que casi cualquier otra plataforma bajo el concepto de iCDM (intelligent copy data management).

Por supuesto se destacó uno de los problemas actuales de réplica: todo se copia por la red consumiendo recursos de ambos arrays y de la línea. La solución de X2 es replicar únicamente la información nueva en ambos sites, ya deduplicados en orígen como siempre hace X2. Los ahorros van en cascada si vamos a arquitecturas de 4:1 (fan in) como permite X2.

Entrando un poco en detalles técnicos se lanzaron a explicar el CAS (Content AWARE Storage … no confundir con otro CAS de Dell EMC centrado en Centera y ECS), XVC (XtremIO Virtual Copies) y otros elementos de la arquitectura de XtremIO que si no conocéis os ánimo a que investigueis, desde un punto de vista de I&D es un producto increíble.

Cómo hace entonces X2 para mandar únicamente los cambios? bueno el sistema:

  • Hace un snap y lo manda para inicializar el Array 1 al 2. Una vez eliminados los duplicados, por supuesto.
  • Dependiendo del RPO (el mínimo son 30 segundos) se lanza otro snap en Array 1 y tras un snap diff se mandan las diferencias no duplicadas al array 2.
  • En Array 2 se crea un point of time con el nuevo diff recibido.
  • Alguien dijo Recoverpoint? … pues si, funciona muy similar con las ventajas de como se sabe los snaps en XtremIO son automáticos y sin ningún tipo de impacto en consumo de almacenamiento o rendimiento en los array.

Obviamente las ventajas ante una caída de sistema es que la recuperación básicamente consiste en montar un snap en el site destino, que es algo que lleva pocos segundos en XtremIO2.

Las ventajas de este tipo de réplica respecto a otros sistemas es:

  • El ahorro en consumos porque se envían sólo los cambios.
  • Velocidad en los procesos al poder aprovechcar funcionalidades de X2 como write folding.
  • La deduplicación es global para toda la arquiectura. Piensa en varios X2 haciendo réplica sobre un entorno central, que hace dedup global sobre TODOS los nodos que replican contra él. Los ahorros pueden ser brutales.
  • y después de todas esas eficiencia, la compresión…

La sesión fue a toda leche para centrarse en una demo para mostrar lo jod***ente sencilla que es de gestionar y configurar.

El tío que hizo la demo sabía mucho, pero se notaba que no estaba comodo hablando para una audiencia grande. De todos modos para mostrar la sencillez de las nuevas opciones del interfaz de X2 no se necesitaba mucho, en una sola pantalla se ve la configuración, funcionamiento, rendimiento etc.También un gráfico con la topología de las máquinas en el entorno de protección, que nunca viene mal para saber dónde tienes problemas.

Luego obviamente podemos indicar detalles como RPO, tiempo de retención basado en 3 politicas de tiempo (corto-medio-largo) etc y estás políticas de retención pueden ser diferentes en orígen y destino. Es literalmente un wizard de 5 pasos. Más sencillo imposible.

Se cerró la charla hablando del ecosistema de aplicaciones con las funcionalidades de replica cómo VMware SRM o Appsync:

 

 

Y también mostraron unas cuantas estadísticas de anchos de banda alzanzados con tiempos de respuesta correspondientes a entornos intra y extra continentales, mostrando para entornos 1:1 y para entornos de réplica 4:1. Para 1.1 se manteía casi fijo un rendimiento de 1,7GB/s y para entornos 4:1 pasaba de los 7GB, bajando ligeramente en entornos extra continentales.

Por cierto, todo esto está disponible este jueves.

Si quieres algo más detallado, mejor leer el Blog del CTO de XtremIO un contenido similar pero más en profundidad y con mejores imágenes:

XIOS 6.1 – Introduction to XtremIO Native Replication

Fue una charla algo técnica e interesante, pero nada nuevo para empleados al día de X2 (de lo poco en lo que yo estoy al día últimamente).

nota final: deberíamos prohibir poner slides con cables en las charlas con clientes, menos aún como cierre de una charla en un evento general como el DTW2018.


Lo interesante vino en la siguiente charla Continuar leyendo…

Ya estamos por Las Vegas los asistentes al Dell Technolgies World del 2018, antiguo Dell EMC World.

Son 4 días repletos de charlas (más de 24 en mi agenda), reuniones de clientes con ejecutivos y momento de lanzar los anuncios más importantes sobre nuevos productos de la empresa (esto sobre todo pasaré el Martes en la charla de Jeff Clarke).

Intentaré hacer en los próximos días post cortos sobre las novedades de lo que vea.

 

Make it Real!

Si quieres más información: https://www.delltechnologiesworld.com/index.htm

Ya hablé hace tiempo de porno en este Blog, curiosamente una de las entradas con más lecturas el año pasado 🙂

Y toca volver a hacerlo, porque de nuevo una de las webs más seguidas en este ámbito tan exitoso de internet pornhub publica el análisis del tráfico de su web. No es objetivo de este post analizar las novedades del informe del 2017, que para eso otros medios más generalistas han heho un gran trabajo, lo podéis leer en este enlace o incluso leerlo directamente en la fuente original (NSWF). Únicamente mencionar que me ha dejado un poco descolocado la de búsquedas que hubo el año pasado en esta web de porgnografía sobre “spinners“… para gustos colores…

La idea de este post es analizar un poco más el análisis histórico que ha realizado la mencionada web sobre sus últimos 10 años. Podéis también leer la fuente origina en este link (NSFW) o seguir leyendo tras esta bonita infografía.

Continuar leyendo…

La semana pasada repasaba las predicciones del 2017 y veía como de acertadas habían estado, sacaba un aprobado raspado pero es más de lo que saqué con la lotería, así que acabé el año feliz.

Ahora toca lanzar las predicciones sobre las grandes tendencias que explotarán y marcarán la agenda digital del 2018…

Vamos a por ellas. Continuar leyendo…

Justo antes del parón veraniego, hablemos un poco de productos de almacenamiento, y de la última novedad que mi unidad de negocio anunció en el ya lejano Dell EMC World: XtremIO 2 o X2 para los amigos.

La nueva plataforma All Flash sigue con las funcionalidades que le hicieron líder del mercado hace un par de años: deduplicación inline, compresión (muy mejorada en esta versión), y simplicidad en su gestión. Todo ello basado en una arquitectura scale-out, que garantiza el crecimiento basado en nodos (“xbricks”) de modo que la CPU o memoria nunca sean un cuello de botella del rendimiento del Flash.

Pero la nueva versión también vienen a añadir funcionalidades pedidas por nuestros clientes y partners como:

  • Crecimiento scale-up dentro de cada nodo, de forma que se pueda empezar con un nº pequeño de discos en uno o varios nodos, y crecer de forma asimétrica en cada nodo en función de las necesidades, pudiendo siempre crecer en discos / memoria y CPU en función de las necesidades del cliente.
  • Réplica integrada. Con XtremIO en el pasado las soluciones de réplica pasaban por RecoverPoint o VPLEX, en breve X2 dispondrá de su propia solución integrada de réplica.
  • Tipología de discos. Obviamente la nueva plataforma dispondrá de nuevos discos / tamaños en SSD para adaptarse a las últimas mejoras en este aspecto.
  • Refresco tecnológico. Del mismo modo que se han actualizado los discos SSD disponibles, se ha mejorado la cantidad/calidad de RAM y la tipología de CPUs empleada.
  • NVRAM: y por último, se ha sustituido el modelo de protección de la cabina por batería por un sistema basado en NVRAM, lo que a su vez a supuesto una increíble simplificación del cableado y por lo tanto de su mantemiento.

En general, grandres mejoras en rendimiento, optimización del espacio y potencia del sistema, así cómo en la economía de escala de X2 respecto a cualquier otra plataforma en el mercado, sin lugar a dudas una Killer – Machine!

Y aqui abajo un porrón de links para profundizar en la explicación tecnológica del producto, de la mano del CTO de XtremIO @itzikr 

En especial recomiendo mirar la nº4: “DellEMC XtremIO Integrated Copy Data Management (iCDM) … ” para veer en directo las grandes ventajas que incorpora X2 en la gestión de las copias de información.

Continuar leyendo…

El año pasado se publicó un post muy interesante sobre el efecto de las nubes públicas en el software libre.

El link original es este: http://iguaz.io/2016/12/02/did-amazon-just-kill-open-source/

Desde luego el títulos “Amazon mata al software libre (Open Source) es cuanto menos llamativo, pero más allá de títulares explosivos, el contenido esta muy bien justificado.

El post se escribió tras el evento de Amazon del re:invent y explicaba el despliegue de podería de Amazon “AWS announced many more products, all fully integrated and simple to use and if you thought infrastructure companies are its competition, think again. The new Amazon offering competes with established database vendors, the open-source big data eco-system and container eco-system, security software and even developer and APM tools

Y luego pasa a destacar el que si bien Amazon es un gran usuario del software Open Source, prima siempre la integración y usabilidad del software que propone por encima de otros proyectos paralelos del mundo Open Source.

Parece que la estrategia de Amazon es usar Open Source y encapsularlo en su modelo de soluciones simplificadas y paquetizadas, con el consiguiente riesgo de que las nuevas APIs de Amazon se conviertan en estándares de facto y anclando a la industria a un entorno propietario.

El fin último del post, muy acertado desde mi punto de vista, es dar un toque de atención al sector Open Source para que:

  • Eliminen redundancias en los productos que se ofrecen desde la comunidad.
  • Se centren más en la usabilidad de dichos productos. En hacer el producto final más sencillo de consumir.
  • Se simplique la integración de todos estos productos para poder crear un ecosistema de soluciones más completo y sencillo de desplegar.

Por supuesto, todas estas recomendaciones son críticables desde el punto de vista de libertad que se busca con el mundo del Sw. Open Source, como siempre la virtud estará en el punto intermedio, una racionalización (más que unificación) de soluciones, y una simplificación en la usabilidad e integración (que puede pasar por unificar APIs sencillas de integración).

Veremos como se desarrollan ambos mundos, el de los Cloud Players (Amazon, Azure etc) y el mundo Open Source.

 

Quizás el término “bullshit” suena mejor en castellano que por su traducción literal, pero viene siendo el mismo concepto. Tonterías que dicen competidores o medios de comunicación desinformados atacando o criticando algo sin sentido.

En los último años la competencia en el mundo de Flash se ha recrudecido de forma dramática, ha pasado de un modelo de trabajo en el que se criticaban carencias de productos o soluciones a directamente mentir obviando elementos de verdad o engañar a clientes.

Un ejemplo llamativo de finales del año pasado es este mail recibido por clientes en Estados Unidos:

 

From: M.S. [Someone from a “K” company]
Sent: Tuesday, November 29, 2016

To:
Subject: Please don’t f*ck up your storage strategy

Dear XXX,

Its not a secret that Dell/EMC is moving away from XtremIO all-flash and in the midst of a massive consolidation exercise for the rest of its portfolio.  If you are looking at alternative all-flash strategies, I’d love to take the opportunity to talk to you about what XXXXXXX can do for you.

Successful businesses are built on storage strategies that put cost-efficient reliability above all else.  You shouldn’t need to cross your fingers and hope that the foundation of your data center will always work. “Link to document!”

If you are open, I’d love to set a short call where we will prove to you that XXXX can lower your overall TCO by 50% while delivering the enterprise-class availability your business needs.

I appreciate you are busy and your time is valuable.  If you can meet before the end of December, I can throw in a $50 gift card.   Let me know a good time to connect.

Thanks.

Regards,

M.W.S.

Inside Sales Representative

Mentira. Punto.

Continuar leyendo…

Y si hace poco daba un vistazo al acierto (o no) de las predicciones del año pasado, hoy toca mirar al año que empieza y lanzar las nuevas predicciones.

Vaya por delante que soy nefasto viendo tendencias “ocultas” que pueden tener gran impacto en IT. Aún recuerdo que la primera vez que vi un iPod comenté en voz alta que eso era el fin de Apple como empresa 🙂

Comencemos con lo que si creo que va a ser un éxito en 2017:

  • IoT … venga que 2017 si es el año definitivo. Comentaba Ed Whalsh, de la oficina del CTO de mi empresa (@vEddieW) en su blog que el IoT es la nueva carrera para encontrar la mina de oro en el sector de IT. Poco a poco se va metiendo en entornos de hogar (luces y sensores para controlar la casa, asistentes digitales etc) en 2017 será el auge en el sector industrial, so pena de quedar relegados en la carrera competitiva con otros paises. Un punto interesante será ver si se produce una estandarización de protocolos y transmisión de información, y por supuesto el tema de la seguridad que tantos quebraderos de cabeza ya ha ocasionado en 2016.
  • Inteligencia Artificial. Este año que empieza será el de la extensión de sistemas de inteligencia artificial en elementos de consumo másivo. Los asistentes digitales inteligentes empezarán a relacionarse masivamente con esos elementos de IoT que mencionaba en el punto anterior, y tanto a nivel personal (en el hogar) como a nivel profesional, las capacidades de inteligencia artificial se empezarán a hacer notar.
  • Big Data. Está claro que Big Data ya no es una tendencia de futuro, sino una realidad. Pero también que en algunos aspectos sociales aún tiene recorrido de mejora (ver las grandes elecciones del 2016 y sus predicciones). Este año 2017 el Big Data junto con las mejoras antes mencionadas en IA empezará a permitir análisis sociológicos más fiables, y convertirse en esa “bola de cristal” que tanto se ha pregonado.

Y me la voy a jugar a un par de contra-predicciones, algo que creo que no acabará de despegar en 2017 a pesar de muchas predicciones favorables en otros medios: Realidad aumentada y/o blockchain. Creo que ambos conceptos no despegarán como Gartner y otros predicen. La Realidad Aumentada como mucho se circunscribirá únicamente al mundo de los videojuegos, y no de forma masiva, y BlockChain seguirá sin tranformar de la forma disruptiva que muchos predicen, el mercado financiero. Tengo 11 meses para que todo el mundo se ría de mi por estas predicciones…

Y ahora un poco lo mismo, pero sobre mi puesto de trabajo…

Continuar leyendo…