#AzureFundamentals 2020 | Fundamentos de Cosmos DB con Matías Quaranta
Summary
TLDRLa transcripción proporcionada es una sesión informativa enfocada en la plataforma de base de datos de Microsoft Azure, Cosmos DB. El contenido cubre una amplia gama de características y capacidades de Cosmos DB, destacando su soporte para múltiples modelos de datos, su escalabilidad dinámica y su alta disponibilidad. Se discuten temas clave como la distribución de datos, la selección de claves de partición, y el manejo de transacciones. Además, se explora la compatibilidad con diferentes protocolos y la importancia de la seguridad y el monitoreo en un entorno de bases de datos. Se ofrecen consejos prácticos para los desarrolladores que buscan integrar Cosmos DB en sus proyectos, incluyendo la utilización de emuladores para pruebas locales y la evaluación de costos a través de herramientas en línea. La sesión también destaca las opciones gratuitas disponibles para comenzar con Cosmos DB, animando a los desarrolladores a experimentar con la plataforma sin incurrir en costos iniciales.
Takeaways
- 📚 La charla aborda la importancia de las bases de datos NoSQL y cómo Cosmos DB se enfoca en diferentes escenarios que no se adaptan a las soluciones relacionales tradicionales.
- 🌐 Se destaca la capacidad de Cosmos DB para soportar múltiples modelos de datos, incluyendo tablas, documentos, grafos y columnas, lo que permite a los desarrolladores elegir el modelo que mejor se adapte a sus necesidades.
- 🔄 Se menciona la compatibilidad de Cosmos DB con diferentes protocolos de bases de datos, lo que facilita la migración de sistemas existentes a la plataforma sin grandes cambios en la aplicación.
- ⚙️ Se discute la arquitectura de escalabilidad dinámica de Cosmos DB, que permite a los usuarios ajustar el almacenamiento y el rendimiento según sus requisitos sin intervención manual.
- 🔒 Aspectos de seguridad, como la alta disponibilidad, el cifrado en reposo y la integración con Azure Private Link, son abordados para garantizar la protección de los datos.
- 📈 Se habla sobre la integración de Cosmos DB con Azure Synapse Link, que permite el análisis de datos en tiempo real sin afectar el rendimiento de la base de datos transaccional.
- 📈 Se destaca la capacidad de Cosmos DB para proporcionar un SLA de 99,99% de disponibilidad y rendimiento garantizado dentro de las latencias acordadas.
- 📱 Se menciona la compatibilidad de Cosmos DB con aplicaciones móviles y su capacidad para manejar grandes volúmenes de transacciones y datos.
- 🌟 Se resalta la importancia de la elección adecuada de la clave de partición para asegurar una distribución uniforme de la carga y evitar problemas de escalabilidad.
- 📊 Se ofrece información sobre las herramientas de monitoreo y análisis que Cosmos DB proporciona, incluyendo Azure Monitor y la capacidad de realizar análisis ad hoc con Azure Synapse Analytics.
- 🆓 Se describen las opciones para probar Cosmos DB sin costo, como el emulador local y las opciones de prueba gratuitas, que permiten a los desarrolladores evaluar la plataforma antes de implementarla en producción.
Q & A
¿Qué es Cosmos DB y cómo se relaciona con Microsoft?
-Cosmos DB es una base de datos distribuida a nivel mundial que forma parte del equipo de productos de Microsoft. Ofrece características como soporte multi modelo, escalado dinámico y alta disponibilidad, y es utilizada por Matías, quien es parte del equipo de Microsoft.
¿Por qué se dice que Cosmos DB es una 'gran caja de herramientas'?
-Se refiere a Cosmos DB como una 'gran caja de herramientas' debido a su capacidad para abordar una amplia variedad de escenarios de bases de datos, más allá de lo que las bases de datos relacionales están acostumbradas a manejar.
¿Cómo Cosmos DB maneja diferentes modelos de datos?
-Cosmos DB permite trabajar con diferentes modelos de datos como tablas, grafos y documentos, cada uno con sus propias APIs optimizadas para ese modelo específico.
¿Cómo Cosmos DB escala dinámicamente?
-Cosmos DB escala dinámicamente tanto en almacenamiento como en volumen de transacciones, lo que permite a los usuarios ajustar sus recursos según la demanda sin tener que definir un almacenamiento máximo previamente.
¿Qué es una clave de partición en Cosmos DB?
-Una clave de partición es un atributo en los documentos o registros que ayuda a agrupar y distribuir la información en una base de datos de Cosmos DB de manera eficiente.
¿Cómo Cosmos DB garantiza la alta disponibilidad de los datos?
-Cosmos DB utiliza Service Fabric, una plataforma para sistemas distribuidos, para crear anillos de servidores distribuidos a través de varios racks físicos. Esto permite que si una máquina tiene un problema, pueda ser removida sin afectar el funcionamiento del anillo, y la información se replica en una nueva máquina.
¿Qué son los RU/s y cómo se relacionan con el escalado de Cosmos DB?
-Los RU/s, o unidades de solicitud, son una medida de la cantidad de recursos de proceso (CPU, memoria y E/S) que Cosmos DB asigna a un contenedor. Se pueden aprovisionar de forma dinámica para escalar el rendimiento según las necesidades de transacciones.
¿Cómo Cosmos DB ofrece compatibilidad con protocolos existentes para migraciones?
-Cosmos DB ofrece compatibilidad a nivel de protocolo para bases de datos existentes como MongoDB, Cassandra y Gremlin, lo que permite a los desarrolladores migrar sus aplicaciones a la nube sin tener que cambiar las bibliotecas de cliente que ya están utilizando.
¿Qué es la característica de 'cifrado con claves del usuario' en Cosmos DB?
-Es una funcionalidad que permite a los usuarios cifrar los datos con claves que ellos controlan, además del cifrado estándar que proporciona el servicio. Esto se integra con Azure Key Vault para un doble nivel de encriptación y seguridad.
¿Cómo Cosmos DB se integra con Azure para monitoreo y seguridad?
-Cosmos DB se integra con Azure Monitor y Azure Security Center para proporcionar métricas, alertas y recomendaciones de seguridad. También ofrece características como enlaces privados, firewall y compatibilidad con diferentes certificaciones de seguridad.
¿Qué son las 'bases de datos sin servidor' y cómo se relacionan con Cosmos DB?
-Las 'bases de datos sin servidor' son una forma de interactuar con Cosmos DB donde los usuarios no tienen que preocuparse por la gestión de la infraestructura, sino que se enfocan en la lógica de la aplicación. Cosmos DB ofrece esta funcionalidad a través de su modelo de recursos y la capacidad de integrarse con otros servicios de Azure.
Outlines
👋 Introducción y bienvenida a Matías
La introducción de Matías, un miembro del equipo de Microsoft. Matías habla sobre su trabajo en el equipo de producto, especialmente en las librerías de clientes y otros proyectos dentro de la empresa. Se menciona la importancia de las bases de datos en las aplicaciones y se anticipan preguntas sobre SQL y sus funciones.
📚 Definición y características de Cosmos DB
Explicación de Cosmos DB como una base de datos NoSQL, destacando su flexibilidad para manejar diferentes esquemas de información. Se describen los modelos de datos soportados por Cosmos DB, incluyendo tabulares, grafos, documentales y de clave-valor, y se menciona cómo cada modelo permite interactuar con la base de datos a través de distintas APIs.
🛠️ Creación y configuración de cuentas y bases de datos
Detalles sobre la creación de cuentas y bases de datos en Cosmos DB mediante el portal de Azure o herramientas de línea de comando. Se mencionan los requisitos mínimos, como la suscripción, el grupo de recursos, el nombre de la cuenta, el modelo de datos y la región de despliegue. También se explica cómo definir contenedores y claves de partición.
🔄 Escalabilidad y disponibilidad en Cosmos DB
Descripción de cómo Cosmos DB maneja la escalabilidad y la alta disponibilidad utilizando una arquitectura distribuida basada en anillos de servidores y particiones. Se explica el proceso automático de 'split' de particiones cuando aumenta el volumen de datos y cómo se gestionan las transacciones por segundo mediante unidades de solicitud (RU).
🌍 Geo-replicación y rendimiento en Cosmos DB
Explicación de la geo-replicación en Cosmos DB, permitiendo que los datos estén disponibles en múltiples regiones de Azure. Se detalla cómo se maneja la sincronización de datos entre regiones, los niveles de coherencia de datos disponibles y la importancia de elegir el nivel adecuado según las necesidades del negocio.
🔒 Seguridad y monitoreo en Cosmos DB
Descripción de las características de seguridad en Cosmos DB, incluyendo el cifrado en tránsito y en reposo, enlaces privados y firewalls. También se mencionan las certificaciones de seguridad cumplidas por Cosmos DB y las opciones de monitoreo mediante Azure Log Analytics para auditar y controlar el uso y rendimiento de la base de datos.
📊 Análisis de datos en tiempo real
Se introduce la nueva característica de Cosmos DB integrada con Azure Synapse para el análisis de datos en tiempo real. Esta integración permite la creación de una copia analítica de los datos transaccionales sin impactar el rendimiento, facilitando la creación de dashboards y análisis avanzados.
🚀 Cómo empezar a usar Cosmos DB gratuitamente
Opciones disponibles para empezar a usar Cosmos DB sin costo, incluyendo el emulador local y la instancia gratuita de 30 días. También se explica la oferta de 400 RU y 5 GB de almacenamiento gratuito para pruebas de concepto y cómo utilizar Cosmos DB en pipelines de integración continua con Azure DevOps.
🔄 Resumen y próximos pasos
Resumen de las características clave de Cosmos DB, incluyendo los modelos de datos, escalabilidad, seguridad, y geo-replicación. Se menciona la importancia de la calculadora de costos para estimar el uso y se anima a los usuarios a probar Cosmos DB utilizando las opciones gratuitas disponibles.
📈 Uso de Cosmos DB en diferentes escenarios
Discusión sobre cómo Cosmos DB puede ser útil en varios escenarios, como sistemas de gestión, seguros y bancos. Se destaca la flexibilidad de Cosmos DB para manejar esquemas de datos complejos y su alta disponibilidad, lo que lo hace adecuado para aplicaciones críticas que requieren replicación geográfica.
🔄 Implementación de Cosmos DB en aplicaciones prácticas
Detalles sobre la implementación práctica de Cosmos DB, incluyendo la creación de bases de datos y contenedores, y la inserción de datos. Se menciona la facilidad de uso y la capacidad de manejar datos con esquemas variables sin problemas, comparando con las dificultades de las bases de datos relacionales tradicionales.
👥 Invitación a futuros eventos y agradecimientos
Cierre de la sesión con una invitación a futuros eventos y agradecimientos a los participantes. Se menciona la disponibilidad del material de la sesión para revisarlo a un ritmo más lento y se recuerda a los asistentes sobre los próximos temas a tratar en las siguientes sesiones.
Mindmap
Keywords
💡Cosmos DB
💡Escalabilidad dinámica
💡Multi-modelo
💡Clave de partición
💡Geo-replicación
💡SLA (Acuerdo de Nivel de Servicio)
💡Seguridad
💡Emulador local
💡Clústeres de Apache Spark
💡Costos
Highlights
Se discute la experiencia de trabajar con Matías, un gran amigo y colega en Microsoft, destacando su valor en el equipo de Cosmos DB.
Se menciona la importancia de las bases de datos como componentes fundamentales en aplicaciones y cómo Cosmos DB aborda diferentes escenarios de almacenamiento y procesamiento de datos.
Se explora la capacidad de Cosmos DB para escalar dinámicamente, ofreciendo soporte multi-modelo y distribuido con escalado dinámico.
Se destaca la compatibilidad de Cosmos DB con diferentes modelos de datos y protocolos, incluyendo tablas, grafos y documentos JSON.
Se abordan las ventajas de la indexación automática en Cosmos DB, lo que permite una rápida ejecución de consultas sin la necesidad de crear índices proactivamente.
Se describe el proceso de creación de una cuenta, bases de datos y contenedores en Cosmos DB, destacando la importancia de la clave de partición para la distribución de datos.
Se explica cómo Cosmos DB permite la interacción con la información a través de diferentes APIS, como Cassandra, Table API y Gremlin.
Se discute la alta disponibilidad y la resistencia a fallos de Cosmos DB, gracias a la replicación y distribución de datos a través de múltiples dominios de fallo.
Se menciona la capacidad de Cosmos DB para el análisis de datos en tiempo real y su integración con otros servicios de Azure para un procesamiento más eficiente.
Se ofrecen consejos sobre cómo planificar y estimar los recursos necesarios para los contenedores de Cosmos DB según el volumen de transacciones y almacenamiento.
Se destaca la opción de geo-replica en Cosmos DB, que permite replicar automáticamente los datos a diferentes regiones de Azure para una mayor disponibilidad y latencia óptima.
Se abordan las características de seguridad en Cosmos DB, incluyendo el cifrado en reposo, el cifrado en tránsito y la compatibilidad con diferentes estándares de seguridad y certificaciones.
Se describen las funcionalidades de monitoreo y análisis en Cosmos DB, integradas con Azure Monitor y la posibilidad de crear paneles y realizar consultas sin afectar la base transaccional.
Se menciona la nueva característica de Cosmos DB, la base de datos analítica, que permite el análisis de datos sin impactar en la carga de la base transaccional.
Se ofrecen opciones para probar Cosmos DB sin costo, incluyendo el emulador local, la opción 'Try with Azure for free' y la cuenta gratuita con los primeros 400 RU/s y 5 GB de almacenamiento.
Se destacan los escenarios en los que Cosmos DB es especialmente útil, como sistemas de gestión, bancos y aplicaciones con esquemas de información dinámicos y variados.
Se comparte información sobre la próxima sesión y los temas que se abordarán, incluyendo contenedores, redes, balanceadores y Logic Apps.
Transcripts
[Música]
y no
[Música]
matías 40 sabéis que cuando hablamos de
comunidades me equivoqué y te puse a voz
directamente mira que que están
presentes que tenemos en las comunidades
estaba anunciado de vuelta como vivir
obviamente me ha parecido
[Risas]
bueno dije mate y gran amigo de la casa
sí totalmente tuve el placer de trabajar
con matías hace ya unos años cuando
todavía estaba en la argentina así que
es un honor tener a matías que ahora es
parte del equipo de cómo vive hoy en
microsoft
de primera mano cómo es todo esto
él estará de constitución
impresionante mate venimos como como
para contar la historia no venimos
viendo cómputo vimos en algunas
cuestiones de redes algo de
almacenamiento muy poquito y hoy
empezamos a dar base de datos que como
le dijimos a javi son un componente
fundamental en todas las aplicaciones
así que también son un componente que a
veces dan un poquito de miedito con
respecto a si lo activo no le activo si
me va a comer el crédito no me va a
aclarar el crédito cuanto menos cuánto
me va a salir pero de última sql mal que
mal lo conocemos casi todos
te voy a hacer muchas preguntas entre
ellas son nos vas a responder en la
charla quiz como se ve que viene quien
lugar viene a llenar como debe el primer
punto y segundo que tenéis que ver
boscos como se ve porque estás acá ok y
esperemos que pueda responder bien la
primera y la segunda mentalmente
lo descarto criterio
la realidad es que yo trabajo en el
equipo de producto particularmente
trabajo en lo que son las librerías de
clientes los dediquéis pero me involucro
en otros proyectos también dentro de la
sombrilla de como civil pero bueno le di
a esta charla es poder ir a dar un
pantallazo cubrir las características
principales de servicios que se lleven
algo con lo que puedan decir bueno tengo
una idea más o menos de que ese servicio
cómo puedo probarlo cómo puedo comenzar
a dar mis primeros pasos sin gastar
plata que es importante para después
decir bueno esta es la base de atos
ideal para mi proyecto para mí mi
compañía y así esperando y después
obviamente poder gastar dinero en lo
posible el negocio es matemática que
significa estar en grupo producto esto
que muchas de nombramos que x que es
estar desde dentro grupo producto
básicamente es vos estás abajo emitido
dentro del motor trabajando con todo
producto mayor tiene diferentes aristas
tenés en el caso una base a todo lo que
es el motor mismo la ingeniería detrás
del motor
or tenés gente que se encarga del
proceso de backup tener gente que se
encarga de la alta disponibilidad que
equipo que se encargan de las apis
públicas que no consumen como cliente
en mi caso soy parte de equipo que
construye las librerías de cliente que
termines usando las aplicaciones pero
digamos todos somos parte del equipo de
producto
excelente bueno no perdamos más tiempo
así llegamos con el tiempo justito para
ir a verlos
scott kunselman con los chicos de suelo
en el lugar final ya hemos arranquemos
martí confirmamos y se ve mi pantalla
y lo que le ha faltado un clic
arriba
vemos a gente visto bueno arranquemos
como divx y es la que termina como la
base de todos nuevamente distribuida con
escalado dinámico y soporte multi modelo
de la idea esta charla es ir a través de
las diferentes características como por
ejemplo que es el soporte multi modelo
de diferentes protocolos con los cuales
yo puedo interactuar con la base de
datos a qué me refiero cuando digo que
la base 2 escala dinámicamente
qué cómo juega la distribución en común
y vi hablando de vamos a pasar a hablar
de seguridad y monitoreo que son dos
componentes muy importantes cuando
estamos hablando de almacenar datos
críticos para una empresa una una breve
mención de análisis de datos en tiempo
real que javi también lo mencionó en la
charla anterior y finalmente quiero
dejarlos con una serie de siguientes
pasos y alternativas con las que para
poder probar cómo dividir de forma
gratuita
comenzando con el modelo de datos
como divx y se define como una base de
todos no sql no porque no permita
realizar consultas sql que esa es la
primera reacción que uno tiene cuando
escuchar el término sino porque se
refiere un conjunto de bases de datos
que ataca o cubre una diferente serie de
escenarios que no son los que las bases
de datos relacionales están
acostumbrados a ser como tales con una
gran caja de herramientas y la ideas que
uno debe elegir en este caso la base de
datos que mejor se ajusta al escenario
que tenga en particular en el caso de lo
que es múltiples modelos de información
lo que sucede con la base de tonos y
coles que es muy común en algunos
proyectos trabajar con diferentes
esquemas de información de información
que consumimos tanto como como entrada a
nuestras a nuestros servicios o
aplicaciones como la forma que tenemos
que procesarla o la forma que tenemos de
persistir la no siempre es relacional o
permite meterlos en lo que es la cajita
cuadrada de una tabla para estos
escenarios es con donde la base de datos
no se cuele vienen a vienen a ayudarnos
en el caso de cosmos débiles va a
permitir trabajar con la información en
diferentes modelos pueden elegir desde
modelos tabulares o de tablas de
registros tablas y columnas en los
cuales van a poder interactuar con apis
que se denominan casandra o table light
para poder trabajar con modelos de
información de tipógrafos de relaciones
en los cuales vamos a poseer la app y
que se denomina de kremlin y finalmente
tenemos la posibilidad de trabajar con
modelos documentales o de clave valor
cuando digo documentales me refiero a de
tipo documentos jason
en los cuales voy a tener la posibilidad
de interactuar con la equidad y
denominada desigual o para aquellos que
trabajan con montgó una app y con
compatibilidad para móvil cómo es que el
motor en sí permite que ustedes
almacenen o trabajen con información que
es como modelo de datos bastante opuesta
entre sigues de una tabla hasta un grafo
de relaciones lo que sucede es que
internamente dentro del motor cada
registro cada documento o cada entidad
en una en una relación de un grafo se
persiste en un único de una única manera
este modelo de persistencia
automáticamente index a todos y cada uno
de los atributos que tenga nuestro
documento saltado a cada una de las
columnas que tengan nuestros registros
para permitir que cualquier consulta que
realicemos sea lo más rápida posible a
diferencia de los motores de bases de
bases transaccionales lo que más
comúnmente conocemos donde nosotros
tenemos que proactivamente crear índices
en base a las columnas que nosotros va a
ser las consultas nosotros realicemos en
nuestras aplicaciones como dígito como
un modelo inverso index a todo
y les da a ustedes la opción de quitar
datos o quitar atributos o columnas del
índice porque quise quitar datos del
índice perdón o columnas del índice
porque todo digamos los índices de la
base datos tanto como tanto como los
datos suman al volumen de información
que yo voy a almacenar y como todo
servicio de ser parte del costo de mi
base de datos va a ser también el
almacenaje si bien los índices se
utilizan para poder resolver cualquier
consulta si yo tengo columnas que son de
tipo solo de texto en las cuales no voy
a realizar ningún tipo de filtro me
conviene quitar las del índice para
optimizar luego mis costos más adelante
vamos a ver cómo se manejan almacenados
porque la idea es que entiendan que se
indexa automáticamente todo a menos que
ustedes quiten información
el modelo de recursos de cosmos débil
comienza con lo que es la creación de la
cuenta la cuenta la pueden crear a
través del portal de ayer lo pueden
crear a través de las herramientas de
línea de comando que tiene ayer como la
social line o para lo que están más se
conoce más sobre armar templates o
automatización de recursos de creación
de recursos de ayer también lo pueden
realizar a través de ese medio cada
cuenta tiene un en point alguna url de
conexión y un conjunto de llaves estas
llaves son las cuales vamos a utilizar
las de herramientas del cliente o
aplicaciones para poder acceder y
conectarnos y realizar las diferentes
aplicaciones las operaciones para lo que
es la creación de la cuenta la pueden
hacer desde el portal de ayer siendo al
nuevo recurso dentro de la categoría de
base de datos se encuentra como civil y
los la información mínima y necesaria y
requerida que tienen que elegir es
obviamente bueno en que suscripción a
quieren crear cuál es el grupo de
recursos el nombre de la cuenta cuál es
la api o la forma del modelo de
información con el cual bueno datos que
quieren interactuar con la cuenta cuál
es la la región de ayer donde quieren
desplegar
servicio vamos a hablar un poco sobre
regiones en breve pero la idea es tienen
que decir como mínimo una región donde
comenzar su despliegue y después es un
conjunto de opciones
digamos características opcionales de
las cuales vamos a hablar en breve pero
la idea de que lo mínimo indispensable
es suscripción grupos recursos el nombre
el modelo de datos que es realmente
importante y la ubicación
una vez que creamos la cuenta lo
siguiente es crear bases de datos
podemos crear una o varias bases de
datos dentro de una cuenta de cómo debe
y dentro de una base de datos vamos a
crear uno o varios contenedores el
contenedor en sí es dependiendo del
modelo de datos con el que trabajemos se
puede denominar de forma diferente si
trabajo con un modelo de datos
documental se pueda una colección de
documentos de trabajo con un grafo de
relaciones se llamará bueno un grafo
donde almacenar las relaciones y los
vértices si trabajo con un modelo de
datos tabular se llamará una tabla pero
la idea es que conceptualmente el
contenedor es lo que va a almacenar mis
temps esos ítems dependiendo del modelo
de datos también de entre nosotros
pueden ser documentos vértices
relaciones o registro
pero este es un poco el modelo que vamos
a utilizar cuando creemos cuando
queremos guardar información en la base
de datos
el contenedor como tal se puede crear
también de forma programática oa través
del portal desde el portal los
requerimientos son obviamente definir en
qué base datos lo voy a crear darle un
nombre al contenedor después definir una
clave de partición que va a ser algo que
vamos a ver también en breve pero la
idea es que como toda base de datos que
es distribuida tenemos que poder definir
una columna o un atributo en nuestra
información que nos va a ayudar a
agrupar y con un componente izar nuestra
información y finalmente podemos
asignarle un lo que se denomina un punto
una cantidad de de respuesta y unix esto
del grupo de cuestión está me lo voy a
mencionar brevemente presse en
conceptualmente es el cual es el volumen
de operaciones que yo voy a realizar
sobre ese contenedor y en base a este
volumen de operaciones que yo que
realiza sobre el contenedor es un poco
en la cuenta que me llega a fin de mes
no por eso este dato también es
importante
entenderlo al movimiento es el momento
de crear un contenedor
una vez que elijo el modelo de datos que
voy a utilizar y creé mi contenedor en
mi base de datos la forma que yo tengo
de interactuar con información es decir
realizar consultas guardar la
información leer la información
dependerá un poco del modelo de datos si
dijo el lápiz desigual donde yo puedo
trabajar con modelo documental y
realizar consultas en un lenguaje sql
puedo utilizar un conjunto de librerías
provistas por el equipo de cosmos y bien
diferentes lenguajes incluyendo punto n
saba payton y javascript con las cuales
voy a poder crear la aplicación y
empezar a interactuar con la base de
datos si elegí la api de tablas también
probemos un conjunto de librerías para
los que hayan trabajado en el pasado con
mayor de vélez todas estas librerías son
muy similares el modelo de trabajo es
muy similar al anterior ajustables tórax
pero con un montón de características
nuevas que trae como civil para los que
elijan el montgó que se utiliza
mayormente cuando ustedes ya tienen
quizás una base de datos on premise o en
algún tipo de
cinco mundos y quieren migrar la
aplicación en la nube lo que hacemos es
el servicio les da compatibilidad a
nivel de protocolo que significa que
ustedes pueden tomar sus aplicaciones
que ya funcionan con las librerías pero
stafford montgó migrar la información a
como stevie y simplemente cambiar la
cadena de conexión de sus aplicaciones
para que la aplicación siga funcionando
tal cual como funcionaba cuando estaba
dentro de nuestros servidores on premise
o en algún otro hosting lo mismo sucede
con casándose tienen clases de casandra
pueden migrar la información seguir
utilizando las librerías de cliente
provistas por cassandra y que sus
aplicaciones sigan funcionando y
finalmente es lo mismo con gremlin estos
tres van gogh típicas andre geim please
son protocolos off tensores pesos que
podemos proveer una compatibilidad a
nivel de protocolo ustedes pueden seguir
utilizando las librerías y herramientas
que ya utilizaban con estas bases de
datos antes de migrar las al commodity
una vez que tienen la información ya
guardado ya ha empezado a interactuar
con los contenedores y las bases de
datos lo siguiente que la siguiente
pregunta que viene es bueno a ver yo
con mis productos sé más o menos cómo
guardar la información comencé pequeño
quizás mi empresa comenzó localmente en
la región donde estoy como como divx y
me ayuda a que mi negocio mi negocio
crezca como yo puedo crecer tanto en el
volumen de transacciones que voy a
procesar como obviamente en el volumen
de información que yo quiero almacenar
la buena noticia es que como si me
permite de forma independiente escalar
tanto el volumen de información que yo
guardo como el volumen de transacción al
que yo quiero manejar y si éste está
este
y escalamiento es totalmente dinámico en
cualquiera de los ejes
para poder entender cómo funciona este
escalamiento tenemos que dar un par de
pasos para atrás entender cómo funciona
la topología del sistema dentro de cada
datacenter de ayer sabemos que hay un
conjunto de stands y cada dentro de cada
stand hay un conjunto de fall domains el
fall domínguez es el rack de una data
centre no es un conjunto de servidores
que se encuentra físicamente unido y lo
que hace como debiese utilizar service
fabric es una plataforma para sistemas
distribuidos para crear anillos de
servidores estos anillos de servidores
están distribuidos a través de varios
fold o menos dentro de un data center es
decir los los los puntos de este anillo
pertenecen a diferentes racks físicos y
cada uno de los puntos de este anillo es
una máquina una una una máquina física
del ayer y dentro de cada máquina vamos
a tener un conjunto de réplicas esta
réplica en sí ese es el motor completo
de bases de cómo debe en
en una unidad es decir dentro una
máquina de tener un montón de réplicas
donde cada una es es el motor completo
de cómo vivir la vida de esta
configuración de anillo es que permite
que si se reabre detecta que hay una
máquina física que tiene un problema esa
máquina física puede ser removida del
anillo y el anillo sigue funcionando y
la máquina nueva puede ser agregada al
anillo y de información que contenía la
máquina anterior replicada en esta
máquina nueva y el anillo como tal sigue
manteniendo la alta disponibilidad esto
es un poco lo que da soporte a cómo
vivir como plataforma y que nos da la
posibilidad de tener una alta
disponibilidad ahora como como enlazamos
estos conceptos físicos estos servidores
réplicas y clusters con lo que veníamos
hablando de los contenedores y las bases
de datos bueno cuando nosotros queremos
un contenedor sea una tablet una
colección de un grafo este contenedor en
base al volumen de información que va a
terminar albergando va a ocupar un
conjunto de particiones físicas cada
partición va a estar compuesta por
cuatro réplicas
entonces con ustedes guarden un dato en
su colección en su tablet lo que va a
pasar es que ese dato va a ser dirigido
a una partición física y en esa
partición física este dato va a ser
grabado en una réplica en una máquina y
después hay cuatro réplicas más que van
a replicar ese mismo dato de estas otras
cuatro réplicas se encuentran en otros
fondos menos en otros racks diferentes
la idea de este esquema es que si llega
a haber una falla física en un rack lo
único que va a hacer es estirar o dar de
baja a una de las réplicas de la
partición y su información sigue estando
disponible en las otras tres réplicas y
automáticamente cuando se referente
detecta esto y trae la nueva máquina
esta nueva réplica que se suma a la
partición automáticamente copia la
información del resto de las réplicas y
volvemos a un esquema donde hay cuatro
réplicas vigentes
entonces con los tengo guarda en un dato
dentro de la colección en base al valor
de la clave de partición que ustedes
hayan definido recordemos que cuando
creamos el contenedor tenemos que
definir cuál es el atributo de la
columna de que va a actuar como clave de
partición en base a ese valor como div y
define en qué partición física debe ir
ese registro o ese documento y lo y lo
colocan o ahora el tema es que estas
particiones físicas tienen un tamaño y
tienen una capacidad fija de
almacenamiento de información porque al
fin y al cabo el final del día tiene
siguen siendo servidores entonces qué
sucede cuando yo comienzo a guardar
mucha información y estos servidores se
empiezan a llenar lo que sucede que como
dividí realiza un proceso que se llama
split que es automático y toma lo que
hace es tomar una partición la existente
y la divide en dos o más entonces de
esta manera estas nuevas particiones e
hijas de la partición anterior siguen
dando soporte al
las consultas y a las operaciones pero
obviamente tengo ahora más
almacenamiento porque ahora pasó a
ocupar más máquinas físicas y más
particiones y este proceso automático de
extensión me permite a mí dinámicamente
irá agrandando o extendiendo a mi
capacidad de almacenamiento a medida que
yo guardé información es decir usted no
tiene que definir cuál es mi
almacenamiento máximo sino que sólo
tienen que seguir guardando información
entonces a medida que guarden más
información esté más elemento dinámico
va a seguir creciendo para ajustarse a
sus necesidades y esto es en cuanto a
almacenamiento ahora qué pasa con la
cantidad de transacciones por segundo
javier en el interior en su charla ha
mencionado el concepto de teus bueno
como debbie tiene un concepto similar
que son los reus que es en realidad una
ponderación de cada una particular
operación sea una inserción una
autorización una consulta cuanto de
memoria cpu y disco es aunque esa
operación termina consumiendo
es decir si yo hago un gueto requiero
leer un documento a un registro bueno
cuanto se rehusó
esa operación consume cuánto cuánta
memoria y dependerá también un poco del
volumen de información que usted yo
intento leer no sea cuanto más grande
del registro quizás más enredos consumen
lo importante de cómo debe y lo que es
interesante es la cantidad de reus que
una operación toma en particular es
siempre constante en el tiempo es decir
si yo guardo un documento o yo quiero
leer un documento de un global con menos
de información siempre me va a consumir
un hereu ahora y dentro de cinco años
entonces es un poco sencillo poder
planificar bueno si yo tengo tantas
tantos stem y volumen documental es el
tamaño de registros que yo tengo y yo
quiero poder hacer tantas operaciones
por segundo de este tipo puedo
planificar o por lo menos tener una
estimación de cuánto ese rehuyó debería
aprovisionar en mis contenedores ahora
qué sucede cuando el volumen que yo
provisionó
x no y porque tuvo un pico de consumo de
repente me pasó o sea el volumen
transaccional que tengo es superior a lo
que yo tengo provisionado lo que sucede
es que las operaciones que superen ese
volumen que es medido cada segundo van a
estar para tener una latencia de
resolución un poco más grande esto es
porque digamos se encuentran fuera del
volumen que ustedes han aprovisionado
entonces eventualmente se van a
completar sí pero lo van a hacer fuera
de los slides de latencia que el
servicio les provee ahora hablamos de
esto se reduce a unidades de solicitud
cuando cuando creamos un contenedor ese
es el momento en el cual definimos
cuánto se rebusque queremos poner en ese
contenedor lo importante esto es que una
vez que lo definimos podemos de forma
dinámica cambiarlo en el tiempo no es
que estamos atados a ese valor y lo
podemos hacer a nivel de contenedor
indicando que todas las operaciones en
ese contenido de urbana estar cubiertas
por ese ese volumen aprovisionado o
podemos hacerlo a nivel de la base de
datos
entonces ese pool
rebusque yo a producción a nivel de
aciertos va a estar compartido a través
de todos los contenedores que yo pueda
crear y yo puedo crear cualquier
cantidad de contenedores dentro de una
base de datos ahora algo que se agregó
este año que bastante importante es no
siempre puedo prever cuál es mi volumen
operacional no siempre puedo decir bueno
en líneas generales voy a tener
x cantidad de transacciones por segundo
a veces tengo mi negocio no es no es
previsible en ese aspecto entonces
agregó la característica de lo que se
denomina auto es jaime donde yo puedo
definir un margen una cantidad mínima y
una cantidad máxima de reus lo que va a
ser el sistema des en base a la carga va
a ser volumen transaccional que yo voy a
tener para escalar dinámicamente y mover
un poco el volumen ha provisionado en
los contenedores para ajustarse a la
demanda que yo tengo cuando mi demanda
baje los se rehusa aprovisionados bajan
de esta manera puedo tener una
optimización en cuanto a costos sin
tener que tener aprovisionados un nivel
de riesgos que no estoy utilizando
continuamente
ahora eso se le apartado un poco de
hasta ahora digamos que si hemos
comenzado y llevado a paso a paso la
creación de una cuenta y empezar a
definir un poco el modelo de informas de
datos con él como el que trabajar
comencé a trabajar a guardar
informaciones ya tengo una idea de
cuáles son los esquemas el tipo de
consulta hace más o menos cuánto se
reduce puedo llegar a utilizar las
aplicaciones bien día no sólo se
restringen en una sola región
en línea generales sino comienza o tiene
una iniciativa quizás puedo que puede
comenzar pequeño puede decir bueno
trabajo sólo en en la región del mundo
en el cual estoy pero si tengo suerte
mismo mi negocio a pesar a crecer y mi
negocio puede empezar a cruzar barreras
pues puedo tener empresas clientes o
necesidad de tener
transacciones en otros en otras regiones
de ayer la buena noticia es que como os
dije es un servicio que se denomina como
el anillo cero es decir está en todas
las regiones actores y futuras de ayer
apenas se abra la región es un servicio
que ya está disponible y lo que me
permite es de forma muy sencilla
comenzar a geo replicar la información
de forma automática imaginémonos que
nuestra aplicación que comenzó en una
región en particular ahora tiene
clientes en otras regiones del mundo yo
puedo tener una arquitectura donde mi
aplicación sea un browser una aplicación
mobile 6 conecte ahora la url de mi
servicio
puedo tener unasur traffic manager que
en base a la ubicación geográfica del
usuario diga bueno este usuario quiere
está ubicado en este lugar la web app y
que le da servicio a mí a mi plataforma
en la más cercana es en este caso el
oeste de eeuu y así puedo tener
desplegada una aplicación que se
contacte con como divx y para obtener
los datos ahora lo importante de esto es
que yo podría tener la misma la misma
web app y distribuida en múltiples
regiones
en mi cuenta de cómo debe ser
distribuida en múltiples regiones para
que cada región cada web
haga consultas y operaciones locales a
la réplica del cosmos de ibi que existe
en esa región pero al mismo tiempo yo
también voy a poder ver porque existe
una geo sincronización a través de todas
las regiones automáticas puedo ver
registros o información que fue guardada
en cualquier otra región de acción en la
cual se encuentra desplegada en mi
cuenta esto se puede hacer
extremadamente simple desde el portal
desde yo puedo ir a mi cuenta de cómo
bibi y en el apartado deje distribución
y veo un mapita y donde puedo hacer clic
para agregar o quitar regiones guardar y
eso va automáticamente a empezar a
desplegar los recursos y realizar lo que
es la geo geo distribución de la
información a través de todas las
regiones que yo tenga que yo tenga
seleccionadas ahora sí si relacionamos
esto con un poco con los diseños con los
con la explicación de la topología que
teníamos antes donde les había explicado
que bueno cada contenedor tiene
particiones y cada partición tiene un
conjunto de red
así todo esto existe dentro de un
datacenter como como entra en juego la
redistribución bueno resulta ser que una
de las cuatro réplicas en las cuales
cada partición tiene se denomina
forwarder que lo que hace es básicamente
recibir y enviar cualquier operación que
localmente haya surgido en esa partición
en esa región de ayer de esta manera
puedo yo sincronizar múltiples
particiones del mismo contenedor a
través de múltiples regiones entonces
cuando en una región haya un nuevo
insight por ejemplo en la réplica howard
o lo que va a hacer es notificar a las
otras regiones que un insert en este
contenedor entonces cuando haya otro
usuario u otra aplicación que intente
leer el registro desde otra región lo va
a ver por más que
el inserto en realidad ya haya sido
generado en nuestra región de ayuda
extraje o replicación a través de
diferentes regiones de ayer también
tiene un cierto nivel de complejidad y
en la cual hay algunos motores de base
entonces que a ustedes les les obliga a
elegir sólo entre dos opciones que se
denominan robusta y eventual la
sincronización robusta o la coherencia
de datos robusta es cuando yo grabo un
dato en una región hasta que ese dato no
fue replicado geográficamente en todos
las regiones de ayer en todas las
regiones perdón de mi cuenta no está
disponible para ninguna de las regiones
y eventuales el extremo opuesto donde es
cuando yo guardo un dato en una región a
medida que ese dato se es g o replicado
pasa a estar disponible en otras
regiones esto implica que obviamente
puedo tener regiones que le dan una
versión anterior del dato
y región donde vean una región más nueva
como dije ofrece un conjunto de niveles
de coherencia intermedios que ustedes
pueden elegir para bebés obviamente
elegir el que más se adapte a la
arquitectura o el caso de negocio que
tengan que geo replicar
ahora una vez que digamos tenemos la
información geo replicado o entendemos
un poco cómo es el apartado de
replicación algo muy importante tener en
cuenta sobre todo porque vamos a estar
copiando información por todos lados del
mundo es el apartado de seguridad de
monitoreo como divx y ofrece un conjunto
de seriedad para los que no nos conocen
que es una sl a es básicamente el
contrato que ustedes firman entre
comillas cuando adquieren o comienzan a
pagar de servicios que está
financieramente respaldado y en ese
contrato como bibí les asegura que para
tener una latencia operativa asegurada
menor a los 10 milisegundos cuando se
encuentren leyendo información de forma
local para operaciones de lectura y
escritura los que son consultas o
queries pueden realmente tener una
latencia un poco más dependiendo de
de la complejidad de la qualy pero para
los que son escrituras y lecturas
puntuales la latencia operativa está
asegurada contractualmente y
financieramente vamos a tener una alta
disponibilidad también asegurada
obviamente toda esta alta disponible
disponibilidad esta está respaldada por
todos los conceptos que les expliqué
anteriormente de sherry fabric de qué
pasa cuando un servidor se cae qué pasa
con una instancia de una máquina seca y
cómo se recupera el sistema por todo
esto es que nosotros podemos ofrecer una
salida de alta disponibilidad del 99 91
900 99 por ciento tenemos un rendimiento
asegurado en lo que es la actividad es
decir ustedes aprovisionan una cantidad
de reus en un contenedor y aseguramos
por ese leaf que van a poder realizar
todas las operaciones que se encuentren
dentro de ese volumen aprovisionado y
que estas operaciones van a estar dentro
de unas latencias aseguradas por el
servicio y finalmente hay peleas para
los diferentes niveles de coherencia de
replicación a través de las diferentes
regiones
también a lo que es el apartado de
seguridad de persistencia de tráfico de
la información tenemos seguridad del
https en lo que es el transporte desde
sus aplicaciones hasta el servicio pero
también contamos lo que es con el
cifrado en reposo que es una vez que la
información es persistía en los discos
de estado sólido que proveen las
máquinas que tenemos si alguien intenta
físicamente acceder al disco y se lleva
el disco esa información está cifrada y
no no pueden acceder otro dato
importante es somos tenemos complejos
con un montón de certificaciones desde
las diferentes certificaciones iso 27000
high trust psa hay una lista realmente
enorme y no número acuerdo de memoria
pero la idea lo importante de esto es
que si ustedes tienen un proyecto en el
cual a ustedes les requieren que por
ejemplo el proyecto sea compatible con
iso 27001 todo lo que es el apartado de
base de datos lo tiene ya cubierto con
comos divinos tienen que realizar ningún
tipo de pasos extra
también ofrecemos lo que es links
privados y bp en ese decir imagínense
que usted desplegará su aplicación en
ayer y tienen un requerimiento de
seguridad en el cual tienen que bloquear
todo el tráfico que no corresponda con
actividades que son propias de la
aplicación tanto tráfico externo como
tráfico interno esto es para evitar
cualquier tipo de ataque que puedan
surgir externamente o algún problema de
seguridad que pueda hacer que su
aplicación intenta acceder a recursos
que no son parte de los que ustedes
deberían estar controlando entonces si
ustedes querer una aplicación y la
incluyen dentro de una red virtual en
assiut pueden tomar como divx y crear lo
que termina un enlace privado en donde
el endpoint si recordamos un poco de
modelo de recursos que veíamos antes
elemento y doblar la url que ustedes
utilizan para conectarse en vez de como
en vez de hacer un link externo pasa a
ser interno dentro de su bp.n y de esta
manera ustedes pueden brindar
la digamos las aplicaciones para evitar
que no realicen ningún tipo de solicitud
ni reciban ningún tipo de solicitud de
ninguna entidad que sea externa a la vpn
y además aseguran que sus aplicaciones
tienen acceso a cosmos dividí este
acceso en novio no violenta estas
políticas de acceso a seguro que ustedes
quieren brindar a las aplicaciones
también también tenemos accesos por qué
no son tan tan cerrados como lo que es
prueben link pero las bases también
soporta firewalls por por haití si
también quieren hacer ese tipo de
filtrado y una nueva característica que
también se agregó este año es la
capacidad de hacer cifrado en reposo con
claves de usuarios como le mencionaba
antes no se persiste un dato en el
cosmos divisé cifra con las claves de
que el servicio tiene cuando se
persistente todo el disco pero que
quizás tienen ustedes requieren que por
alguna por alguna necesidad del negocio
ustedes deben poder encriptar la
información con una clave que usted
controlen entonces lo que se hace es una
vez que los datos fueron cifrados con la
clave de cómo debe se vuelven a cifrar
con datos que ustedes con unas claves
que ustedes provee entonces por más que
nosotros como servicios quisiésemos
acceder a esa información esa
información no es no es legible o no la
podemos leer porque está encriptada con
solo claves que ustedes manejen esta
característica está integrada con ayer
que bolt entonces ustedes pueden
almacenar sus claves privadas en haití
bold integrarlas con cómo dividir de
forma tal de que al final del día la
información se encuentra doblemente
encriptada y sólo ustedes sean los que
puedan acceder a la misma en el apartado
de monitoreo tenemos integración con el
blog analytics entonces usted van a
poder y digamos hacer auditoría tanto de
quienes han creado nuevos recursos
quienes han modificado el
aprovisionamiento en los diferentes
contenedores quien han creado nuevos
contenedores y también pueden ver cuáles
son las diferentes métricas el cual es
el concours el consumo actual de herbusa
a través de los diferentes contenidos
para ver si digamos están están en el
límite de los aprovisionados y están
digamos si están bastante delgados en
sus aprovisionamientos y si quisiesen
bajar o mover la aguja hacia abajo o si
por el contrario se están pasando y
están teniendo errores por alta latencia
por que están provisionados suficiente
ser reus pueden ver todo esto a través
de las diferentes métricas que hacemos
uso que probemos a través de ayer
locke analytics
finalmente algo que quería mencionar que
también es una característica nueva que
se lanzó este año cuando éste ya se
utilizaban como stevie para hacer lo que
es análisis de información en tiempo
real a quizás enlazando dashboards y
pavor vial o quizás utilizando clusters
de apache spark para procesar la
información y luego crear algún tipo de
inteligencia a través de los sucesos que
están surgiendo en la base de datos lo
que sucedía es que todas estas
operaciones de extracción de información
consumían estos cerebros que estaban
aprovisionados para las operaciones
transaccionales entonces siempre
podíamos caer en este problema en que
impacta hacemos el volumen transaccional
de la información por realizar
operaciones de tipo de análisis lo que
surgió este año es un nuevo producto de
ayer llamado outsourcing que también
abrió lo mencionó en su presentación
cómo dividir al es una integración con
esos resultados esta integración la que
va a permitir es automáticamente
y en tiempo real y sin consumir los se
rehusa provisionados en sus contenedores
transaccionales migrar información ayer
sino que para que puedan después crear
dashboards 'power vi algo hacer análisis
con el parque en tiempo real sobre la
información sin impactar sobre la base
transaccional y esto se logra de la
siguiente manera una vez que ustedes
tienen su contenedor transaccional sobre
el cual interactúan con sus librerías de
cliente como es de crea por detrás una
base de datos una copia que se denomina
analítica el estor esta copia se
encuentra en un formato que hace digamos
el análisis de la información de forma
columnas bastante más sencillo y rápido
pero esta copia se mantiene auto
sincronizada sin consumir recursos de la
base transaccional y lo que hace así
naps es ir absorbiendo esta esta copia
esta base de analítica y darla y poner
la disponibilidad para que ustedes
puedan crear dashboards o realizar
consultas sin nuevamente impactar en la
base transaccional esta es una nueva
característica y ésta
a partir de hace bastante poco así que
ya la pueden utilizar en sus
contenedores
finalmente quería cerrar con bueno
digamos que pueden hacer ustedes para
empezar a probar con moody para empezar
a mojarse los pies un poco en este vasto
océano de base de datos nou cicle sin
gastar dinero bueno la primera opción es
como debe provee un emulador local que
lo puede extraer en sus máquinas en
windows este emulador es básicamente una
copia del motor imagínense que es como
si ustedes hubiesen descargado la
réplica y con el contenido de una
réplica sus máquinas y usted van a poder
interactuar con esta con este emulador
con sus aplicaciones conectando las al
emulador como si es conectarse a una
base de datos real
obviamente lo que no tiene de
características son la geo replicación
porque está corriendo en sus máquinas y
en el apartado de performance sus
máquinas no son los mismos que no tienen
más características técnicas que tienen
los servidores de ayer que están
corriendo sobre discos de estado sólido
shop team izadas por el servicio pero
para poder probar y hacer una prueba de
concepto para ver si sus aplicaciones
funcionan o si pueden digamos el negocio
le paga
trabajaron como / pueden usar sin ningún
tipo de problema
si lo que quieren es probar como geo
replicación les proveemos también sin
ningún tipo de costo hay una opción que
se llama try con xavi for free que solo
con una cuenta microsoft es decir una
cuenta outlook punto como una cuenta de
hotmail es para el koleos que tienen
tantos años como yo
aunque tengan una cuenta metros afuera
poder hacer uso de una instancia de como
dividir por 30 días entonces tiene un
conjunto de límites pero dentro de esos
límites pueden hacer geo replicación y
probar todas estas características tanto
la coherencia los diferentes niveles de
coherencia como las diferentes modelos
de apis o de modelos de datos que
progresiones van a poder probar sobre
una instancia viva de cómo se ve la otra
opción que existe en día cuando crean
una una base de datos en el portal de
ellos es que ustedes ya tienen una
suscripción la anterior opción es cuando
no tienen suscripción de ayer pero si ya
tienen una suscripción como bibí y les
ofrece una una opción cuando crean la
cuenta que dice upl eyefinity birdies
count que esto es los primeros 400 se
reduce 5 gigas de almacenamiento que
ustedes tengan en esa cuenta van a ser
gratis
y esto se aplica una vez por suscripción
y una vez que ustedes empiecen a crecer
o sea aumenten la cantidad de reuso
aumente la cantidad de historias se les
va a cobrar la diferencia pero para
pensar a comenzar el solo servicio que
ustedes ya tienen una suscripción de
ayer está bueno porque con 400 se reduce
y 5 gigas almacenamiento pueden bien
hacer cualquier prueba de concepto que
quieran intentar y una más que tenemos
es para los que utilicen surf pipelines
you're the pops para integración
continua en sus despliegues de sus
aplicaciones probemos el emulador como
un paso que pueden agregar a sus tablets
para hacer pruebas de integración
continua de si ustedes tienen una
aplicación que al fin del día terminó
utilizando como divx y pueden crear
tests que se ejecuten cada vez que
ustedes intentan hacer un nuevo
despliegue y estos tests pueden correr
los contra el emulador de como divx y
dentro de sus planes de ayer the box
y detectan algún tipo de regresión algún
tipo de error no pueden cortar el
deployment y toda esta validación no
requiere una instancia de commodity para
realizarla pueden hacerla completamente
con el emulador
en conclusión digamos cubrimos un poco
que es como viví cuáles son los
diferentes modelos de datos con los
cuales podemos trabajar cómo funciona el
xerez aplicación en el servicio cómo
funciona cómo nos da soporte para
escalar dinámicamente tanto en
almacenamiento como en lo que es el
volumen transaccional cuáles son las
diferentes protocolos con los que puedo
interactuar niveles de seguridad s leyes
de rendimiento y terminamos con un
conjunto de próximos pasos que puedo
realizar o pueden ustedes realizar para
empezar a jugar y probar con el servicio
al fin este slide está bueno que se lo
lleven
quiero recalcar quiero destacar uno de
los links ahí que se llama la
calculadora de costos esto también está
enlazado un poco a la pregunta que le
habían hecho a javier de bueno en sí
puede ser como se cuentos de tv puedo
debería producir alguna velocidad reus
como hablamos antes son fijos en base al
volumen transaccional de la misma
operación una y otra vez va a consumir
la misma cantidad de reus
entonces probemos una una calculadora
donde ustedes pueden subir ejemplos de
sus documentos
básicamente ponerlas
de volumen transaccional que va a tener
por segundo que estima que puede llegar
a tener y en base a eso poder darles una
estimación de costos y de reus que
deberían a producir en sus contenedores
para hacer frente a esa demanda y con
eso creo que estamos
excelente
la verdad que un gusto tenerte acá y las
redes muchísima información
que vimos en muy corto tiempo así que
ahí hay gente que está muy contenta con
esto hay un par de preguntas cómo va
siempre bueno preguntaron que podían
usar para trabajar en local obviamente
ya lo mostraste que es emular el
emulador pero acá nos preguntan también
qué características mínimas tiene
trabajar para trabajar localmente con
cosmos debe haber en cuanto a lo que es
los requisitos del emulador está en la
página de muy sinceramente acuerdo pero
nos puede correr en mi notebook que la
verdad que
digamos el hierro como tal es bastante
básico no no tiene grandes
requerimientos para poder correr el
emulador y después bueno la aplicación
que quieran conectar al emulador es
dependerá de la tecnología con la y
realizar y quieren ejecutarlo
perfecto aquí también preguntaba daniel
si la cantidad de réplicas es siempre 4
o si es algo configurable no no no la
cada partición de cómo dividir siempre
tiene cuatro réplicas eso es como está
definido y diseñado el sistema y es es
suficiente para darle alta
disponibilidad a cualquiera de las
protecciones
y por último acá tenemos alejandro que
pregunta qué tanto afecta en cuanto a
velocidad de recuperación obtención de
la información la fragmentación o
partición de la base de datos o no esta
es una pregunta que da un poco más de la
mano con diseño de base de tonos y cual
en no sé cuál por la forma que tiene
almacenamiento la fragmentación de lo
que yo trabajé con si cuesta error y
recuerdo que uno cada tanto tenía que
hacer una una optimización de las tablas
para obviamente luchar contra la
refundación de la información por cómo
está diseñada la base de datos no sé
cuál la fragmentación de la base de
todos como tal no existe lo que sí es
importante es que yo mencioné lo que es
la definición de la clave de partición
la clara de partición ese atributo de
esa columna que va a estar en nuestros
documentos o registros lo ideal y para
esto había un link que había dejado mi
radio anterior pero está bueno que lo
que lo que lo lean explica un poco cuál
sé cuál sería la el atributo o lo
elegido la columna ideal que deberíamos
elegir en diferentes escenarios pero la
idea es que este atributo
asegure que tenemos una frugal
distribución de la información en
múltiples y grandes valores de este
tributo
este ya está aquí digamos este atributo
si logramos hacer que este los valores
sean digamos tenga una fragmenta una
fragmentación que tengan una una
cardinal y that de valores muy grande
nos va a asegurar que vamos a poder
utilizar bien todo el almacenamiento y
todo el aprovisionamiento que tenga
digamos en este caso como ti pero en
cualquier base de torneos y con el
problema de caer en clave de
particionamiento que son que generan
digamos pocos valores es que muy
posiblemente yo caiga lo que se
denominan hot parties jones es decir yo
tengo un subconjunto de mi información
que va a tener un valor de
posicionamiento de yo le voy a estar
pegando con la mayor cantidad de
transacciones y un conjunto de otra
información que no va a estar haciendo
nada entonces no existe la fragmentación
de datos pero lo que es clave en las
bases en un círculo es pegarle bien con
la clave de particionamiento y
asegurarme que cuando yo estoy guardando
información está distribuyendo bien a
través de todos los valores
y efectivamente porque no nos olvidemos
que detrás de esto hay hardware y cada
partición es una máquina con lo cual
mientras mejor distribuyamos esa
información más fácil estamos haciendo
el trabajo esas máquinas para trabajar
en paralelo unas con otras y devolverán
transformación de esta forma súper
rápido que tiene de saber exactamente si
yo tengo como dije antes y tengo una
partición estas compartimientos
sirviendo por un conjunto de máquinas
esas máquinas van a tener un límite si
yo tengo un montón de otras máquinas que
no estoy usando lo ideal sería poder
distribuir la carga y usarlas todas
excelente y última pregunta que tenemos
acá es cómo es el proceso de backup y
rector para cómo vivieron gran pregunta
bueno actualmente lo que tiene como bibí
que es que tiene un backup automático y
no me acuerdo si era cada cuatro horas y
ustedes pueden solicitar los blogs
backups o puedo pedir un rector del
servicio a tal día en particular lo que
se está agregando dentro de poco tiempo
no tengo la fecha
digamos fija pero se llama el backup
bajo demanda de ustedes bueno de poder
pedirle un backup dame un backup de
ahora y bueno ese paquete nuevo lo
pueden reutilizar en base a un rector en
el futuro pero hoy en día no pueden
definir digamos o pedir un backup de
ahora tienen que utilizar alguno de los
casos automáticos que ya tienen
servicios es algo que los clientes y los
usuarios han pedido mucho
el equipo lo ha estado escuchando sólo
que a realizar backups y restaurar
digamos en tiempo real por una base que
está distribuida no es algo sencillo
entonces el equipo obviamente estaba
trabajando una solución que esté a la
altura de lo que merecen nuestros
usuarios así que en breve va a haber va
a estar a esta característica que se va
a llamar point tinta de un proyector y
fue mencionado en build pero no me
acuerdo cuál era el roadmap o la fecha
de que va estar público
perfecto para ti
para aquellas personas que estamos
siendo arrancando
a desarrollar una aplicación a probar
tienen que decir tienen
tienen la suerte de decidir qué motor de
base de datos potencializar porque ya
eso es una suerte dio el proyecto no
evitó porque irá como deben
en una pyme está realizando tiene te
pongo tres escenarios sistemas de
gestión es el punto número uno un
sistema de gestión gestión
administrativa contable punto número 2
seguros
y punto número 2 un banco
complicada
el tema es el siguiente y es una
pregunta que me han hecho mucho o sea
como divide mejor que se conserva esa
vena reemplaza en el etna como dije
antes es una gran caja de herramientas
y hay escenarios para todos ahora qué
escenario voy a atacar como civil en el
caso de nuestro primero que mencionas
que me quedo en la cabeza del sistema de
gestión por ejemplo un equipo de
desarrollo sistema de gestión tenemos un
sistema de gestión está gestionando
personas las personas son objetos
complejos
entonces yo tengo un escenario donde mi
esquema de información que creo que yo
voy a manejar no está definido o sea
donde los datos pueden evolucionar
imágenes en una base transaccional donde
yo tengo que a medida que la información
que yo intento indexar ahora las
personas tienen fecha de cumpleaños o
después tengo el piso agregar cómo van
cambiando los datos digamos que tenéis
que alojar de las personas
en un momento además de las personas
vamos a alojar a las mascotas que tienen
entonces ya empezó a tener digamos que
mi esquema en floración empieza a
complejizarse ya así que intentó meterse
en una tabla tengo que empezar a cargar
columnas y asegurarme que los índices
que había creado anteriormente sigan
funcionando
hay fragmentación de la información hay
escenarios como ese donde los esquemas
son diversos y me van a multar con el
uso otros muy como muy común es una
tienda sí imagínense no voy a mencionar
ninguna tienda en particular pero
imagínense una tienda donde vendemos
libros y autos si entonces no puedo
guardar un libro y un auto en una base
de datos transa transaccional relación
porque claro claro pero si después el
usuario en el tri una búsqueda por texto
y me dice
volkswagen y yo tengo libros de la
historia de fuerza y tengo
volkswagen en venta de cómo hago para
darle al usuario hacer una búsqueda en
diferente esta es una es una pesadilla
entonces en ese escenario donde tengo
múltiples y diferentes esquemas de
información como de viva si yo tengo
escenario de autismo piense que estoy a
perdón para ser claros en cómo viví que
tendría básicamente en ese arbolito que
mostraste tendría un contenedor y ahí
puedo guardar y ahí puedo guardar libros
marcas de autos o lo que quiera lo que
tengan diferentes cada registro lo que
para mí es registro que es un documento
puede llegar a ordenar diferentes
columnas que entraría son atributos que
ahí son básicamente y yo tengo que
respetar ningún esquema no de hecho es
una persona entre sí y otro puede tener
diferentes
diferente información no tengo que
empezar con a jugar con las columnas en
uno
eso no existe después el escenario de
haití si yo tengo sensores que están en
mi imagen
los autos automáticos están ahora
surgiendo por todos lados y pensando en
un auto pues tener sensores que miden la
velocidad sensores que miden las
presiones sensores que miden un montón
de cosas cada sensor el esquema de
información que toma la información y la
guarda es diferencia entonces yo tengo
una arquitectura donde yo estoy
recibiendo volúmenes de datos de
sensores yo tengo que hacer que esa esa
persistencia y el proceso de la
información sea lo más rápido posible
tengo que poder
absorber cualquier esquema y si el día
mañana el fabricante del sensor agarra
el y agrega un dato más no puedo de
repente que explote mi aplicación porque
no tengo la columna para guardar el dato
es otro escenario después lo que es
bancos tenemos muchos bancos de
latinoamérica que están montados sobre
cómo vivir
mayormente por lo que son la capacidad
de geo replicación
digamos de alta disponibilidad de la
información como podíamos hacer en el
diseño desde el anillo de serie fábrica
para que se caiga totalmente un
contenedor se tiene que caer en una sola
región agregar cuatro máquinas que están
al mismo tiempo que están distribuidas
en cuatro racks diferentes
en 16 dominios de fallas porque cada
partición está respaldado por esa
posibilidad eso es es bastante baja
entonces pero es exactamente debería
haber una tormenta eléctrica que bajen
el docente entero
si no no no vale no digo hay un conjunto
de tenemos casos de uso documentados que
también están en los links con los que
digamos que pueden venir y decir bueno
tengo este escenario va con con con
costos de vida sí no
mi reflejo siempre principales yo así
como desarrollador con una base de una
tabla desarrollo y ahora cuando vos con
la estás intentando meter un simple
acuerdo de apoyo 13 y el tipo intento de
meter en el jugo adentro del cilindro si
cuesta hacer una en un escenario del
cual te das cuenta que estás linden
haciendo lo posible por meter cosas en
tablas donde las digamos que no no eso
no ha se está forzando la creando tablas
máster con tablas índices con de no va
eso es un claro ejemplo lo que debía
estar utilizando una base todos nou
cicle bien la verdad que es súper
interesante lo que comentas por dos
razones primero porque además de no
tener que preocuparnos por el esquema y
poder meter diferentes atributos
dependiendo la inserción que haga de
datos encima tiene un soporte geo
replicado tremendo
y encima tenemos un taller frío no sea
encima lo podemos usar gratuito en
determinadas ocasiones les comento a
todo lo que están conectados los que nos
están viendo que durante el curso vamos
a poner módulos específicos de
en esos ejercicios que vamos a hacer
van a poder comprobar realmente qué
fácil es poder crear una base de datos
en el cosmos finalmente tener un
contenedor y empezar a quitarle datos de
personas al modelo acceder y lo que
tenemos es con datos de personas que no
guardo los datos iguales de las personas
unas a otras en alumnos guardo en qué
país son otros no otros guardo la fecha
de nacimiento en otros no y vamos a ver
cómo realmente esto es muy simple de
hacer y no manejar ni un error porque en
un sql de hecho hacemos la comparativa
en sql tenemos que empezar a poner
columnas nulas que acepten muchos por lo
menos este problema exactamente pero
bueno javi javi no mata javi nos va a
matar y matías mil gracias por todo el
tiempo por toda la explicación
comentaron que hay algunos que van a
tener que reproducir el vídeo al 0,5 de
velocidad
[Risas]
ahí tenemos que tener un médico después
de gente simple de hecho de hecho los
invitamos a todos a
a ir a la exposición que la vamos a
agarrar empezada pero la vamos a poder
aprovecharlo más bien muchas gracias a
todos los que están conectados a todas
las que están conectados nos vemos el
jueves en dos días a las 9 pm utc
horario central recuerden utilizar el
conversor de horario para no confundirse
donde vamos a ver muchísimos muchísimos
temas más puntualmente te acordás que
íbamos a ver el jueves
sí porque estoy abriendo el documento el
10 jueves tenemos temas de contenedores
en el sur tenemos parte de redes la
parte de balanceadores y vamos a estar
viendo el tema de logic apps que lo
habíamos visto un poquito muy muy por
encima cuando vimos functions así que
vamos a estar viendo en profundidad
sobre ese servicio excelente
matt y un placer tenerte muchísimas
gracias todo el vídeo y todo el material
que da en el sistema de aprendizaje
porque ya te van a poder ver en 0,5 de
reproducción sin problemas van a poder
ver las diapositivas van a poder ver
todos los links y los invitamos a todos
a sumarse azul en el bar le dejamos la
url en los comentarios del chat para ti
un placer gracias por la mitación y
bueno
a darle las gracias a todos
i
[Música]
5.0 / 5 (0 votes)