Primer ETL Usando SQL Server Data Tools

Elena López
23 Jun 202015:31

Summary

TLDREn este tutorial práctico, se muestra cómo utilizar las herramientas de Microsoft para configurar y diseñar un proceso de ETL. El objetivo es exportar datos de una tabla llamada 'fifa' en una base de datos 'ss' a otra base de datos llamada 'destino'. Se inicia eliminando contenido previo y seguidamente se crea un paquete, se establece una conexión a la instancia de origen de datos, y se configura un Data Flow. Se selecciona la tabla de origen, se establece la conexión y se configura el destino, asegurándose de que los nombres de las columnas coincidan para el mapeo automático. Finalmente, se ejecuta el flujo de datos para verificar que los datos se exportaron correctamente, y se sugiere que en el próximo video se explorarán técnicas para agregar paquetes existentes a un proyecto en SQL Server Data Tools.

Takeaways

  • 😀 El video es una guía práctica sobre cómo utilizar las herramientas de Microsoft para configurar y diseñar una tarea de ETL.
  • 📝 Se comienza eliminando el contenido de una tabla previamente creada para realizar el ejercicio práctico.
  • 🔗 Se menciona la necesidad de exportar datos desde una tabla llamada 'fifa' en una base de datos 'ss' a otra base de datos llamada 'destino'.
  • 🧼 Se realiza una limpieza en la tabla 'fifa' dentro de la base de datos 'destino' para prepararla para la inserción de datos.
  • 🔧 Se crea un paquete y se le renombra a 'fifa' para comenzar la configuración de la conexión a la instancia de origen de datos.
  • 🔄 Se establece una conexión OLEDB a la instancia de origen de datos especificando el servidor, método de autenticación y la base de datos.
  • 🔍 Se verifica la conexión a la instancia de origen de datos haciendo clic en 'probar conexión'.
  • 📚 Se crea un 'Data Flow' para gestionar las tareas relacionadas con la transferencia de datos.
  • 🔌 Se selecciona y configura el origen de datos, en este caso, una conexión a SQL Server, y se especifica la tabla 'fifa' como fuente.
  • 📈 Se agrega y configura el destino de los datos, que es otra base de datos en SQL Server, y se establece la conexión hacia la base de datos 'destino'.
  • 🔗 Se enlazan los componentes del Data Flow asegurando que el flujo de datos sea secuencial y se manejen posibles errores.
  • 🗂 Se realiza el mapeo de columnas entre el origen y el destino, asegurando que los datos se inserten correctamente en la tabla de destino.
  • 🚀 Se ejecuta el paquete para verificar que los datos se transfieren correctamente de la tabla de origen a la tabla de destino.
  • 📹 En el próximo video se discutirán técnicas para agregar paquetes existentes a un proyecto de SQL Server Data Tools.

Q & A

  • ¿Qué es lo que vamos a realizar en el video?

    -En el video vamos a realizar nuestro primer ejercicio práctico utilizando la herramienta de Microsoft para la configuración y diseño de ETL, eliminando contenido de una tabla y exportando datos desde una base de datos llamada 'ss' a otra llamada 'destino'.

  • ¿Cuál es la primera acción que se realiza en el proceso práctico?

    -La primera acción es eliminar el contenido que ya había en la tabla del primer ejemplo anteriormente creada.

  • ¿Qué herramienta de Microsoft se utiliza para este ejercicio práctico?

    -Se utiliza la herramienta de Microsoft SQL Server Data Tools (SSDT) para la configuración y diseño de ETL.

  • ¿Cómo se asegura que la eliminación de la tabla se haya realizado correctamente?

    -Se ejecuta una query para limpiar la tabla y se verifica que se haya ejecutado correctamente.

  • ¿Qué es un paquete en el contexto de SQL Server Data Tools?

    -Un paquete en SQL Server Data Tools es una colección de tareas y flujos de datos que se pueden ejecutar juntas para realizar una tarea específica, como el movimiento de datos.

  • ¿Cómo se renombra un paquete en SQL Server Data Tools?

    -Se hace clic derecho sobre el paquete y se selecciona la opción de renombrar, luego se introduce el nuevo nombre que refleje la tarea que realiza.

  • ¿Qué es una conexión OLEDB y cómo se crea en SQL Server Data Tools?

    -OLEDB es un protocolo de acceso a datos que permite conectarse a diferentes fuentes de datos. Para crear una conexión en SQL Server Data Tools, se hace clic derecho en el espacio de conexiones y se selecciona 'Crear nueva conexión', especificando el servidor, método de autenticación y la base de datos.

  • ¿Qué es un Data Flow y cómo se crea en SQL Server Data Tools?

    -Un Data Flow es una parte integral de un paquete de SQL Server Data Tools que se utiliza para mover datos entre orígenes y destinos. Se crea haciendo clic derecho y seleccionando 'Nuevo Data Flow...'.

  • ¿Qué son las tareas Source y Destination y cómo se utilizan en un Data Flow?

    -Las tareas Source y Destination son componentes clave en un Data Flow que se utilizan para definir el origen de los datos y el destino donde se moverán los datos respectivamente. Se seleccionan y se configuran para trabajar con una conexión específica.

  • ¿Cómo se configura el origen de datos en un Data Flow?

    -Se selecciona el tipo de conexión o origen de datos, se elige la base de datos y se especifica la tabla o vista desde la que se obtendrán los datos. También se puede hacer una previsualización de los datos y seleccionar las columnas que se utilizarán.

  • ¿Qué es el mapeo de columnas y cómo se realiza en SQL Server Data Tools?

    -El mapeo de columnas es el proceso de asociar las columnas del origen con las del destino para asegurar que los datos se muevan correctamente. Se realiza seleccionando las columnas en el origen y mapeándolas a las correspondientes en el destino.

  • ¿Cómo se garantiza que los datos se muevan correctamente de un origen a un destino en un Data Flow?

    -Se configuran correctamente las conexiones de origen y destino, se eligen las tablas y columnas adecuadas y se prueba la ejecución del Data Flow para verificar que los datos se mueven como se espera.

  • ¿Qué se puede hacer si los nombres de las columnas en el origen y el destino no coinciden?

    -Si los nombres de las columnas no coinciden, se puede mapear manualmente cada columna seleccionando el nombre correspondiente en el origen y en el destino.

  • ¿Cómo se maneja un error en el proceso de un Data Flow?

    -Se pueden arrastrar flechas rojas desde el componente donde se produjo el error hacia otro componente, como un archivo de Excel, para manejar el error de una manera específica.

  • ¿Qué indica el cheque verde en SQL Server Data Tools al ejecutar un Data Flow?

    -El cheque verde en SQL Server Data Tools indica que el Data Flow se ha ejecutado correctamente sin errores.

Outlines

00:00

😀 Configuración de la tarea de exportación de datos

En este primer párrafo se describe el proceso de configuración de un ejercicio práctico utilizando herramientas de Microsoft para la gestión de datos. Se inicia eliminando contenido de una tabla previamente creada y se verifica la ejecución del comando. Luego, se exporta información de una tabla llamada 'fifa' en la base de datos 'ss' a otra base de datos llamada 'destino'. Se menciona la creación de un paquete y la configuración de una conexión a la instancia de origen de datos. Se detalla el proceso de selección de servidor, autenticación y base de datos, así como la verificación de la conexión. Finalmente, se comienza el diseño de un 'data flow' para gestionar el movimiento de datos.

05:02

😉 Elección y configuración del origen de datos

Este párrafo se enfoca en la selección y configuración del origen de datos para el 'data flow'. Se destaca la importancia de renombrar objetos y se describe el proceso de conexión a una tabla o vista y la opción de escribir una consulta SQL. Se elige la primera opción para conectarse directamente a una tabla y se selecciona la tabla 'fifa'. También se menciona la posibilidad de previsualizar datos y la configuración de columnas, incluyendo el cambio de nombres si es necesario. Se concluye con la adición de un destino al 'data flow' y la necesidad de enlazar componentes en secuencia para garantizar la ejecución correcta de la tarea.

10:07

🎯 Configuración del destino y mapeo de columnas

En el tercer párrafo, se aborda la configuración del destino de los datos y cómo mapear las columnas del origen al destino. Se detalla el proceso de crear una conexión de destino y la selección de la base de datos y tabla donde se enviarán los datos. Se menciona la opción de realizar una carga rápida y se describe el mapeo automático y manual de columnas, destacando la importancia de que los nombres coincidan para el mapeo automático. Se concluye con la finalización del diseño del 'data flow' y la ejecución de la tarea para verificar su correcto funcionamiento, asegurándose de que la tabla de destino esté vacía antes de la ejecución.

15:08

📚 Próximos pasos: Agregar paquetes existentes a un proyecto

El último párrafo del script indica que en el próximo video se abordará cómo agregar paquetes existentes a un proyecto en SQL Server Data Tools. Esto sugiere que el contenido siguiente se centrará en la integración y gestión de paquetes en un entorno de desarrollo de soluciones de datos.

Mindmap

Keywords

💡SSIS

SSIS (SQL Server Integration Services) es una herramienta de Microsoft para la integración y transformación de datos. En el video, se utiliza SSIS para configurar y diseñar el flujo de datos entre diferentes bases de datos. Se menciona cuando se habla de la creación de paquetes y la conexión a instancias de datos.

💡Data Flow

Data Flow es una parte fundamental de SSIS que se encarga del movimiento de datos de un origen a un destino. En el video, se aborda el diseño del Data Flow para exportar datos de una tabla llamada 'fifa' en una base de datos 'ss' a otra instancia llamada 'destino'.

💡Origen de datos

Origen de datos hace referencia al punto de partida de los datos en una operación de integración o transformación. En el contexto del video, el origen de datos es la tabla 'fifa' en la base de datos 'ss', de donde se extraerán los datos para ser exportados.

💡Destino de datos

Destino de datos es el lugar final donde se dirigirán los datos tras su transformación o movimiento. En el video, el destino de los datos es una base de datos en la instancia 'destino', donde se creará o se vaciará una tabla para recibir los datos exportados.

💡Conexiones

Las conexiones son enlaces establecidos entre el servidor de SSIS y las bases de datos de origen y destino. Se crean conexiones para autenticarse y acceder a las bases de datos donde residen los datos de interés. En el video, se habla de la creación de conexiones con servidores SQL para establecer el origen y destino de los datos.

💡Transformación de datos

La transformación de datos es el proceso de manipular o cambiar la estructura de los datos de una forma u otra para satisfacer necesidades específicas. Aunque en el video no se realiza ninguna transformación, se menciona como una parte potencial del flujo de datos SSIS.

💡Exportación de datos

La exportación de datos es el acto de mover datos desde una ubicación a otra, generalmente desde una base de datos a un archivo o a otra base de datos. El video se centra en la exportación de datos de una tabla en una base de datos a otra.

💡Consulta SQL

Una consulta SQL (Lenguaje de Consulta Estructurada) es una instrucción utilizada para recuperar o manipular datos en una base de datos. En el video, aunque no se profundiza en la escritura de consultas SQL, se sugiere su uso como una opción para seleccionar los datos de origen.

💡Mapeo de columnas

El mapeo de columnas es el proceso de asociar columnas de datos de origen con columnas en el destino para asegurar que los datos se muevan de la manera correcta. En el video, se destaca el mapeo automático de columnas cuando tienen el mismo nombre y la posibilidad de mapear manualmente si es necesario.

💡Administración de errores

La administración de errores implica tener en cuenta lo que sucede si algo sale mal en el proceso de integración de datos. En el video, se menciona la posibilidad de manejar errores al dirigir el flujo de datos hacia un archivo de Excel en caso de fallo, aunque en este caso se decide no utilizar esa opción.

💡Proyectos de SSIS

Un proyecto de SSIS es una colección de paquetes relacionados que se trabajan en SQL Server Data Tools (SSDT). El video sugiere que en futuras sesiones se abordará cómo agregar paquetes a un proyecto existente en SSIS.

Highlights

El video comienza con la intención de realizar un ejercicio práctico sobre la herramienta de Microsoft para la configuración y diseño de ETL.

Se menciona la eliminación del contenido de una tabla previamente creada para comenzar el ejercicio.

Se destaca la necesidad de exportar datos desde una tabla llamada 'ss.fifa' a una base de datos llamada 'destino'.

Se realiza una limpieza en la tabla 'fifa' de la base de datos 'destino' para prepararla para el ejercicio.

Se crea un paquete y se le renombra a 'fifa' para comenzar la configuración de la conexión de origen de datos.

Se crea una conexión a la instancia de origen de datos mediante una conexión OLEDB.

Se especifica el nombre del servidor, método de autenticación y la base de datos a utilizar en la conexión.

Se verifica la configuración de la conexión haciendo clic en el botón 'probar conexión'.

Se crea un Data Flow para gestionar las tareas relacionadas con el movimiento de datos.

Se selecciona SQL Server como origen de datos y se establece la conexión con la base de datos.

Se elige la tabla 'fifa' como fuente de datos y se accede a sus registros para previsualización.

Se seleccionan las columnas de la tabla 'fifa' que se desea trabajar y se renombran si es necesario.

Se agrega una tarea de destino a la configuración y se establece una nueva conexión a la base de datos de destino.

Se enlazan los componentes del Data Flow para asegurar una secuencia de ejecución correcta.

Se configura el destino del Data Flow, especificando la tabla de destino y cómo se van a mapear las columnas.

Se mapean manualmente las columnas entre el origen y el destino si los nombres no coinciden.

Se utiliza la opción 'by machinegames' para mapear automáticamente las columnas cuando tienen el mismo nombre.

Se ejecuta el paquete diseñado en SQL Server Data Tools para probar la configuración del Data Flow.

Se verifica que los datos se hayan exportado correctamente a la base de datos de destino.

Se anuncia que en el próximo video se hablará sobre cómo agregar paquetes existentes a un proyecto de SQL Server Data Tools.

Transcripts

play00:01

bien en este vídeo vamos a entrar ya

play00:05

como habíamos acordado en la parte

play00:08

totalmente práctica realizando nuestro

play00:12

primer ejercicio dentro de ese puede

play00:14

servir lata tours vamos como tarea a

play00:19

crear el mismo de el que habíamos

play00:22

realizado a través del management

play00:24

estudio pero ya utilizando la

play00:27

herramienta que microsoft nos proveen

play00:29

para la configuración y diseño de teles

play00:35

lo primero que vamos a hacer es eliminar

play00:38

el contenido que tenemos en la tabla que

play00:42

ya habíamos creado

play00:46

en nuestro primer ejemplo anteriormente

play00:49

hacemos un truco kate vemos que se

play00:52

ejecutó de manera correcta y volvemos a

play00:55

nuestro ambiente de trabajo les recuerdo

play00:58

que lo que vamos a hacer es exportar

play01:01

desde la tabla desde la base de datos

play01:03

que se llama ss y ese la tabla llamada

play01:08

fifa a donde la vamos a exportar a la

play01:11

base cita de datos que tenemos en la

play01:14

misma instancia llamada destino

play01:17

lo primero que vamos a hacer es limpiar

play01:20

la tabla que ya teníamos dentro de la

play01:24

base de cita de datos que se llama

play01:25

destino con el nombre fifa exportada ya

play01:28

tengo la query aquí escrita simplemente

play01:31

la ejecutamos y nos aseguramos que se

play01:34

ejecute de manera correcta

play01:37

como primer paso ya yo he creado acá un

play01:40

paquete y luego es renombrado con el

play01:43

nombre de fifa lo primero que vamos a

play01:46

hacer es crear nuestra conexión a la

play01:50

instancia que se encuentra donde se

play01:53

encuentra nuestro origen de datos para

play01:57

eso hacemos clic derecho sobre el

play02:01

espacio utilizado para crear las

play02:03

conexiones y elegimos una conexión de

play02:07

tipo oled seleccionamos la opción de

play02:10

crear una nueva conexión y aquí

play02:14

procedemos a especificar cuál es el

play02:17

nombre de nuestro servidor el método de

play02:20

autenticación y la base de datos que

play02:23

vamos a estar utilizando

play02:26

les había dicho que se encuentran dentro

play02:29

de ss y es

play02:32

si deseo probar que todo está

play02:35

configurado de forma correcta hago un

play02:38

clic sobre el botón probar conexión

play02:41

vemos que está bien y continuamos

play02:46

nuestro diseño de lt l

play02:50

ya vemos acá que tenemos nuestra primera

play02:52

conexión creada luego de eso les había

play02:56

comentado en el vídeo anterior que todos

play03:01

los todas las tareas que están

play03:02

relacionadas con llevar datos o mover

play03:06

datos o exportar datos de un origen a un

play03:09

destino deben realizarse a través de un

play03:14

data flow de acuerdo si presionamos la

play03:18

tecla f 2 o hacemos un clic derecho y

play03:22

renombra mos ese objeto podemos ponerle

play03:26

como les he exhortado en otras

play03:29

oportunidades un nombre que haga alusión

play03:35

a la tarea que realiza el objeto que

play03:39

estamos trabajando en este momento una

play03:42

vez renombrado procedemos a el diseño de

play03:45

nuestro data flow haciendo doble clic

play03:49

sobre él y lo siguiente que vamos a

play03:52

configurar es el origen de nuestros

play03:55

datos

play03:58

ya tenemos acá la conexión y aquí tengo

play04:01

dentro de favoritos en el pool bots de

play04:05

integration services las dos tareas que

play04:08

más utilizamos en un data flow el source

play04:11

y el destination como primera opción

play04:14

vamos a elegir naturalmente el origen de

play04:18

edad

play04:19

acá le voy a decir con qué tipo de

play04:24

conexión o con qué tipo de origen de

play04:26

datos voy a estar trabajando selecciono

play04:29

sql server y como ya tengo creada mi

play04:33

conexión simplemente debo elegir la aca

play04:36

a la derecha en el caso contrario que la

play04:39

conexión no existiera pudiera crearla

play04:42

simplemente presionando acá el botón de

play04:45

'me o dando doble clic sobre él

play04:51

continuamos entonces y ya tengo mi sol

play04:54

conectado a la base de datos pero me

play04:57

falta

play04:59

la siguiente etapa de la configuración

play05:01

que es saber de dónde vienen esos datos

play05:04

elegir correctamente mi fuente

play05:09

como siempre les digo renombrar

play05:13

cada uno de los objetos

play05:16

hacemos doble clic sobre el soul y nos

play05:20

va a salir acá un editor que si bien es

play05:23

cierto que tiene unas opciones más

play05:26

avanzadas en este momento vamos a

play05:29

enfocarnos únicamente en lo básico

play05:32

dentro del acceso a los datos puedo

play05:35

elegir una de cuatros opciones las que

play05:39

vamos a estar utilizando con mayor

play05:43

frecuencia es la primera que se va a

play05:45

conectar directamente a una tabla o a

play05:48

una vista y la tercera que nos va a

play05:52

permitir escribir una consulta sql

play05:56

con código transfer en el caso nuestro

play05:59

vamos a irnos directamente a la primera

play06:02

opción

play06:04

y en esta lista desplegable elegimos la

play06:07

tabla con la que vamos a estar

play06:10

trabajando

play06:11

valga la aclaración que en este mismo

play06:14

apartado se listan también las vistas en

play06:18

el caso que estén creadas dentro de la

play06:21

base de datos de la conexión que hayamos

play06:24

elegido acá

play06:26

podemos también dentro de esta pantalla

play06:31

visualizar o hacer una previsualización

play06:34

de los datos nos brinda alrededor de 200

play06:38

de 200 registros desde la tabla o la

play06:43

vista que estemos utilizando como fuente

play06:46

de datos

play06:48

esta parte de acá me va a mostrar las

play06:51

columnas con las que yo realmente deseo

play06:55

trabajar si las voy a utilizar todas si

play06:58

solamente voy a utilizar algunas si

play07:02

deseo

play07:02

cambiarle el nombre de salir de esas

play07:05

columnas porque así me lo exige un

play07:10

documento técnico por un tema de

play07:12

estándares o por la razón que fuera

play07:14

simplemente aquí podemos cambiarle o

play07:19

agregarle cualquier nombre

play07:23

las columnas que van a ir como salida

play07:28

vamos a dejar todo tal cual y hacemos

play07:31

clic en el botón no crema

play07:34

como no vamos a trabajar ninguna

play07:37

transformación desde nuestro origen a

play07:40

nuestro destino recuerden que estamos

play07:42

emulando el ejemplo que hicimos

play07:45

directamente desde el manejo en estudio

play07:47

lo que vamos a hacer es agregar

play07:52

destino a nuestro eterno de acuerdo

play07:57

como destino estoy también utilizando

play08:01

una base cita de datos hecha en sql

play08:04

server voy a proceder a crear una nueva

play08:07

conexión

play08:09

para indicarle

play08:12

a mi objeto de destino en este caso

play08:15

hacia donde me va a llevar los datos que

play08:20

tenemos dentro de la tabla fifa

play08:24

y todo lo demás lo voy a dejar igual y

play08:26

aquí voy a seleccionar

play08:29

la base de datos de destino pruebo que

play08:33

mi conexión se realice de manera

play08:36

satisfactoria

play08:38

y procedo a presionar el botón ok

play08:42

vamos a cambiar acá ponerle un nombre es

play08:46

cierto

play08:50

y lo próximo que debo hacer es enlazar

play08:52

esos dos objetos es importante que sepan

play08:57

que si bien es cierto con el control

play08:59

flow puedo tener n cantidad de

play09:03

componentes que se ejecuten en paralelo

play09:05

o sea que no sean dependientes uno del

play09:09

otro

play09:10

dentro del data flow esa condición si es

play09:13

totalmente inevitable que exista sea una

play09:17

acción sucede después que otra termina

play09:20

de acuerdo

play09:26

la forma de enlazar mis componentes es

play09:29

arrastrando la flecha de color azul en

play09:34

este caso hacia el componente que se va

play09:38

a ejecutar inmediatamente el anterior

play09:41

termine en el caso de que queramos de

play09:45

algún modo de gestionar los errores

play09:49

imaginando que algo falló algo salió mal

play09:51

en este componente entonces quiero

play09:54

enviar que eso que sucedió mal quiero

play09:57

manejar ese error de una manera

play10:00

particular entonces podemos arrastrar

play10:06

la flecha roja hacia cualquier otro

play10:10

destino

play10:11

y lo que va a hacer es que

play10:13

inmediatamente este objeto falle va a

play10:17

tomar la ruta que está en este caso

play10:19

apuntando hacia el archivo de excel y

play10:21

voy a eliminarlo porque no lo vamos a

play10:24

utilizar en este momento y procedemos

play10:27

entonces a dar doble clic sobre nuestro

play10:30

destino porque aquí nos faltan dos de

play10:34

las cosas más importantes la número uno

play10:37

es hacia dónde vamos a enviar esos datos

play10:39

ya con ya configuramos la conexión de

play10:43

destino pero nos falta elegir hacia qué

play10:46

tabla vamos a enviar esos datos y cómo

play10:50

se van a mapear cómo se van a combinar

play10:53

las columnas desde mi origen hacia mi

play10:56

destino donde yo voy a insertar el aire

play10:59

y dónde voy a insertar el nombre porque

play11:02

no siempre se van a llamar del mismo

play11:04

modo aunque en el ejemplo que estamos

play11:06

utilizando para hacerlo más fácil y más

play11:09

práctico si trate de que se llamaran

play11:12

igual

play11:13

dentro d

play11:16

la pantalla de configuración que yo

play11:19

tengo acá seleccionada como lo hicimos

play11:21

acá con el componente de destino mi

play11:24

conexión tengo varias formas o varias

play11:28

modalidades de cargar o no datos

play11:32

no voy a abundar mucho en este tema

play11:34

porque hay algunos factores ahí que son

play11:36

un poquito más profundo y que son de

play11:38

temas

play11:40

un mayor nivel de avance

play11:43

en este caso lo vamos a dejar como una

play11:45

carga rápido a una vista oa una tabla de

play11:49

acuerdo

play11:51

lo dejamos tal cual y lo que hacemos acá

play11:54

es seleccionar el destino hacia dónde

play11:58

vamos a enviar esos datos tienen la

play12:00

opción aquí de crear una tabla desde

play12:02

cero tal como habíamos visto en el

play12:04

ejemplo desde el manejo en estudio en

play12:07

nuestro caso como ya existe esta opción

play12:09

es totalmente innecesario hay una serie

play12:14

de opciones acá que cuando estemos

play12:17

adentrando

play12:20

a niveles más avanzados vamos a ir

play12:23

explicando los con mayor nivel de

play12:25

detalle

play12:28

inmediatamente tenemos ya ha configurado

play12:30

nuestro destino

play12:33

el pdl no está del todo terminado hasta

play12:38

que no hago acá el cruce de las columnas

play12:42

o el mapeo les había comentado que como

play12:45

se llaman igual el aquí lo lo mapeo de

play12:51

manera automática

play12:53

en caso de que no sea así que no se

play12:56

llaman del mismo modo podemos elegir de

play13:00

esta desde esta lista desplegable cada

play13:04

una de los nombres de las columnas y su

play13:06

correspondiente en el destino bien

play13:12

play13:15

si se fijan acá he eliminado varias

play13:19

varios de los mapeos o de los cruces

play13:22

entre las columnas de origen y destino

play13:24

para para mostrarles la forma en que

play13:27

pueden mapear columnas de manera manual

play13:31

y de manera automática siempre y cuando

play13:34

coincidan en el nombre aunque se llamen

play13:37

del mismo modo de manera manual todo lo

play13:41

que debo hacer como les comentaba

play13:42

anteriormente es elegir acá la columna

play13:46

que se corresponde en el origen y

play13:49

destino

play13:51

y de manera automática todo lo que debo

play13:53

hacer siempre y cuando vuelvo y recalco

play13:56

los nombres sean iguales es hacer un

play14:00

clic derecho en esta en esta área de

play14:03

trabajo y seleccionar la última opción

play14:06

que lo va a hacer ahí lo dice

play14:09

perfectamente by machinegames será

play14:12

cuando los nombres sean totalmente

play14:14

iguales ahí queda ya ha configurado mi

play14:19

destino hacemos clic en el botón ok y si

play14:23

queremos probar que realmente todo

play14:25

funciona vamos a comprobar primero que

play14:29

la tabla está

play14:32

vacía no contiene ningún valor

play14:36

ejecutamos nuestro cuadro y

play14:38

efectivamente vemos que no hay nada

play14:42

y acá procedemos entonces a ejecutar ya

play14:46

nuestro primer hotel diseñado de este el

play14:52

sql server data tools

play14:56

me está indicando con este cheque verde

play14:59

que todo salió correctamente para

play15:01

detenerlo debo hacer click en el botón

play15:05

ok

play15:07

y vamos a comprobar que los datos están

play15:12

ya exportado de manera correcta en

play15:17

nuestro siguiente vídeo vamos a estar

play15:19

conversando sobre la manera de agregar

play15:22

paquetes ya existente a un proyecto de

play15:26

sql server data tools

Rate This

5.0 / 5 (0 votes)

Related Tags
SQL ServerData ToolsExportar DatosTutorialBases de DatosConexionesData FlowTransformaciónConfiguraciónMapeo Automático
Do you need a summary in English?