Metodología de la investigación (Capítulo 10)
Summary
TLDREl guion del video ofrece una revisión de conceptos estadísticos esenciales para el análisis de datos cuantitativos. Se discuten variables de investigación y datos, así como la importancia de entender su diferencia. Se exploran medidas de tendencia central y variabilidad, y se introducen conceptos de normalidad y significancia en el contexto de la investigación. El guion también menciona herramientas computacionales y métodos para calcular la confiabilidad de instrumentos de investigación, con un enfoque en la interpretación de los datos y la visualización gráfica para facilitar la comprensión.
Takeaways
- 📊 La importancia de realizar una revisión de conceptos estadísticos antes de iniciar un análisis de datos cuantitativos.
- 🔍 Se enfatiza el uso de programas computacionales para el análisis de datos, aunque no se detallan específicamente debido a las constantes actualizaciones y variabilidad del contexto de cada investigador.
- 📈 La distinción entre variables de datos y variables de investigación, siendo las primeras las que se miden y las segundas las que se estudian o se buscan demostrar a través de hipótesis.
- 📝 La necesidad de claridad en la identificación de las variables de investigación para evitar confusión con las matrices de datos.
- 📊 La explicación de las distribuciones de frecuencias y su importancia en el análisis de datos, incluyendo la diferencia entre frecuencias absolutas y porcentajes.
- 📈 La representación gráfica de las distribuciones de frecuencias, destacando diferentes tipos de gráficos y su utilidad para la interpretación de datos.
- 📊 La introducción a las medidas estadísticas de tendencia central, como la mediana y el promedio, y cómo afectan la ubicación de una distribución.
- 📉 La discusión sobre medidas de variabilidad, como el rango y la desviación estándar, que indican la dispersión de los datos en una escala de medición.
- 📊 La importancia de conocer las medidas de curtosis y esceptroidez para evaluar la forma de una distribución en relación con la distribución normal.
- 🔑 La revisión de procedimientos para calcular la confiabilidad de un instrumento de investigación, como la estabilidad de formas alternativas y el método de las mitades compartidas.
- 📉 La explicación del concepto de distribución normal y su relevancia en la inferencia estadística, así como los niveles de significancia en la investigación.
Q & A
¿Qué invitan a hacer Roberto Hernández Sampieri y Cristian Pabón en el capítulo 10 sobre análisis de datos cuantitativos?
-Invitan a hacer una revisión de conceptos estadísticos y a usar programas computacionales para el análisis de datos, aunque no se detallan específicamente el uso de estos programas.
¿Cuál es la diferencia entre las variables de investigación y las variables de datos según el script?
-Las variables de investigación son aquellas que se estudian o se intentan demostrar a través de hipótesis, mientras que las variables de datos son aquellas que constituyen la matriz de datos y son medidas empíricas.
¿Por qué es importante tener claridad sobre las variables de investigación y no confundirlas con las matrices de variables?
-Es importante para entender y analizar correctamente los fenómenos y para no mezclar las dimensiones de una misma realidad que tienen distintos niveles de profundidad.
¿Qué son las distribuciones de frecuencias y cómo se relacionan con los datos de una investigación?
-Las distribuciones de frecuencias son el conjunto de puntuaciones de una variable ordenadas en sus categorías y se utilizan para entender la frecuencia de ocurrencia de ciertos patrones o resultados en los datos.
¿Cómo se relaciona el concepto de frecuencia con el de porcentaje en el análisis de datos?
-El porcentaje es una forma relativa de expresar la frecuencia, es decir, la proporción que representa un número en relación al total, usualmente expresado en un 100%.
¿Qué tipos de gráficas se mencionan para presentar visualmente las distribuciones de frecuencias?
-Se mencionan gráficas circulares, histogramas y polígonos de frecuencias como formas de presentar visualmente las distribuciones de frecuencias.
¿Qué son las medidas de tendencia central y para qué se utilizan?
-Las medidas de tendencia central, como la mediana y el promedio, se utilizan para ubicar la distribución de datos en una escala de medición y representan el valor central o promedio de la misma.
¿Qué es la variabilidad y cómo se mide?
-La variabilidad se refiere a la dispersión de los datos en torno a la media, y se mide mediante conceptos como el rango, la desviación estándar y la varianza.
¿Qué son las medidas de curtosis y skewness y cómo se relacionan con la distribución normal?
-El curtosis y el skewness son medidas que indican la forma y el sesgo de una distribución de datos. Ayudan a entender cuánto se asemeja una distribución a la distribución normal o curva Gaussiana.
¿Qué son los niveles de significancia y cómo afectan la investigación?
-Los niveles de significancia son probabilidades preestablecidas que indican el margen de error aceptable en una investigación. Determinan hasta qué punto se puede generalizar los resultados de una muestra a una población más amplia sin cometer errores.
¿Cuáles son algunos de los conceptos estadísticos avanzados mencionados en el script que no se cubren en detalle?
-Algunos de los conceptos estadísticos avanzados mencionados son la regresión lineal, el análisis de varianza, la estadística multivariada y las correlaciones.
Outlines
📊 Análisis de datos cuantitativos y revisión de conceptos estadísticos
El primer párrafo aborda el análisis de datos cuantitativos, enfocándose en la importancia de la revisión de conceptos estadísticos. Se menciona la recomendación de utilizar programas computacionales para el análisis, aunque no se profundiza en su uso. Se aclaran las diferencias entre variables de investigación y variables de datos, y se destaca la importancia de comprender estas para no confundirlas. Se introducen conceptos como la asistencia a una escuela, la presión arterial y la satisfacción con el superior como ejemplos de variables de investigación. Además, se discuten las distribuciones de frecuencias y su representación gráfica, destacando la relevancia de entender la frecuencia absoluta y el porcentaje acumulado para el análisis estadístico.
📈 Medidas estadísticas y representación gráfica de datos
El segundo párrafo se enfoca en las medidas estadísticas de tendencia central, como la mediana y el promedio, y cómo estos cambios en los datos afectan a estas medidas. Se contrastan con la variabilidad, introduciendo conceptos como el rango y la desviación estándar, y se mencionan las medidas de curtosis y escesis para entender la forma de la distribución de datos. Se discute la importancia de la representación gráfica de las distribuciones de frecuencias, incluyendo histogramas y gráficos circulares, y cómo estas pueden ser útiles para la interpretación de los datos tanto para el investigador como para el lector de un informe.
🔢 Niveles de significancia y conceptos avanzados en estadística
El tercer párrafo cubre los niveles de significancia en la investigación y su relación con el margen de error y las decisiones del investigador. Se describe cómo la distribución normal es utilizada en la inferencia estadística y cómo los niveles de significancia (0.01 y 0.05) afectan la seguridad de las generalizaciones. Además, se mencionan otros conceptos avanzados como la regresión lineal, el análisis de varianza y las correlaciones, aunque no se profundizan debido a las limitaciones de tiempo. El párrafo concluye con una llamada a la suscripción para recibir más actualizaciones y se agradece a los espectadores.
Mindmap
Keywords
💡Revisión de conceptos
💡Análisis de datos cuantitativos
💡Variables de investigación
💡Variables de datos
💡Distribuciones de frecuencias
💡Frecuencia y porcentaje
💡Gráficas
💡Medidas estadísticas
💡Medidas de variabilidad
💡Curva normal
💡Nivel de significancia
💡Confiabilidad
Highlights
Revisión de conceptos estadísticos en el capítulo 10 sobre análisis de datos cuantitativos.
Importancia de utilizar programas computacionales en análisis estadísticos, aunque no se detalla su uso.
Diferenciación entre variables de datos y variables de investigación en hipótesis y estudio.
Ejemplo de tabla que muestra distintos tipos de variables y sus ítems.
Discusión sobre la relevancia de las variables de investigación en el análisis de datos.
Importancia de la claridad en la identificación de variables para evitar confusión con matrices de variables.
Revisión de distribuciones de frecuencias y su aplicación en análisis estadístico.
Ejemplo práctico de cómo se asignan códigos y se calculan frecuencias en variables.
Significado de frecuencias absolutas y su conversión a porcentajes para análisis relativo.
Presentación gráfica de distribuciones de frecuencias y su interpretación.
Uso de diferentes tipos de gráficas para representar datos según el objetivo de análisis.
Importancia de las medidas estadísticas de tendencia central como la mediana y el promedio.
Comparación entre la mediana y el promedio en el contexto de la sensibilidad a valores extremos.
Revisión de medidas de variabilidad como el rango y la desviación estándar.
Introducción a las medidas de curtosis y escesis para comparar con la distribución normal.
Procedimientos para calcular la confiabilidad de un instrumento de investigación.
Importancia del coeficiente de correlación en la fiabilidad de instrumentos de medición.
Concepto de distribución normal y su aplicación en inferencias estadísticas.
Nivel de significancia en investigación y su relación con el margen de error.
Conclusión del capítulo 10, resaltando su densidad y la importancia de repasar los conceptos.
Transcripts
crecen cuando en investigación es
importante hacer una revisión de
conceptos y hoy vamos a hacer
precisamente eso en términos
estadísticos porque en este capítulo 10
sobre análisis de datos cuantitativos
tanto roberto hernández sampieri como
cristian públicamente o satorres nos
invitan a hacer una revisión de esos
conceptos en primer lugar quisiera
aclarar que los autores nos animan a
hacer un uso de algún programa
computacional como ese fs o benita y
otros sin embargo no vamos a hacer un
análisis detallado del uso de este
software también porque un recibe
actualizaciones constantes y depende
mucho del contexto de cada investigador
si vamos a procurar seguir cada una de
estas fases en cuanto a qué vamos a
realizar tanto lo que es la exploración
de los datos la evaluación de la
confiabilidad las estadísticas y algunos
aspectos adicionales tal vez para
empezar a entrar material quisiera
hablar de estos dos tipos de conceptos
las variables de datos y las variables
de investigación porque las variables de
investigaciones son aquellas en que
vamos a tratar de demostrar a través de
hipótesis o que trataremos de describir
o estudiar o entender mientras que las
variables de matriz de datos son
aquellas que están constituidas por
títeres de hecho me parece que esta
tabla que proponen los autores en el
libro es bastante
ejemplificante en cuanto a que tenemos y
ustedes lo ven diversos tipos de
variables y cada una de ellas tiene
diversos ítems pero a su vez habla de
variables de investigación
pongamos aquí otra vez esta definición
digamos en la primera columna donde se
intenta saber la asistencia de una
escuela público-privada o por ejemplo
lectura de la presión arterial sistólica
o luego vamos a ver la variable
satisfacción con respecto al superior o
la moral o motivación del departamento
veamos por ejemplo una más viable de
motivación departamento como hace
referencia una variable investigación
que la motivación o por ejemplo veamos
como una variable investigación en la
satisfacción con el superior
la investigación puede ser
la presión arterial sin embargo el modo
en que se va midiendo en esa materia de
datos son ítems si una es la presión
sistólica otra de la diastólica en otra
estamos hablando de la satisfacción con
superior inmediato
o por ejemplo el trato pues suficiente
superior inmediato o por ejemplo la
unión del departamento y alguien se
utilizan a escalas de lakers como lo
podemos ver entonces esto es sumamente
importante porque cuando queremos
estudiar un fenómeno es muy
conveniente muy relevante tener la
claridad sobre las variables que
queremos investigar y no confundirla con
las matrices de variables porque son
dimensiones de una misma realidad con
diversos niveles de profundidad ahora
bien hay otro aspecto que también
interesa repasar y son las
distribuciones de frecuencias eso en
conjunto de puntuaciones de una variable
ordenadas en sus respectivas categorías
veamos aquí en la categoría hispano y
latino como tienen códigos o valores
estos códigos usualmente se asignan
muchas veces para tabulación o
digitación pero seguimos las frecuencias
por ejemplo latino tiene 88 y la
variable la categoría hispano tiene 52
es decir aunque latín no tiene el código
2 tiene la mayor cantidad de frecuencias
y hispano aunque está en número uno
realmente tiene el segundo lugar en
frecuencias entonces esto también nos
hace ver cuál es el concepto aplicado de
una frecuencia y lo vamos a ver en esta
otra tabla tal y como los autores lo
plantean
podemos entender cuál es la línea
frecuencia y el porcentaje y el
porcentaje acumulado es decir realmente
cuando hablamos de porcentajes porque
estamos
convirtiendo o haciendo un relativo la
carte números es decir lo estamos
convirtiendo un 100 por ciento y tenemos
por ejemplo quienes se han obtenido
operaciones 74% que no obtenía un 4% y
los que no respondieron es un 21%
entonces lo mismo arriba si nosotros
utilizaremos estas por ejemplo la
categoría hispano latino
y lo que hiciéramos es llevarle un 100
por ciento podríamos obtener esos
porcentajes válidos bien esto es porque
la distribución de frecuencias en
términos absolutos es decir así como
están planteadas arriba a la derecha son
muy importantes pero para efectos de
análisis también es relevante pasarlo a
porcentaje
hay varios modos de presentar
gráficamente las distribuciones de
frecuencia están los sistemas las
gráficas circulares y otros tipos de
gráficas realmente los programas de
software ahora permiten una gran
amplitud de
imágenes y esto hay que saberlo manejar
en función de la interpretación por
ejemplo en la variable x de el
histograma es importante que se pueda
leer en
el aspecto que se quiere hacer notar por
ejemplo móvil es favorable favorable
etcétera o por ejemplo si lo vemos allá
en otros tipos de gráficas que también
se sepan distinguir cuáles son donde hay
control o no hay control en gráficas
circulares donde tenemos ese porcentaje
grande del 75% porque todo esto lo que
nos permite es interpretar o entender o
leer visualmente cuáles son las
cantidades sin decir que estamos
hablando un 74% no estamos hablando de
tres cuartas partes por ejemplo y cada
uno de estos gráficos tiene pros y
contras y tenemos que saber cuando nos
conviene utilizarlo
hay también polígonos de frecuencias que
lo que hacen es relacionar las
puntuaciones con sus respectivas
frecuencias por medio de gráficas útiles
para escribir los datos bien y esto en
este ejemplo que ponemos en la parte
inferior de la fémina o el es line nos
permite entender como una variable como
la satisfacción del trabajo que tiene
frecuencias absolutas diferentes como
vemos allí y compar a intervalos
variados se puede plasmar en una gráfica
visualmente y que es de gran facilidad a
la hora de leerlo en interpretarlo tanto
para la investigada la persona que
investiga como para la persona que lee
un reporte pues bien este tipo de
gráficas de manera de presentar las
distribuciones son también sumamente
importantes ahora vamos a hacer un
repaso las medidas estadísticas en
particular las de tendencia central que
son valores medios o centrales de una
distribución y que nos sirven para
ubicarla dentro en escala medición de la
variable en este primer grupo de números
donde destacan el 38 estamos hablando de
la mediana porque si bien tiene cuatro
casos a la izquierda y cuatro casos a la
derecha indistintamente los valor
extremos el 30 de hecho sigue siendo el
punto intermedio desde el punto antes de
la perspectiva del orden o de la
cantidad de números que tiene a los
lados en cambio es distinto al promedio
por ejemplo el promedio es un cálculo
aritmético de una distribución en los
dos casos de abajo vemos que el promedio
cambia efectivamente es prácticamente el
mismo por el mismo patrón de números
simplemente que cambia el 8 y el 20 pero
precisamente porque cambia el 8 del 20
es el promedio de médico hace cambiar
también ahora bien tenemos medidas de
variabilidad que se refiere los
intervalos que indican la expresión de
los datos en escala la medición de la
variable por ejemplo el rango que la
extensión de los datos en escala desde
el 17 hasta el 33 tendremos un rango
rango de 16 y hay otro concepto que
vamos a ver un poquito después o que en
fin se puede analizar a más profundidad
posteriormente que la desviación
estándar que es el promedio desviación
de las puntuaciones con respecto a la
media que se expresa en las unidades
originales de medición de la institución
a esto añadimos la varianza que la
desviación estándar elevada al cuadrado
bien aquí lo que sucede que los autores
nos animan también a revisar lo que son
los conceptos de ese material y curtósis
que son estadísticas que se usan para
conocer cuánto se parece una
distribución a la distribución teórica
llamada curva normal que después veremos
o campana de gauss que se concentra las
puntuaciones entonces están la
distribución simétrica asimétrica
positiva concursos dispositiva y demás
que son conceptos que nos pueden ayudar
ahora a revisar con mayor
agilidad o agudeza lo que será la
distribución la curva normal
pues bien también recordemos que como se
menciona el capítulo 9 existen diversos
procedimientos para calcular la
confiabilidad de un instrumento
conformado por una o varias escalas que
mena variables de la investigación
entonces aquí vemos como hay tres
procedimientos la media de estabilidad
elemento de formas alternativas o
paralelas al método de las mitades
compartidas todos ellos hablan de un
coeficiente de correlación es decir
vamos a entender cómo
utilizan fórmulas o coeficientes de
fiabilidad que pueden oscilar entre 0 y
1 donde recordemos que un coeficiente es
0 significan una confiabilidad y uno
representa una máxima confiabilidad a
eso atiende la correlación entonces
conforme más se acerca el coeficiente a
0 mayor ahora en la medición con
respecto a esa confiabilidad tenemos
aquí un resumen una tabla que nos
presentan los autores para hacer
referencia a los diversos métodos por
ejemplo la estabilidad de formas
alternas mitades partidas medidas de
consistencia interna que nos resumen
bastante lo que debemos conocer
y por otro lado la distribución normal y
significancia ya mencionamos antes la
distribución normal que tiene una forma
de una campana llamado conocida como la
capa negra y de hecho este concepto
nuestros conceptos los mencionamos en el
capítulo 8 y de una manera coloquial
cuando hablamos de apostar en carreras
de caballos es decir que si tuviéramos
un 95 por ciento de probabilidades de al
final el ganador contará sólo el 5% de
perder apostaríamos sí o no pues
posiblemente si siempre y cuando nos
asegurarán el 95 por ciento a favor pues
bien vemos al lado izquierda unión de
significancia del 0.01 y al lado derecho
un nivel significativo 05 genial de
significancia de la izquierda no implica
que el investigador tiene un 99 por
ciento en su favor y un 1 por ciento en
contra para generalizar sin temor o
hacer inferencias estadísticas con
respecto a la muestra que ha tomado y
por el otro lado del lado derecho
tenemos que el investigador del 95 por
ciento de seguridad
generalizar sin equivocarse y son un 5%
en contra es decir la distribución
normal que está en forma de campana se
logra como estas de 100 o más unidades y
es útil cuando se hacen diferencias
estadísticas es decir cuando yo a partir
de una muestra o una pequeña parte de
toda la población que voy a estudiar
pretendo hacer generalizaciones
inferencias es decir voy a tratar de
entender o validar hipótesis a partir de
ese pequeño grupo poblacional ahora el
nivel de significancia tiene que ver con
la posibilidad o el margen de error si
se quiere llamar a sí que tiene la
persona que investiga de antemano es
decir previa a la investigación la
persona que investiga determina cuál es
ese nivel de significancia si de un 0.01
en 0.05 y esto depende mucho del juicio
o del criterio de la persona que
investiga pues bien aquí acabamos este
capítulo 10 que es bastante denso y que
tiene muchísimos otros conceptos como
regresión lineal análisis de varianza
estadística multivariada correlaciones
entre otros que no cubrir en este vídeo
por motivos de tiempo pero como he dicho
al inicio de su resumen breve el
capítulo para dar un repaso a toda la
materia es decir estos días nos
sustituyen la lectura de los capítulos o
de libros sino que siempre tienen
incentivarla así que muchas gracias nos
vemos en próximos vídeos que pueden
suscribirse para más actualizaciones
関連動画をさらに表示
CÓMO HACER LA METODOLOGÍA DE UNA INVESTIGACIÓN. PRIMERA PARTE: ELEMENTOS
Como fazer análise ESTATÍSTICA com Python
TÉCNICAS E INSTRUMENTOS DE RECOLECCIÓN DE DATOS
Métodos, técnicas e instrumentos de investigación. ¿Cuál es la diferencia?
KOTLER CAPÍTULO 4 😊 (4.5) LA INVESTIGACIÓN DE MERCADOS y el MARKETING | Resumen Libro
Medidas de tendencia central
5.0 / 5 (0 votes)