miércoles, 17 de mayo de 2017

¿Qué es Atlas.ti? y Ejemplo de Construcción de Redes

En la siguiente infografía se expresa claramente como hacer un proyecto en Atlas.ti y posteriormente se hace una ejemplificación de la construcción de redes.




miércoles, 29 de marzo de 2017

Tablas de contigencia y aspectos de ellas.

Tabla de contigencia

Se sabe que la información proporcionada por una tabla bidimensional puede expresarse en términos diversos: frecuencias absolutas conjuntas, relativas conjuntas, condicionadas de una variable a valores de la otra. Además puede derivarse el comportamiento unidimensional de las variables implicadas mediante las distribuciones marginales.

La tabla bidimensional recibe el nombre de tabla de contingencia cuando las características en estudio no son cuantitativas.




donde nij expresa la frecuencia absoluta observada en las modalidades Xi e Yj refleja la distribución conjunta de X e Y. 

CHI-CUADRADO 

Medida resumen que compara los valores (nij) observados en la tabla, con los que teóricamente se obtendría (tij), en el supuesto de que las variables X e Y fuesen independientes. 

Este estadístico toma valores comprendidos entre 0 y N·mín{p-1, q-1}, el valor 0 indica que el numerador de la expresión anterior es nulo, por tanto las frecuencias observadas coinciden con las que habría si las variables fuesen independientes; de donde se admite la independencia de X e Y. El hecho de que sus valores dependan tanto del número de elementos de la tabla (N), como del nº de filas y columnas, hace difícil su interpretación e impracticable la comparación entre tablas.

El estadístico Chi-cuadrado permite contrastar la hipótesis de independencia de X e Y, basándose en el conocimiento del comportamiento de Chi-cuadrado bajo la hipótesis de independencia: Modelo Chi-cuadrado con (p-1)(q-1) grados de libertad. 


CORRELACIONES

La correlación trata de establecer la relación o dependencia que existe entre las dos variables que intervienen en una distribución bidimensional.

Es decir, determinar si los cambios en una de las variables influyen en los cambios de la otra. En caso de que suceda, diremos que las variables están correlacionadas o que hay correlación entre ellas.

Tipos de correlación:

1º Correlación directa
La correlación directa se da cuando al aumentar una de las variables la otra aumenta.
La recta correspondiente a la nube de puntos de la distribución es una recta creciente.

2º Correlación inversa
La correlación inversa se da cuando al aumentar una de las variables la otra disminuye.
La recta correspondiente a la nube de puntos de la distribución es una recta decreciente.

3º Correlación nula
La correlación nula se da cuando no hay dependencia de ningún tipo entre las variables.
En este caso se dice que las variables son incorreladas y la nube de puntos tiene una forma redondeada.


Grados de correlación:
El grado de correlación indica la proximidad que hay entre los puntos de la nube de puntos. Se pueden dar tres tipos:

1. Correlación fuerte
La correlación será fuerte cuanto más cerca estén los puntos de la recta.
2. Correlación débil
La correlación será débil cuanto más separados estén los puntos de la recta.


Nominal. Para los datos nominales (sin orden intrínseco, como católico, protestante o judío), puede seleccionar el Coeficiente de contingencia, Phi (coeficiente) y V de Cramér, Lambda (lambdas simétricas y asimétricas y tau de Kruskal y Goodman) y el Coeficiente de incertidumbre.

Coeficiente de contingencia. Medida de asociación basada en chi-cuadrado. El valor varía entre 0 y 1. El valor 0 indica que no hay asociación entre las variables de fila y de columna. Los valores cercanos a 1 indican que hay gran relación entre las variables. El valor máximo posible depende del número de filas y columnas de la tabla.

Phi y V de Cramer. Phi es una medida de asociación basada en chi-cuadrado que conlleva dividir el estadístico de chi-cuadrado por el tamaño de la muestra y extraer la raíz cuadrada del resultado. V de Cramer es una medida de asociación basada en chi-cuadradro.

Lambda. Medida de asociación que refleja la reducción proporcional en el error cuando se utilizan los valores de la variable independiente para pronosticar los valores de la variable dependiente. Un valor igual a 1 significa que la variable independiente pronostica perfectamente la variable dependiente. Un valor igual a 0 significa que la variable independiente no ayuda a pronosticar la variable dependiente.

Coeficiente de incertidumbre. Medida de asociación que refleja la reducción proporcional en el error cuando se utilizan los valores de una variable para pronosticar los valores de la otra variable. Por ejemplo, un valor de 0,83 indica que el conocimiento de una variable reduce en un 83% el error al pronosticar los valores de la otra variable. El programa calcula tanto la versión simétrica como la asimétrica del coeficiente de incertidumbre.


Referencias:
Tablas de correlación. Consultado el 29 de marzo de 2017, en http://www.ugr.es/~mvargas/tablascontingencia.pdf

Correlaciones. Consultado el 29 de marzo de 2017, en http://www.vitutor.com/estadistica/bi/correlacion.html


IBM. Estadísticos de tablas cruzadas. Consultado el 29 de marzo de 2017, en https://www.ibm.com/support/knowledgecenter/es/SSLVMB_22.0.0/com.ibm.spss.statistics.help/spss/base/idh_xtab_statistics.htm

¿Cómo agrupar datos en SPSS?

miércoles, 15 de marzo de 2017

Actividad con IBM SPSS

En el documento siguiente se desarrollo una problemática de acuerdo a datos recabados en el INEGI, se planteó un problema y de como se llegó a una conclusa y con el uso de las gráficas se complementó el trabajo.


lunes, 6 de marzo de 2017

Gráficas en SPSS

En la clase anterior comenzó a verse el programa SPSS, en la clase pasada se aprendió como sacar las estadísticas descriptivas como la media, mediana y moda, además de la varianza, pero ahora también conocimos la forma de poner gráficas en nuestro documento exportado, de esta manera se puede ver mejor detallado la proporción de personas que hay en cada categoría, esto tipo de información será muy útil a la hora de describir los resultados de nuestra investigación.