martes, 3 de junio de 2014

REFLEXIÓN FINAL.

A pesar de saber que la estadística sanitaria es un paso hacia el futuro de la investigación para la mejora  de los servicios de salud, cuando comencé la asignatura no podía comprender que esta exigiera un nivel de conocimientos tan amplio, una mente muy abierta y sobre todo creativa. Para investigar es necesario ser creativo como he dicho anteriormente, estudiar la salud es un paso muy importante, pero más importante es estudiar aquello que aún no se conoce.  En la búsqueda de artículos de muchos temas se conocen una inmensa cantidad de artículos relacionados con un mismo tema, sin embargo, existen otro tipos de artículos que he intentado buscar para realizar otro tipo de trabajos, y apenas se tiene bibliografía de ellos, queda mucho por saber, mucho por profundizar y mucho por descubrir.
Con respecto al avance de la asignatura, y a las competencias que deben adquirirse a lo largo de esta, la que más me ha costado es realizar el protocolo de investigación, desde mi punto de vista, para ser nuestra primera toma de contacto con la estadística, el nivel de exigencia de nuestro trabajo está muy alto, sin tener en cuenta que nos encontramos en nuestro primer año de carrera, que prácticamente nos acabamos de acostumbrar a la vida universitaria, que teníamos una falta de conocimiento muy grande sobre la estadística, cuanto más sobre una investigación, y que nos hemos afrontado solos a un trabajo duro. Ha sido un proceso desorientado al principio porque no sabíamos cómo enfocar nuestras ideas, repleto de tutorías, dudas, agobios, cercano a los exámenes finales por lo que el tiempo que teníamos era menor, pero aun así, como mucho esfuerzo y dedicación hemos podido sacar el proyecto hacia delante de la mejor forma que hemos sabido.
Cuando hicimos la presentación del mismo, a pesar de los problemas que hemos tenido todos los grupos para poder completarlo, nos dimos cuenta que el esfuerzo mereció la pena, a pesar de no llegar a nuestra hipótesis principal, parece ser que el trabajo quedó bien.

Para concluir, mencionar que a pesar de los esfuerzos realizados, me ha parecido una asignatura interesante,  con un futuro prometedor. 

SEMINARIO 5.

Ha sido el último seminario de la asignatura, como he ido mencionando a lo largo de todas las publicaciones, en esta última sesión de grupo se iba a hacer la presentación de los proyectos de investigación. El seminario se ha basado por tanto en la presentación del mismo, entre todos los miembros de cada grupo. Desde mi punto de vista, se han hecho estudios interesantes y se ha podido observar un gran esfuerzo por parte de todos los grupos. Con respecto a mi trabajo, parece ser que a todo el trabajo realizado a dado su fruto y que hicimos una buena presentación y un buen trabajo. Solo queda esperar la valoración que se nos ha puesto.

jueves, 29 de mayo de 2014

TEMA 10. HIPÓTESIS ESTADÍSTICA. TEST DE HIPÓTESIS.

Se trata del último tema de la asignatura, después de conocer toda la materia de los temas anteriores, es profundiza en las hipótesis, en la verdadera hipótesis y nos permite controlar el error aleatorio de una forma distinta a los intervalos de confianza.
Dependiendo de los resultamos que obtengamos en los test de hipótesis, podremos rechazar o aceptar la hipótesis nula, los resultados determinaran si hay relación o no entre las variables de estudio.  Para desarrollar un test de hipótesis es necesario.
  •           Establecer una hipótesis cerca del valor de parámetro.
  •           Realizamos la recogida de datos
  •           Analizamos la coherencia entre la hipótesis previa y los datos obtenidos.

El test de hipótesis es un método fiable de contraste de hipótesis puesto que no permite la manipulación de los datos. Este test analiza las diferencias que hay entre los grupos, cuanto más diferencias tengamos, más relación causa-efecto, por lo tanto más se apoyara la hipótesis alternativa, alejándonos de la hipótesis nula.
Como he mencionado anteriormente, el test de hipótesis mide la probabilidad de error que cometo si rechazo la hipótesis nula.  Es conveniente realizar el contraste de hipótesis con un nivel de confianza del 95% lo cual tendremos una probabilidad de equivocarnos de 5% siendo pà 0.05.

TEST CHI CUADRADO.
Se utilizar para comparar variables cualitativas y medir la relación que existe entre ellas.

T de STUDENT.
Se usa cuando la variable es cualitativa (independiente) y cuantitativa (dependiente).  Este ha sido el test de contraste de hipótesis que he usado en mi protocolo de investigación junto con mi grupo, y gracia a él hemos podido conocer que nuestro estudio no tiene significación estadística, por lo que hemos aceptado la hipótesis nula.

Es interesante realizar este tipo de contraste entre las variables de un estudio, ya que ayuda a conocer la relación existente entre ellas y la intensidad con que se relacionan, además permite al investigador conocer la significación de su estudio y el error que puede cometer al aceptar una hipótesis u otra. 

miércoles, 28 de mayo de 2014

TEMA 9. ESTADÍSTICA INFERENCIAL: MUESTREO Y ESTIMACIÓN.

La base de este tema se la inferencia estadística, ya que gracias a ella, cuando realizamos una investigación en el ámbito sanitario, podemos tener conocimiento de pacientes que no han participado en el estudio.  El problema con el que nos encontramos a la hora de inferir, siempre va a ser la presencia de un error aleatorio. 
Es importante conocer algunos conceptos en este tema.
  • Los pacientes sobre los que se quiere estudiar algo se denominan población de estudio.
  • Los individuos que participan en un estudio son la muestra y al número de individuos de la muestra se les conoce como tamaño muestral.
  • Como he mencionado antes, el procedimiento estadístico que nos permite pasar de lo particular a lo general se denomina inferencia estadística.
  • El conjunto de procedimientos que permiten elegir muestras que reflejen las características de una población se conoce como técnica de muestreo.
  • El error aleatorio es aquel error que se produce por al realizar un muestreo probabilístico o aleatorio, como ya he mencionado, el error aleatorio es inevitable pero sin embargo, podemos calcularlo.  Para que este error sea lo más pequeño posible, el tamaño de la muestra debe ser cada vez mayor.

A la hora de realizar una inferencia, el objetivo es conocer el parámetro, es la medida, los datos de la población general, y este dato se conoce a partir del estimado, es decir, a partir del dato que obtenemos de la muestra.
Una de las formas explicadas a  lo largo de este tema, son los intervalos de confianza, esto es un modo de conocer el parámetro de una población, son un par de números con un nivel de confianza determinados que nos permiten asegurar que el valor del parámetro se encuentra entre ambos.
El nivel de confianza estándar que se desarrolla estadísticamente es el 95%, para el cual el valor de Z= 1.96, lo que quiere decir que el error será de un 0.5.
Para que el error sea lo menor posible, anteriormente dijimos que cuanto mayor sea el tamaño, menor es el error, pero no podemos olvidarnos que un tamaño muestral excesivamente grande tampoco es válido, por ello, existe una fórmula para calcular el tamaño muestral, el cual nos da el número de individuos que deben participar en el estudio. Esta fórmula va a depender del error estándar, de la varianza de la población y del tamaño de la población de estudio. Una vez que conocemos el tamaño muestral se debe elegir a la muestra, y existen distintos métodos, el más valido es el muestreo probabilístico aleatorio simple, en el que todos los sujetos de la población tienen una probabilidad equitativa distinta de cero en la selección de la muestra, se puede elegir por sorteo o rifa o de una forma más rápida y económica, mediante una tabla de números aleatorios.
Muestreo no probabilístico, el cual no puede considerar que la muestra de una población sea representativa.
A lo largo del desarrollo del tema hemos ido realizando diferentes ejercicios para calcular el error aleatorio y el tamaño muestral.


sábado, 17 de mayo de 2014

SEMINARIO 4.


El seminario ha comenzado con un repaso breve sobre lo que hicimos en el seminario anterior. Ha pasado mucho tiempo desde el ultimo y era necesario ponernos un poco al día.  La primera parte de este seminario ha comenzado con el análisis de los datos sobre el problema de intoxicación alimentaria usando el programa Epi info. Esta recogida de datos se ha basado en un principio en el test de hipótesis Chi cuadrado, este test se realizó con los tres alimentos más propensos a haber causado la intoxicación alimentaria que vimos en el seminario anterior. Estos alimentos eran la vainilla, el chocolate y el pastel. Según el test de hipótesis para el chocolate y el pastel aceptábamos la hipótesis nula, ya que el riesgo relativo era menor que el valor de p, sin embargo, para la vainilla, el valor de P se acercaba prácticamente a 0, por lo que el riesgo relativo era mayor que el valor de este, aceptando de esta manera la hipótesis alternativa. Por lo tanto, la conclusión según el test de hipótesis Chi cuadrado es que la vainilla es el determinante de la enfermedad.

En segundo lugar,  para poder usar el test de hipótesis T Student, al ser para este necesario una variable cuantitativa y otra cualitativa, abrimos una nueva base de datos dentro del programa Epi info, en la que analizamos las variables de peso y personas fumadoras, una vez más en función de los valores de p aceptamos o rechazamos la hipótesis nula dependiendo del caso y los valores.

El próximo y último seminario se basara en la exposición del trabajo de investigación de cada grupo de seminario.

TEMA 8. MEDIDAS DE TENDENCIA CENTRAL, POSICION Y DISPERSION.


En este tema, conoceremos los tres tipos de medidas estadísticas que se aplican especialmente a variables cuantitativas. Distinguiendo tres grandes tipos de medidas.
  • Medidas de posición. Calcula la magnitud, tamaño o posición de las observaciones de los datos una vez que están ordenados de menor a mayor.
  • Medidas de tendencia central. Dan una idea del comportamiento central mayoritario.
  • Medidas de dispersión: muestran información sobre la heterogeneidad de la muestra.

A continuación, procedemos a explicar en profundidad cada una de estas medidas, comenzando con las medidas de tendencia central.
  • Media aritmética: es la suma de todos los valores de la variable observada entre el total de observaciones. Cuando los datos están agrupados en el caso de que tengamos una tabla de frecuencia como ya se explicó en el tema anterior, existe una forma diferente de calcular la media tomando como referencia el valor de la marca de clase de cada intervalo sumada a su frecuencia absoluta dividido entre el número total de observaciones.
  • La mediana: se calcula después de haber ordenado los datos de menor  a mayor y su valor será el que deje a su izquierda un 50% de los datos menor y un 50% de los datos mayor suponiendo que la muestra sea impar. En caso de que esta sea par se realiza la media de los dos datos centrales.
  • Moda: es el dato que más veces se repite. En el caso de que los datos estén agrupados, la moda se corresponde con el intervalo en el que el cociente entre la frecuencia relativa y la amplitud es mayor.
Otro tipo de medidas importante tal y como hemos expuesto anteriormente son las medidas de posición.
  • Los percentiles: dividen la muestra ordenada en 100 partes.
  • Deciles: fracciona la muestra ordenada en 10 partes.
  • Cuartiles: fracciona la muestra ordenada en 4 partes.
Finalmente, encontramos las medidas de dispersión. En ella encontramos.
  • Rango o recorrido que es una diferencia entre el mayor y el menor valor de la muestra.
  • Desviación media: es la media aritmética de cada observación con respecto a la media de la muestra.
  • Desviación típica, cuantifica el error que cometemos si representamos una muestra únicamente por su media, la misma información que está pero en valores cuadráticos la expresa la varianza.
  • Coeficiente de variación. Es una medida de dispersión relativa que nos sirve para comparar la heterogeneidad de dos series numéricas con independencia de las unidades de medida.
Finalmente, este tema nos explica que una distribución normal o distribución de Gauss es aquella distribución de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales.  Este tipo de distribuciones, en un histograma se refleja como una campana, por eso se conoce como campana de Gauss, y el punto  más alto de la misma coincidirá a su vez con la media y la mediana. Es una gráfica simétrica que deja a la mitad por un lado los valores menores a la media y por otro lado los valores mayores a la misma.

Por otro lado, podemos tener representaciones graficas que representen asimetrías de las variables, por lo tanto diferenciamos entre:
  • Asimetría hacia la izquierda, es aquella grafica en la que vemos el pico hacia la derecha. Presenta una asimetría negativa puesto que la mayor concentración de valores se presenta a la izquierda.
  • Asimetría hacia la derecha, el pico lo encontramos a la izquierda.  Presenta una distribución asimétrica positiva ya que existe mayor concentración de valores a la derecha de la media.
Cuanto más asimétrica sea una variable, valores más diferentes encontraremos.

Como punto final de este tema, pasamos a explicar la curtosis, la cual sirve para medir el grado de concentración de los valores que toma en torno a su media. Los datos se acumulan mucho, mientras más se acumulen, más apuntada esta la curva. Los resultados de curtosis pueden ser.
  • G2= 0 es un grado de concentración medio alrededor de los valores centrales de la variable.
  • G2>0 es un grado de concentración elevado alrededor de los valores centrales de la variable.
  • G2<0 es un grado de concentración mínimo alrededor de los valores centrales de la variable.

sábado, 10 de mayo de 2014

TEMA 7. INTRODUCCION A LA BIOESTADISTICA.

La estadística es la ciencia que estudia la variabilidad.  La diferentes variables de estudio existentes, tienen diferente naturaleza y por ello diferentes métodos de medición. Existen diversas escalas en función de las variables de estudio. Tipos de variables.
Variable cualitativa. Referida a propiedades que no pueden ser medidas. Distinguimos dos tipos de variables cualitativas.
  • Nominal: en la cual no existe un orden ni puede darse entre las diferentes variables. La variable nominal, a su vez puede diferenciarse en:

n  Dicotómica: solo existen dos niveles o categorías.
n  Policotómicas: existen más de dos niveles.
  • Ordinal: tiene las mismas propiedades que la anterior pero en estas si existe diferencia de orden.

Variable cuantitativa: es una variable que si puede medirse numéricamente. En este caso también diferenciamos entre.
  •  Discreta: se representan mediante números enteros, porque la variable no se puede dividir. Por ejemplo el número de hijos.
  • Continua: se representa mediante los números reales, admite la división de la variable en unidades.

Ya conociendo los distintos tipos de variables que podemos encontrar según el estudio realizado, pasamos a explicar las diferentes escalas de medidas.
  • Escala nominal. Estudia la igualdad o diferencia entre dos variables. Los números no gozan de cualidades aritméticas.  Para variables cualitativas nominales.
  •  Escala ordinaria: es un estudio que relaciona la igualdad, desigualdad y el orden de las variables. A pesar de estudiar el orden, no sabemos cuánto mejor es una variable de otra, por lo que solo establece una jerarquía. Propia de variables cualitativas ordinales.

Para las variables cuantitativas, existen unas escalas de medidas específicas. Las cuales son:
  • Identidad y orden: en estas escalas, no podemos obtener proporciones entre las variables. Obtenemos igualdad, diferencia y orden medible a diferencia de las anteriores donde solo establecemos una jerarquía del orden. El 0 no es ausencia de propiedad.
  • Escala de razón. Es el nivel más alto de medición. Estudia la igualdad, desigualdad, orden  y la distancia equivalente entre dos intervalos. En este caso, el 0 si representa ausencia de propiedad y los datos nos permiten sumar, restar, dividir, multiplicar…

Una vez se lleva a cabo la medidas de las variables, es conveniente realizar una representación de datos de las mimas para así facilitar la comprensión del estudio, hacerlo más claro, autoexplicativo…
  • Tabla de frecuencia: es una de las representaciones más comunes y cómodas a la hora de realizar cálculos convenientes. Para su representación es necesario llevar a cabo una previa definición de los intervalos, calcular el recorrido, el cual es la diferencia entre el valor mayor y el menor. Calcular el número de intervalos necesarios para la tabla haciendo la raíz cuadrada del total de sujetos de estudios. Y una vez conocemos el número de intervalos, es importante calcular la amplitud de los mismos dividiendo el recorrido entre el intervalo.

Representación gráficas, es una representación visual de los resultados del estudio que comunica rápidamente la información numérica, da una imagen de las ideas principales y una orientación visual del estudio. No debe ser reemplazado por el texto, debe ser complementario y además no deben estas sobrecargadas. Los diferentes tipos de representación gráfica que podemos encontrar son los siguientes.
  • Diagrama de barras para variables cualitativas y policotómicas.
  • Pictograma que es similar al anterior, sustituimos las barras por dibujos de las variables.
  • Histograma para variables cuantitativa continua. Es una representación de columnas unidas.
  • Tronco  y hoja para variables cuantitativas continúas.
  • Sectores para variables cualitativas dicotómicas.