Código
::p_load(dplyr, sjmisc, car, sjlabelled, stargazer, haven) pacman
R data analisis
18 de marzo de 2024
El desarrollo de esta guía tiene por objetivo revisar algunos procedimientos básicos de la preparación de datos con R, que son necesarios para luego poder analizar e interpretar los datos.
Por temas de orden y reproducibilidad, en este curso vamos a separar en dos momentos el trabajo con datos, y dos archivos de código correspondientes:
Preparación corresponde a lo que se conoce generalmente como “limpieza”, es decir, realizar las modificaciones necesarias para poder efectuar los análisis. Estas modificaciones previas al análisis son necesarias ya que los datos originales con los que se va a trabajar en general no vienen perfectamente adaptados a los análisis que se quieren hacer. Por lo tanto, en cuanto a datos también hacemos la distinción entre datos originales y datos preparados (o procesados).
Análisis: se relaciona tanto con análisis descriptivos asociados a las preguntas de investigación y como también modelamiento de datos para contrastar hipótesis de investigación.
Tanto la preparación como el análisis (que son parte del concepto más general de procesamiento) quedan registrados cada uno en un archivo de código.
Archivo de código R: archivo con extensión .R donde se almacena el código de análisis. Para generarlo desde RStudio: File > New File > R Script (o ctrl+shift+N), y para grabarlo File > Save (o ctrl+s), y darle nombre la primera vez (recordar: sin tilde ni ñ, y evitar espacios)
El documento de código de preparación posee 5 partes, más una sección de identificación inicial:
De rutas, estructura de carpetas y otros
Encontrando la ruta a carpeta local: lo más fácil es crear la carpeta donde se desean guardar los datos desde el administrador de archivos del computador. Luego, posicionarse con el cursor sobre la carpeta y seleccionar “Propiedades”, en la ventana emergente debería aparecer la ruta hacia la carpeta en “Ubicación”. Copiar esa ruta y agregar al final el nombre de la carpeta (separada por slash)
Sobre los “slashes” (\
o /
): en la ruta las carpetas y el archivo final aparecen separados por slashes, que según el sistema utilizado pueden ser slash (/
) o backslash (\
). En R por defecto se usa slash, pero en Windows backslash, por lo que si se usa Windows hay que reemplazarlos por backslash o también puede ser por un doble slash (//
).
Por temas de compatibilidad general, en las rutas se recomienda evitar tildes, eñes, espacios, mayúsculas y guiones bajos (_).
Estructura de carpetas: para mantener el orden se sugiere seguir un protocolo de estructura de carpetas de proyecto, para lo que recomendamos el protocolo IPO, y que se adapta al flujo de trabajo presentado anteriormente. Básicamente son tres carpetas: input, procesamiento, output. En la carpeta input crear la subcarpeta data-orig para guardar datos originales, y data-proc para los procesados. En procesamiento se guardan los archivos de código y en output las tablas y los gráficos.
Un Rproject es una herramienta de R que nos permite establecer un directorio de trabajo en una carpeta de nuestro computador. Al hacerlo, establecemos un espacio de trabajo que permite crear una estructura de carpetas donde guardar los documentos asociados al proyecto. De esta forma, creamos un conjunto de archivos autocontenidos en un solo lugar que nos permite organizar nuestro trabajo y facilitar la reproducibilidad. En las próximas sesiones estableceremos un protocolo de trabajo que permite organizar y armonizar el trabajo: el protocolo IPO.
Para crear un Rproject:
Abrir Rstudio
Seleccionar Archivo -> Nuevo proyecto
Seleccionamos la opción de directorio existente
Seleccionamos la carpeta donde descargamos nuestro repositorio de Github en el paso anterior
Apretamos el botón de crear proyecto
Al final de esta práctica la idea es que cada un_ elabore y entienda su propio documento de preparación de datos.
En el ejemplo vamos a procesar variables de confianza en instituciones políticas y variables de caracterización sociodemográfica utilizando los datos de la encuesta Latinobarómetro.
Latinobarómetro es un estudio de opinión pública que aplica anualmente alrededor de 20.000 entrevistas en 18 países de América Latina representando a más de 600 millones de habitantes
“Los gobiernos latinoamericanos, que venían en declive junto con sus democracias desde inicios de la década de 2010, como reflejan los datos de Latinobarómetro, llegaron a fines de 2018 al annus horribilis con la caída de Nicaragua y Venezuela desde su condición de democracias para entrar en la categoría de autocracias y dictadura.
De los hiperpresidentes de la primera década del siglo con altos niveles de crecimiento en todos los países y altos niveles de aprobación, la región pasó en la segunda década a los subpresidentes, con una baja en aprobación de gobierno a la mitad, en menos de 10 años. Este rechazo al desempeño de las elites gobernantes, indica su fracaso a fines de 2019 en varios países de la región.” (Latinobarómetro, informe 2021, p. 7)
El presente ejercicio tiene por objetivo el procesar los datos para obtener las variables relevantes para el estudio de la Confianza en instituciones políticas, entendida como el grado en que los individuos confian en distintas instituciones políticas a nivel nacional, como el gobierno, la justicia, los partidos políticos, etc. Para ello, junto con variables de confianza, consideraremos también variables de estatus (educación), y variables de caracterización sociodemográfica (sexo y edad).
Como sabemos, la lógica de R es instalar librerías (solo 1 vez, con install.packages("librería")
), y luego cargarlas cada vez que es necesario usarlas (con library(librería)
). El problema de esto es que a veces no se sabe claramente qué librerías están instaladas y cuales no, lo que va a arrojar error al cargarlas. Y, como sucede en R, existe una librería para solucionar este problema que se llama pacman
(package manager). Lo que hace pacman
es cargar la librería, y si no está instalada, la instala y la carga:
Y en adelante, las librerías se cargan así pacman::p_load(libreria1,libreria2,libreriaX) :
Para esta sesión vamos a utilizar Las librerías que vamos a utilizar son:
dplyr
: ajuste general de datossjmisc
: descripción y exploración de base de datoscar
: principalmente la función recode
para recodificar/agrupar valores de variablestargazer
: para tabla descriptivaAjustar espacio de trabajo
Previo a la carga de nuestra base de datos, se recomienda ejecutar los siguientes comandos:
La función rm(list=ls())
permite comenzar con un espacio de trabajo (environment) vacío y sin otros objetos. Así también, la función options(scipen=999)
desactiva la notación científica, es decir, veremos los valores numéricos con todos sus decimales.
Datos
Las bases de datos se pueden cargar de un archivo local o en línea. Para este caso utilizaremos un archivo en línea que viene en formato RData: latinobarometro2020.RData. Abrir bases de datos en otros formatos: Los formatos mas comunes en que se almacenan las bases de datos son .dta (Stata), .sav (Spss) y RData (R). Para abrir desde R utlilizamos la librería haven
y sus funciones read_dta y read_sav según corresponda. Ej: datos <- read_dta("base_casen.dta")
. Recordar antes instalar/cargar la librería: pacman::p_load(haven)
reeduc_1
] = REEDUC.1 Nivel de estudios alcanzado - Entrevistado (recodificado)a. Descriptivo
x <numeric>
# total N=1200 valid N=1200 mean=5.05 sd=1.22
Value | N | Raw % | Valid % | Cum. %
--------------------------------------
1 | 8 | 0.67 | 0.67 | 0.67
2 | 53 | 4.42 | 4.42 | 5.08
3 | 36 | 3.00 | 3.00 | 8.08
4 | 161 | 13.42 | 13.42 | 21.50
5 | 643 | 53.58 | 53.58 | 75.08
6 | 109 | 9.08 | 9.08 | 84.17
7 | 190 | 15.83 | 15.83 | 100.00
<NA> | 0 | 0.00 | <NA> | <NA>
b. Recodificación
Vemos que no hay datos perdidos
Valores
Para hacer más fácil el análisis, recodificamos en tres categorías (en este caso decisión arbitraria. Se debería tener una razón teórica para recodificar)
1. Analfabeto = Educacion basica = 1
2 Básica incompleta = Educacion basica = 1
3. Básica completa = Educacion basica = 1
4. Secundaria, media, técnica incompleta = Educacion media = 2
5. Secundaria, media, técnica completa = Educacion media = 2
6. Superior incompleta = Educacion superior = 3
7. Superior completa = Educacion superior = 3
Comprobar con un nuevo descriptivo:
x <numeric>
# total N=1200 valid N=1200 mean=2.17 sd=0.55
Value | N | Raw % | Valid % | Cum. %
--------------------------------------
1 | 97 | 8.08 | 8.08 | 8.08
2 | 804 | 67.00 | 67.00 | 75.08
3 | 299 | 24.92 | 24.92 | 100.00
<NA> | 0 | 0.00 | <NA> | <NA>
Se observa que los valores coinciden con la recodificación (los casos se acumulan entre las categorías 1 y 3), pero las etiquetas ahora no coinciden; se soluciona en el siguiente paso.
c. Etiquetado
Para re-etiquetar valores usamos la función factor
, de R base. Con esta función aprovechamos de transformar la variable educación en una variable categórica, que es lo que corresponde para una variable ordinal.
Luego renombramos la variable con un nombre más sustantivo
Además de cambiar el nombre, queremos cambiar la etiqueta de la variable.
sexo
] = SEXO Sexoa. Descriptivo
x <numeric>
# total N=1200 valid N=1200 mean=1.54 sd=0.50
Value | N | Raw % | Valid % | Cum. %
--------------------------------------
1 | 555 | 46.25 | 46.25 | 46.25
2 | 645 | 53.75 | 53.75 | 100.00
<NA> | 0 | 0.00 | <NA> | <NA>
b. Recodificación
En general esta variable no tiene problemas de casos perdidos ni de etiquetas, pero de todas maneras vamos a hacer un cambio de acuerdo a convenciones en análisis de datos, donde por lo general hombres tienen valor 0 y mujeres 1:
c. Etiquetado
Y ahora cambiamos las etiquetas de acuerdo a la recodificación anterior:
También queremos cambiar la etiqueta de la variable.
NULL
Revisar con un nuevo descriptivo:
edad
] = EDAD Edad.a. Descriptivo
x <numeric>
# total N=1200 valid N=1200 mean=44.49 sd=17.01
Value | N | Raw % | Valid % | Cum. %
-------------------------------------
18 | 31 | 2.58 | 2.58 | 2.58
19 | 29 | 2.42 | 2.42 | 5.00
20 | 25 | 2.08 | 2.08 | 7.08
21 | 23 | 1.92 | 1.92 | 9.00
22 | 21 | 1.75 | 1.75 | 10.75
23 | 26 | 2.17 | 2.17 | 12.92
24 | 28 | 2.33 | 2.33 | 15.25
25 | 19 | 1.58 | 1.58 | 16.83
26 | 21 | 1.75 | 1.75 | 18.58
27 | 23 | 1.92 | 1.92 | 20.50
28 | 19 | 1.58 | 1.58 | 22.08
29 | 22 | 1.83 | 1.83 | 23.92
30 | 34 | 2.83 | 2.83 | 26.75
31 | 21 | 1.75 | 1.75 | 28.50
32 | 26 | 2.17 | 2.17 | 30.67
33 | 21 | 1.75 | 1.75 | 32.42
34 | 14 | 1.17 | 1.17 | 33.58
35 | 22 | 1.83 | 1.83 | 35.42
36 | 28 | 2.33 | 2.33 | 37.75
37 | 14 | 1.17 | 1.17 | 38.92
38 | 24 | 2.00 | 2.00 | 40.92
39 | 23 | 1.92 | 1.92 | 42.83
40 | 32 | 2.67 | 2.67 | 45.50
41 | 21 | 1.75 | 1.75 | 47.25
42 | 16 | 1.33 | 1.33 | 48.58
43 | 22 | 1.83 | 1.83 | 50.42
44 | 16 | 1.33 | 1.33 | 51.75
45 | 25 | 2.08 | 2.08 | 53.83
46 | 19 | 1.58 | 1.58 | 55.42
47 | 15 | 1.25 | 1.25 | 56.67
48 | 26 | 2.17 | 2.17 | 58.83
49 | 19 | 1.58 | 1.58 | 60.42
50 | 35 | 2.92 | 2.92 | 63.33
51 | 6 | 0.50 | 0.50 | 63.83
52 | 24 | 2.00 | 2.00 | 65.83
53 | 7 | 0.58 | 0.58 | 66.42
54 | 13 | 1.08 | 1.08 | 67.50
55 | 27 | 2.25 | 2.25 | 69.75
56 | 18 | 1.50 | 1.50 | 71.25
57 | 17 | 1.42 | 1.42 | 72.67
58 | 34 | 2.83 | 2.83 | 75.50
59 | 17 | 1.42 | 1.42 | 76.92
60 | 24 | 2.00 | 2.00 | 78.92
61 | 18 | 1.50 | 1.50 | 80.42
62 | 21 | 1.75 | 1.75 | 82.17
63 | 15 | 1.25 | 1.25 | 83.42
64 | 20 | 1.67 | 1.67 | 85.08
65 | 12 | 1.00 | 1.00 | 86.08
66 | 24 | 2.00 | 2.00 | 88.08
67 | 9 | 0.75 | 0.75 | 88.83
68 | 12 | 1.00 | 1.00 | 89.83
69 | 15 | 1.25 | 1.25 | 91.08
70 | 30 | 2.50 | 2.50 | 93.58
71 | 9 | 0.75 | 0.75 | 94.33
72 | 10 | 0.83 | 0.83 | 95.17
73 | 8 | 0.67 | 0.67 | 95.83
74 | 8 | 0.67 | 0.67 | 96.50
75 | 8 | 0.67 | 0.67 | 97.17
76 | 12 | 1.00 | 1.00 | 98.17
77 | 5 | 0.42 | 0.42 | 98.58
78 | 2 | 0.17 | 0.17 | 98.75
79 | 2 | 0.17 | 0.17 | 98.92
80 | 4 | 0.33 | 0.33 | 99.25
82 | 1 | 0.08 | 0.08 | 99.33
84 | 2 | 0.17 | 0.17 | 99.50
85 | 3 | 0.25 | 0.25 | 99.75
86 | 1 | 0.08 | 0.08 | 99.83
87 | 1 | 0.08 | 0.08 | 99.92
89 | 1 | 0.08 | 0.08 | 100.00
<NA> | 0 | 0.00 | <NA> | <NA>
b. Recodificación: no es necesario en este caso
c. Etiquetado
Cambio la etiqueta de la variable.
Antes de guardar la base procesada, revisamos nuevamente todas las variables con una tabla descriptiva general mediante la función stargazer
(de la librería homónima)
Primero vamos a reformatear el objeto proc_data como base de datos (as.data.frame), paso necesario para que sea reconocido como tal por stargazer
===========================================
Statistic N Mean St. Dev. Min Max
-------------------------------------------
conf_gob 1,181 0.660 0.800 0 3
conf_cong 1,178 0.594 0.714 0 3
conf_jud 1,186 0.717 0.789 0 3
conf_partpol 1,178 0.451 0.673 0 3
edad 1,200 44.491 17.008 18 89
idenpa 1,200 152.000 0.000 152 152
conf_inst 1,162 2.420 2.489 0 12
-------------------------------------------
Si se desea modificar las columnas que aparecen en la tabla se puede ocupar la opción summary.stat
, donde se pueden especificar:
Por ejemplo, si quiero una tabla solo con promedio, n, sd y p75: stargazer(data, type="text", summary.stat = c("mean", "n", "sd", "p75"))
El comando para guardar es save
:
En este caso, seguimos una estructura de carpetas de datos, separando en una carpeta los datos originales, y en otra (proc) los datos procesados:
Podemos conocer ciertas medidas de tendencia central utilizando algunas funciones de dplyr
# A tibble: 2 × 2
sexo `mean(conf_inst, na.rm = TRUE)`
<fct> <dbl>
1 Hombre 2.48
2 Mujer 2.36
#refugeeswelcome
Educación | Confianza en instituciones |
Total | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | ||
Educacion basica | 30 | 11 | 6 | 6 | 12 | 6 | 4 | 4 | 7 | 3 | 0 | 0 | 1 | 90 |
Educacion media | 268 | 95 | 83 | 79 | 121 | 45 | 24 | 29 | 28 | 3 | 4 | 1 | 0 | 780 |
Educacion superior | 99 | 35 | 41 | 26 | 36 | 20 | 13 | 8 | 9 | 5 | 0 | 0 | 0 | 292 |
Total | 397 | 141 | 130 | 111 | 169 | 71 | 41 | 41 | 44 | 11 | 4 | 1 | 1 | 1162 |
χ2=37.850 · df=24 · Cramer's V=0.128 · Fisher's p=0.140 |
---
title: "Práctico 3. Operacionalización de variables (segunda parte)"
subtitle: "R data analisis"
linktitle: "Práctico 3: Operacionalización"
date: "2024-03-18"
lang: es
---
# Presentación
## Objetivo de la práctica
El desarrollo de esta guía tiene por objetivo revisar algunos procedimientos básicos de la preparación de datos con R, que son necesarios para luego poder analizar e interpretar los datos.
Por temas de orden y reproducibilidad, en este curso vamos a separar en **dos momentos** el trabajo con datos, y dos archivos de código correspondientes:
- **Preparación** corresponde a lo que se conoce generalmente como "limpieza", es decir, realizar las modificaciones necesarias para poder efectuar los análisis. Estas modificaciones previas al análisis son necesarias ya que los datos originales con los que se va a trabajar en general no vienen perfectamente adaptados a los análisis que se quieren hacer. Por lo tanto, en cuanto a datos también hacemos la distinción entre datos originales y datos preparados (o procesados).
- **Análisis**: se relaciona tanto con análisis descriptivos asociados a las preguntas de investigación y como también modelamiento de datos para contrastar hipótesis de investigación.
#### Los procesos de preparación y análisis vinculados a datos y resultados se presentan en el siguiente esquema:{#flujo}

Tanto la preparación como el análisis (que son parte del concepto más general de procesamiento) quedan registrados cada uno en un _archivo de código_.
<span class="sidenote">**Archivo de código R**: archivo con extensión .R donde se almacena el código de análisis. Para generarlo desde RStudio: _File > New File > R Script_ (o ctrl+shift+N), y para grabarlo _File > Save (o ctrl+s)_, y darle nombre la primera vez (recordar: sin tilde ni ñ, y evitar espacios) </span>
El documento de **código de preparación** posee 5 partes, más una sección de identificación inicial:
0. Identificación y descripción general: Título, autor(es), fecha, información breve sobre el contenido del documento
1. Librerías: cargar librerías a utilizar
2. Datos: carga de datos
3. Selección de variables a utilizar
4. Procesamiento de variables: en este punto, por cada variable se realiza lo siguiente:
a. Descriptivo básico
b. Recodificación: datos perdidos y valores (en caso de ser necesario)
c. Etiquetamiento: de variable y valores (en caso de ser necesario)
e. Otros ajustes
5. Generación de base de datos preparada para el análisis.
**De rutas, estructura de carpetas y otros **
- **Encontrando la ruta a carpeta local**: lo más fácil es crear la carpeta donde se desean guardar los datos desde el administrador de archivos del computador. Luego, posicionarse con el cursor sobre la carpeta y seleccionar "Propiedades", en la ventana emergente debería aparecer la ruta hacia la carpeta en "Ubicación". Copiar esa ruta y agregar al final el nombre de la carpeta (separada por slash)
- **Sobre los "slashes" (`\` o `/`)**: en la ruta las carpetas y el archivo final aparecen separados por slashes, que según el sistema utilizado pueden ser _slash_ (`/`) o _backslash_ (`\`). En R por defecto se usa _slash_, pero en Windows _backslash_, por lo que si se usa Windows hay que reemplazarlos por _backslash_ o también puede ser por un doble _slash_ (`//`).
- Por temas de compatibilidad general, en las rutas se recomienda evitar tildes, eñes, espacios, mayúsculas y guiones bajos (_).
- **Estructura de carpetas**: para mantener el orden se sugiere seguir un protocolo de estructura de carpetas de proyecto, para lo que recomendamos el protocolo [IPO](https://lisa-coes.com/ipo-protocol/), y que se adapta al flujo de trabajo presentado anteriormente. Básicamente son tres carpetas: **input**, **procesamiento**, **output**. En la carpeta input crear la subcarpeta data-orig para guardar datos originales, y data-proc para los procesados. En procesamiento se guardan los archivos de código y en output las tablas y los gráficos.

## Rproject
Un Rproject es una herramienta de R que nos permite establecer un directorio de trabajo en una carpeta de nuestro computador. Al hacerlo, establecemos un espacio de trabajo que permite crear una estructura de carpetas donde guardar los documentos asociados al proyecto. De esta forma, creamos un conjunto de archivos autocontenidos en un solo lugar que nos permite organizar nuestro trabajo y facilitar la **reproducibilidad**. En las próximas sesiones estableceremos un protocolo de trabajo que permite organizar y armonizar el trabajo: el [protocolo IPO](https://lisa-coes.com/ipo-repro/).
Para crear un Rproject:
1. Abrir Rstudio
2. Seleccionar Archivo -> Nuevo proyecto

3. Seleccionamos la opción de directorio existente
4. Seleccionamos la carpeta donde descargamos nuestro repositorio de Github en el paso anterior
5. Apretamos el botón de crear proyecto
Al final de esta práctica la idea es que cada un_ elabore y entienda su propio documento de preparación de datos.
En el ejemplo vamos a procesar variables de confianza en instituciones políticas y variables de caracterización sociodemográfica utilizando los datos de la encuesta [Latinobarómetro](https://www.latinobarometro.org/lat.jsp).
## Antecedentes de los datos a utilizar
Latinobarómetro es un estudio de opinión pública que aplica anualmente alrededor de 20.000 entrevistas en 18 países de América Latina representando a más de 600 millones de habitantes
"Los gobiernos latinoamericanos, que venían en declive junto con sus democracias desde inicios de la década de 2010, como reflejan los datos de Latinobarómetro, llegaron a fines de 2018 al annus horribilis con la caída de Nicaragua y Venezuela desde su condición de democracias para entrar en la categoría de autocracias y dictadura.
De los hiperpresidentes de la primera década del siglo con altos niveles de crecimiento en todos los países y altos niveles de aprobación, la región pasó en la segunda década a los subpresidentes, con una baja en aprobación de gobierno a la mitad, en menos de 10 años. Este rechazo al desempeño de las elites gobernantes, indica su fracaso a fines de 2019 en varios países de la región." (Latinobarómetro, informe 2021, p. 7)
El presente ejercicio tiene por objetivo el procesar los datos para obtener las variables relevantes para el estudio de la **Confianza en instituciones políticas**, entendida como el grado en que los individuos confian en distintas instituciones políticas a nivel nacional, como el gobierno, la justicia, los partidos políticos, etc. Para ello, junto con variables de confianza, consideraremos también variables de estatus (educación), y variables de caracterización sociodemográfica (sexo y edad).
# Preparación de datos Latinobarómetro 2020
## 1. Librerías principales (de R) a utilizar en el análisis{#librerias}
Como sabemos, la lógica de R es instalar librerías (solo 1 vez, con `install.packages("librería")`), y luego cargarlas cada vez que es necesario usarlas (con `library(librería)`). El problema de esto es que a veces no se sabe claramente qué librerías están instaladas y cuales no, lo que va a arrojar error al cargarlas. Y, como sucede en R, existe una librería para solucionar este problema que se llama `pacman` (package manager). Lo que hace `pacman` es cargar la librería, y si no está instalada, la instala y la carga:
Y en adelante, las librerías se cargan así <span class="sidenote"> pacman::p_load(libreria1,libreria2,libreriaX) </span>:
```{r}
pacman::p_load(dplyr, sjmisc, car, sjlabelled, stargazer, haven)
```
Para esta sesión vamos a utilizar Las librerías que vamos a utilizar son:
- `dplyr`: ajuste general de datos
- `sjmisc`: descripción y exploración de base de datos
- `car`: principalmente la función `recode` para recodificar/agrupar valores de variable
- `stargazer`: para tabla descriptiva
## 2. Cargar base de datos
**Ajustar espacio de trabajo**
Previo a la carga de nuestra base de datos, se recomienda ejecutar los siguientes comandos:
```{r}
rm(list=ls()) # borrar todos los objetos en el espacio de trabajo
options(scipen=999) # valores sin notación científica
```
La función `rm(list=ls())` permite comenzar con un espacio de trabajo (environment) vacío y sin otros objetos. Así también, la función `options(scipen=999)` desactiva la notación científica, es decir, veremos los valores numéricos con todos sus decimales.
**Datos**
Las bases de datos se pueden cargar de un archivo local o en línea. Para este caso utilizaremos un archivo en línea que viene en formato RData: **latinobarometro2020.RData**. <span class="sidenote">**Abrir bases de datos en otros formatos**: Los formatos mas comunes en que se almacenan las bases de datos son .dta (Stata), .sav (Spss) y RData (R). Para abrir desde R utlilizamos la librería `haven` y sus funciones read_dta y read_sav según corresponda. Ej: `datos <- read_dta("base_casen.dta")`. Recordar antes instalar/cargar la librería: `pacman::p_load(haven)` </span>
```{r}
#cargamos la base de datos desde internet
load(url("https://github.com/cursos-metodos-uah/r-data-analisis/raw/main/files/data/external_data/latinobarometro_rec.RData"))
```
#### 4.2. Educación
* [`reeduc_1`] = REEDUC.1 Nivel de estudios alcanzado - Entrevistado (recodificado)
_a. Descriptivo_
```{r}
frq(proc_data$reeduc_1)
```
_b. Recodificación_
- Vemos que no hay datos perdidos
- Valores
Para hacer más fácil el análisis, recodificamos en tres categorías (en este caso decisión arbitraria. Se debería tener una razón teórica para recodificar)
```
1. Analfabeto = Educacion basica = 1
2 Básica incompleta = Educacion basica = 1
3. Básica completa = Educacion basica = 1
4. Secundaria, media, técnica incompleta = Educacion media = 2
5. Secundaria, media, técnica completa = Educacion media = 2
6. Superior incompleta = Educacion superior = 3
7. Superior completa = Educacion superior = 3
```
```{r}
# recodificacion usando funcion 'recode' de la libreria car
proc_data$reeduc_1 <- car::recode(proc_data$reeduc_1, "c(1,2,3)=1; c(4,5)=2; c(6,7)=3")
```
Comprobar con un nuevo descriptivo:
```{r}
frq(proc_data$reeduc_1)
```
Se observa que los valores coinciden con la recodificación (los casos se acumulan entre las categorías 1 y 3), pero las etiquetas ahora no coinciden; se soluciona en el siguiente paso.
_c. Etiquetado_
Para re-etiquetar valores usamos la función `factor`, de R base. Con esta función aprovechamos de transformar la variable educación en una variable categórica, que es lo que corresponde para una variable ordinal.
```{r}
proc_data$reeduc_1 <- factor(proc_data$reeduc_1,
labels = c("Educacion basica", "Educacion media", "Educacion superior"),
levels = c(1, 2, 3))
```
Luego renombramos la variable con un nombre más sustantivo
```{r}
proc_data <- rename(proc_data,"educacion"=reeduc_1)
```
Además de cambiar el nombre, queremos cambiar la etiqueta de la variable.
```{r}
get_label(proc_data$educacion)
proc_data$educacion <- set_label(x = proc_data$educacion,label = "Educación")
```
### 4.3. Sexo
* [`sexo`] = SEXO Sexo
_a. Descriptivo_
```{r}
frq(proc_data$sexo)
```
_b. Recodificación_
En general esta variable no tiene problemas de casos perdidos ni de etiquetas, pero de todas maneras vamos a hacer un cambio de acuerdo a convenciones en análisis de datos, donde por lo general hombres tienen valor 0 y mujeres 1:
```{r}
proc_data$sexo <- car::recode(proc_data$sexo, "1=0;2=1")
```
_c. Etiquetado_
Y ahora cambiamos las etiquetas de acuerdo a la recodificación anterior:
```{r}
proc_data$sexo <- factor(proc_data$sexo,
labels=c( "Hombre",
"Mujer"),
levels=c(0,1))
```
También queremos cambiar la etiqueta de la variable.
```{r}
get_label(proc_data$sexo)
proc_data$sexo <- set_label(x = proc_data$sexo,label = "Sexo")
```
Revisar con un nuevo descriptivo:
```{r}
frq(proc_data$sexo)
```
### 4.4 Edad
* [`edad`] = EDAD Edad.
_a. Descriptivo_
```{r}
frq(proc_data$edad)
```
_b. Recodificación_: no es necesario en este caso
_c. Etiquetado_
Cambio la etiqueta de la variable.
```{r}
get_label(proc_data$edad)
proc_data$edad <- set_label(x = proc_data$edad,label = "Edad")
```
## 5. Generación de base de datos procesada para el análisis
Antes de guardar la base procesada, revisamos nuevamente todas las variables con una tabla descriptiva general mediante la función `stargazer` (de la librería homónima)
Primero vamos a reformatear el objeto proc_data como base de datos (as.data.frame), paso necesario para que sea reconocido como tal por `stargazer`
```{r}
proc_data <-as.data.frame(proc_data)
stargazer(proc_data, type="text")
```
<div class="alert alert-info">
Si se desea modificar las columnas que aparecen en la tabla se puede ocupar la opción `summary.stat`, donde se pueden especificar:
- "max" maximum
- "mean" mean
- "median" median
- "min" minimum
- "n" number of observations
- "p25" 25th percentile
- "p75" 75th percentile
- "sd" standard deviation
Por ejemplo, si quiero una tabla solo con promedio, n, sd y p75: `stargazer(data, type="text", summary.stat = c("mean", "n", "sd", "p75"))`
</div>
- Guardar base de datos procesada: en carpeta local <span class="sidenote">La ruta hacia su carpeta local si está trabajando en windows debería ser algo como "C:/Users/Lenovo/Clases/y aquí nombre del archivo a grabar</span>
El comando para guardar es `save`:
```{r eval=FALSE}
save(proc_data,file = "[ruta hacia carpeta local en su computador]/ELSOC_ess_merit2016.RData")
```
En este caso, seguimos una estructura de carpetas de datos, separando en una carpeta los datos originales, y en otra (proc) los datos procesados:
```{r eval=FALSE}
save(proc_data,file = "files/data/latinobarometro_proc.RData")
```
## Descriptivos básicos de las variables
Podemos conocer ciertas medidas de tendencia central utilizando algunas funciones de `dplyr`
### Media por grupos
```{r}
proc_data %>% dplyr::group_by(sexo) %>% summarise(mean(conf_inst, na.rm=TRUE))
```
```{r}
proc_data %>% dplyr::group_by(educacion) %>% summarise(mean(conf_inst, na.rm=TRUE))
```
### Representación
```{r}
library(sjPlot)
sjt.xtab(proc_data$educacion, proc_data$conf_inst, encoding = "UTF-8")
```