
Women by women
La educación, un derecho fundamental
Cuando pensamos en educación, nos imaginamos la occidental, donde unos educadores formados en la materia te preparan para que puedas tener la enseñanza que te mereces. La cual, es un derecho reconocido desde 1924 [Seguir leyendo]