Género: Trabajo social

El trabajo social es una profesión y disciplina académica que busca mejorar la calidad de vida de las personas y las comunidades. Los trabajadores sociales ayudan a las personas a desarrollar habilidades para la vida y a mejorar su bienestar.

Suscríbase al boletín

Scroll al inicio