La responsabilidad social de las empresas

En la actualidad se habla mucho sobre la responsabilidad social de las empresas, pero hay muy pocas empresas que se administran de manera responsable. Hablar de Responsabilidad Social implica acciones que van más allá de la ley y de lo requerido por obligación o por necesidad.

Las empresas deben asumir la responsabilidad social en el sentido más amplio y no por una cuestión moral o humanitaria, sino más bien por el propio interés económico de las empresas, muchas investigaciones han demostrado que las empresas que adoptan una postura socialmente responsable obtienen mayores beneficios económicos.
La responsabilidad social de las empresas beneficia al sistema cuando las acciones implementadas son de interés directo de las empresas y están orientadas a conseguir transformaciones sociales, políticas y económicas,  que afecta en su capacidad de ser una unidad productiva eficiente. Al ayudar a construir un nuevo tipo de sociedad, las empresas están asegurando la competitividad y viabilidad en el corto, mediano y largo plazo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *