Si dejas de comer carne, debes saber que esto trae ciertos beneficios consigo, aunque no todo es bueno. Es por ello que antes de tomar esta decisión, es importante que sepas todo lo que va a pasar en tu cuerpo a medio o largo plazo. La carne es una fuente de proteínas, además de contener vitamina B y minerales como el zinc y el hierro.
Su consumo es muy importante en la etapa de crecimiento y desarrollo, pero ¿y después? Si eliminas por completo la ingesta de carne en tu dieta notarás ciertas consecuencias en tu cuerpo. Es por ello que debes saber que eliminarla por completo no significa que vayas a llevar una vida más saludable. Sigue leyendo y descubre qué sucederá en tu cuerpo.
4Dejar la carne mejorará la salud de tu piel
Algunas de las personas que han dejado de comer carne, lo cual han hecho por decisión propia, aseguran haber notado un gran cambio en el estado de su piel. El mayor problema es el consumo en exceso de este alimento, además de elegir los más perjudiciales, como son la carne roja y la procesada.
Aunque no hay evidencias que respalden el hecho de que dejar de comer carne ayude a la mejora de tu piel, si se aumenta el consumo de vegetales en lugar de la carne, estás obteniendo una mayor cantidad de antioxidantes. Estos por supuesto, son esenciales para la salud de tu piel, por lo tanto, es más bien el aumento de consumo de verdura al sustituir la carne.