Racismo que ”dicen”, que se fue

El racismo en Estados Unidos ha sido uno de los más documentados y difundidos en la historia contemporánea, a pesar de que el etnocentrismo ha afectado a la humanidad desde la más remota antigüedad.

Hollywood y la industria norteamericana del cine han sido uno de los medios que han dado mayor difusión de este fenómeno en Estados Unidos. Este prejuicio se ha manifestado principalmente de los blancos anglosajones y estadounidenses de nacimiento contra los negros traídos de África para trabajar como esclavos durante los 1800s.

Después de su liberación durante la Guerra Civil por Abraham Lincoln, los estados del sur, resentidos por su derrota durante la guerra civil enastaron una variedad de leyes para discriminar a ciudadanos de color. Como los estados no podían remover los derechos de los negros, que son garantizados en la constitución, se usó en su reemplazo la “segregación” que fue legal por muchos años bajo la idea de “Separated but Equal” o “Separados pero Iguales”

Fuente: lalaguna.mx