EE.UU. ya obliga a revelar la IA en el empleo: ¿y México?
En México, las empresas ya usan inteligencia artificial para filtrar currículos, evaluar candidatos y decidir ascensos. Según datos de Expansión, la contratación asistida por IA reduce la rotación laboral hasta un 40%. El problema es que ninguna ley mexicana obliga a las empresas a decirte que un algoritmo participó en esa decisión.
En Estados Unidos, tres estados acaban de cambiar eso. Y lo que está pasando allá marca la dirección que el mundo entero va a tomar.
Tres estados de EE.UU. que ahora exigen transparencia
Illinois, Colorado y Texas aprobaron leyes de empleo e IA que entran en vigor en 2026, cada una con un enfoque distinto.
Illinois HB 3773 (vigente desde enero de 2026) es la más amplia: obliga a los empleadores a notificar cuando la IA influye en cualquier decisión laboral (contratación, despido, ascenso). La notificación debe incluir el nombre del producto de IA, los datos que recopila y un contacto para preguntas. Además, otorga un derecho de acción privada, lo que significa que el trabajador puede demandar directamente.
Colorado AI Act (SB 24-205) (vigente desde junio de 2026) exige evaluaciones de impacto antes de implementar IA en decisiones laborales y el derecho a apelar cualquier decisión tomada por un algoritmo.
Texas HB 149 (vigente desde enero de 2026) prohíbe la discriminación intencional por IA contra grupos protegidos, pero no requiere auditorías ni divulgación.
La brecha que pocos ven: Europa ya va más lejos
Mientras Estados Unidos regula estado por estado, la Unión Europea tomó un camino más ambicioso. El Artículo 50 del EU AI Act establece obligaciones de transparencia que entran en vigor en agosto de 2026: cualquier persona afectada por una decisión de un sistema de IA de alto riesgo debe ser informada. Los sistemas de selección de personal se clasifican como "alto riesgo", lo que implica gestión de riesgos, calidad de datos y supervisión humana obligatoria.
Una encuesta del Pew Research Center reveló que el 61% de los estadounidenses no sabía nada sobre el uso de IA en procesos de contratación. En América Latina, donde la adopción de IA en recursos humanos crece sin un marco legal equivalente, ese porcentaje probablemente sea mayor.
Y México, sin legislación específica
México ha presentado múltiples iniciativas para regular la inteligencia artificial, pero a marzo de 2026 ninguna se ha convertido en ley. El INAI ha señalado riesgos de sesgo algorítmico en procesos de contratación, y la OIT advierte que sin regulación, la IA podría ampliar las desigualdades estructurales en la región.
La Ley Federal del Trabajo no contempla el uso de algoritmos en decisiones de empleo. No existe un equivalente mexicano al derecho de acción privada de Illinois ni a las evaluaciones de impacto de Colorado. Si un algoritmo descartó tu currículum en México, hoy no tienes a quién reclamar.
Mientras tanto, el filtrado por IA ya elimina la mayoría de los CVs antes de que un humano los vea. Y empresas que usan la IA como pretexto para despedir enfrentan poca rendición de cuentas en la mayoría de las jurisdicciones latinoamericanas.
Qué puedes hacer desde Latinoamérica
Aunque la legislación local no te proteja todavía, tres acciones pueden marcar la diferencia. Primero, pregunta directamente a las empresas si utilizan IA en sus procesos de selección. Segundo, desarrolla habilidades que la IA no puede reemplazar, porque la mejor defensa sigue siendo la competencia difícil de automatizar. Tercero, entiende tus derechos digitales en un mundo donde la IA ya tiene consecuencias legales.
La regulación va a llegar a México y al resto de América Latina. La pregunta no es si, sino cuándo. Y si llegas preparado o te enteras después.
Lecturas relacionadas:
Fuentes y Referencias
- National Law Review — Illinois HB 3773 etc
- Pew Research Center — 61% unaware
- Perkins Coie LLP — 4+ states AI laws
- King and Spalding LLP — Dec 2025 EO
- Truffle / SHRM — AI HR 26% to 43%
Conoce nuestros estándares editoriales →



