Texas

Impacta a Texas la Inteligencia Artificial

0

Una tercera parte de las dependencias estatales aplican esta tecnología

Cuando la Comisión de la Fuerza Laboral de Texas (TWC) se vio inundada de solicitudes de desempleo en marzo de 2020, recurrió a la Inteligencia Artificial (IA).

Llamado cariñosamente en honor al ex director de la agencia, Larry Temple, que había fallecido un año antes, el chatbot “Larry” fue diseñado para ayudar a los texanos a inscribirse para recibir beneficios por desempleo.

Al igual que una página de preguntas frecuentes de próxima generación, Larry respondería preguntas generadas por los usuarios sobre casos de desempleo. Utilizando el procesamiento del lenguaje de IA, el bot determinaría qué respuesta escrita previamente por personal humano se adaptaría mejor a la formulación única de la pregunta del usuario. El chatbot respondió más de 21 millones de preguntas antes de ser reemplazado por Larry 2.0 en marzo pasado.

Larry es un ejemplo de las formas en que las agencias estatales han utilizado la Inteligencia Artificial. La adaptación de la tecnología en el Gobierno estatal ha crecido en los últimos años. Pero esa aceleración también ha provocado temores de consecuencias no deseadas como prejuicios, pérdida de privacidad o pérdida de control de la tecnología.

Este año, la Legislatura se comprometió a asumir un papel más activo en el seguimiento de cómo el Estado utiliza la IA.

“Esto va a revolucionar totalmente la forma en que hacemos gobierno”, dijo el representante estatal Giovanni Capriglione, republicano por Southlake, quien redactó un proyecto de ley destinado a ayudar al estado a hacer un mejor uso de la tecnología de IA.

En junio, el gobernador Greg Abbott promulgó ese proyecto de ley, el Proyecto de Ley 2060, creando un Consejo Asesor de IA para estudiar y hacer un inventario de las formas en que las agencias estatales utilizan actualmente la IA y evaluar si el estado necesita un código de ética para la IA. El papel del consejo en el seguimiento de lo que el Estado está haciendo con la IA no implica redactar una política final.

La Inteligencia Artificial describe una clase de tecnología que emula y se basa en el razonamiento humano a través de sistemas informáticos. El chatbot utiliza el procesamiento del lenguaje para comprender las preguntas de los usuarios y relacionarlas con respuestas predeterminadas. Las nuevas herramientas como ChatGPT se clasifican como IA generativa, porque la tecnología genera una respuesta única basada en un mensaje del usuario. La IA también es capaz de analizar grandes conjuntos de datos y utilizar esa información para automatizar tareas que antes realizaban los humanos. La toma de decisiones automatizada está en el centro de la HB 2060.

Más de un tercio de las agencias estatales de Texas ya están utilizando alguna forma de Inteligencia Artificial, según un informe de 2022 del Departamento de Recursos de Información de Texas. La Comisión de la Fuerza Laboral también tiene una herramienta de IA para quienes buscan empleo que brinda recomendaciones personalizadas de ofertas de trabajo. Varias agencias están utilizando Inteligencia Artificial para traducir idiomas al inglés y herramientas de centros de llamadas, como la conversión de voz a texto. La IA también se utiliza para mejorar la ciberseguridad y la detección de fraude.

La automatización también se utiliza para trabajos que requieren mucho tiempo con el fin de “aumentar el rendimiento y la eficiencia del trabajo”, según un comunicado del Departamento de Recursos de Información (DIR). Un ejemplo de esto podría ser el seguimiento de facturas y gastos presupuestarios. En 2020, DIR lanzó un Centro de Excelencia en IA destinado a ayudar a las agencias estatales a implementar más tecnología de IA. La participación en el centro del DIR es voluntaria y cada agencia normalmente tiene su propio equipo de tecnología, por lo que no se sigue de cerca el alcance de la automatización y la implementación de IA en las agencias estatales.

En este momento, las agencias estatales de Texas tienen que verificar que la tecnología que utilizan cumpla con los requisitos de seguridad establecidos por la ley estatal, pero no existen requisitos de divulgación específicos sobre los tipos de tecnología o cómo se utilizan. HB 2060 requerirá que cada agencia proporcione esa información al Consejo Asesor de AI antes de julio de 2024.

“Queremos que las agencias sean creativas”, dijo Capriglione. Está a favor de encontrar más casos de uso para la IA que vayan mucho más allá de los chatbots, pero reconoce que existen preocupaciones sobre la mala calidad de los datos que impiden que el sistema funcione según lo previsto: “Tendremos que establecer algunas reglas”.

A medida que ha crecido la adopción de la IA, también han aumentado las preocupaciones en torno a la ética y la funcionalidad de la tecnología. El Consejo Asesor de IA es el primer paso hacia la supervisión de cómo se está implementando la tecnología. El Consejo de siete miembros incluirá un miembro de la Cámara de Representantes y del Senado estatales, un director ejecutivo y cuatro personas designadas por el gobernador con experiencia en Inteligencia Artificial, ética, aplicación de la ley y derecho constitucional.

Samantha Shorey es profesora asistente en la Universidad de Texas en Austin y ha estudiado las implicaciones sociales de la IA, en particular la diseñada para una mayor automatización. Le preocupa que si la tecnología tiene el poder de tomar más decisiones, replicará y exacerbará la desigualdad social: “Podría llevarnos hacia el objetivo final más rápidamente. Pero, ¿nos está moviendo hacia el objetivo final que queremos?

Los defensores del uso de más IA ven la automatización como una forma de hacer que el Gobierno funcione de manera más eficiente. Aprovechar la última tecnología podría ayudar a acelerar la gestión de casos para los Servicios Sociales, proporcionar resúmenes inmediatos de extensos análisis de políticas o agilizar el proceso de contratación y capacitación de nuevos empleados gubernamentales.

Sin embargo, Shorey se muestra cauteloso ante la posibilidad de que la IA se incorpore a los procesos de toma de decisiones, como determinar quién califica para los beneficios del servicio social o cuánto tiempo alguien debe estar en libertad condicional. A principios de este año, el Departamento de Justicia de Estados Unidos comenzó a investigar acusaciones de que un modelo de IA de un condado de Pennsylvania destinado a ayudar a mejorar el bienestar infantil discriminaba a los padres con discapacidades y provocaba que les retiraran a sus hijos.

Los sistemas de IA “tienden a absorber cualquier sesgo que haya en los datos pasados”, dijo Suresh Venkatasubramanian, director del Centro de Responsabilidad Tecnológica de la Universidad de Brown. La Inteligencia Artificial que se entrena con datos que incluyen cualquier tipo de sesgo de género, religión, raza u otro tipo de prejuicio corre el riesgo de aprender a discriminar.

Además del problema de los datos defectuosos que reproducen la desigualdad social, también existen preocupaciones sobre la privacidad en torno a la dependencia de la tecnología de la recopilación de grandes cantidades de datos. Lo que la IA podría estar haciendo con esos datos a lo largo del tiempo también genera temores de que los humanos pierdan algo de control sobre la tecnología.

“A medida que la IA se vuelve cada vez más complicada, es muy difícil entender cómo funcionan estos sistemas y por qué toman decisiones de la manera en que lo hacen”, dijo Venkatasubramanian.

Ese temor lo comparte Jason Green-Lowe, director ejecutivo del Centro de Políticas de IA, un grupo que ha presionado para lograr una seguridad más estricta de la IA en Washington, DC. Con el ritmo acelerado de la tecnología y la falta de supervisión regulatoria, dijo Green-Lowe, “pronto podríamos encontrarnos en un mundo donde la IA sea la que dirige principalmente. … Y el mundo comienza a reorientarse para servir a los intereses de la IA en lugar de los intereses humanos”.

Sin embargo, algunos expertos técnicos tienen más confianza en que los humanos seguirán al mando del creciente despliegue de la IA. Alex Dimakis, profesor de Ingeniería Eléctrica e Informática en la Universidad de Texas en Austin, trabajó en la Comisión de Inteligencia Artificial de la Cámara de Comercio de Estados Unidos.

En opinión de Dimakis, los sistemas de IA deben ser transparentes y estar sujetos a una evaluación independiente conocida como equipo rojo, un proceso en el que los datos subyacentes y el proceso de toma de decisiones de la tecnología son examinados por múltiples expertos para determinar si se necesitan medidas de seguridad más sólidas.

“No puedes esconderte detrás de la IA”, dijo Dimakis. Más allá de la transparencia y la evaluación, Dimakis dijo que el Estado debería hacer cumplir las leyes existentes contra quien haya creado la IA en cualquier caso en el que la tecnología produzca un resultado que viole la ley: “aplicar las leyes existentes sin confundirse pensando que un sistema de IA está en el medio”.

El consejo asesor de IA presentará sus conclusiones y recomendaciones a la Legislatura antes de diciembre de 2024. Mientras tanto, crece el interés en implementar la IA en todos los niveles de Gobierno. DIR opera un grupo de usuarios de inteligencia artificial compuesto por representantes de agencias estatales, educación superior y gobiernos locales interesados en implementar la IA.

El interés en el grupo de usuarios crece día a día, según un portavoz del DIR. El grupo cuenta con más de 300 miembros que representan a más de 85 entidades diferentes.

Por  Keaton Peters/The Texas Tribune

Foto The Texas Tribune

Créditos diario.mx

El bitcoin cumple quince años por encima de los 42,000 dólares pero lejos de sus máximos

Previous article

COVID: Cruz Roja sigue a la espera de vacunas Pfizer para menores

Next article

You may also like

Comments

Comments are closed.

More in Texas