USO Y RIESGOS DE LA IA EN TRABAJO

Por Carlos Pacheco, experto en IA de Matisi Consulting – www.matisiconsulting.com

En el contexto del avance continuo de las tecnologías de inteligencia artificial (IA), resulta crucial que las organizaciones y colaboradores consideren ciertos aspectos clave antes de integrar herramientas como, por ejemplo, ChatGPT en sus actividades diarias. Si bien tales plataformas están diseñadas para optimizar y agilizar diversas tareas, es importante recordar que no deben ser consideradas como un reemplazo total de la intervención humana.

Por ejemplo, ChatGPT es un modelo predictivo de lenguaje que utiliza estadísticas para generar texto basado en patrones aprendidos durante su entrenamiento. Aunque estas respuestas pueden ser relevantes desde un punto de vista estadístico, no necesariamente serán las más correctas o precisas en todas las situaciones. Por lo tanto, es vital que los usuarios verifiquen la información proporcionada, especialmente cuando se trate de temas sensibles o complejos.

Algunas inquietudes frecuentes sobre el empleo de este tipo de tecnologías son la filtración de información sensible, precisión y veracidad de la información, y el uso de no autorizado y riesgos de la programación.

Respecto de la filtración de información sensible, a lo largo del uso de ChatGPT se ha reportado la divulgación no intencionada de datos privados, incluyendo estrategias comerciales y fragmentos de código propietario. Un incidente relevante en marzo de 2023 expuso conversaciones de usuarios debido a un error en la plataforma. Para evitar estos riesgos, es crucial que las organizaciones que manejan información sensible utilicen IA específicamente diseñada para proteger estos datos, con infraestructuras adecuadamente aisladas y controladas por la empresa. 

En cuanto a la precisión y veracidad de la información, las respuestas proporcionadas por herramientas como ChatGPT no siempre serán correctas o contextualizadas adecuadamente. Esto es especialmente delicado en sectores como Derecho, Finanzas y Medicina, donde un error podría tener consecuencias graves. Por ello, se recomienda que los usuarios tengan conocimientos previos sobre el tema y verifiquen las respuestas generadas antes de tomarlas como válidas.

Con relación al uso no autorizado y riesgos en la programación, y en el ámbito de la programación, se ha observado el uso de ChatGPT para resolver problemas que implican la divulgación de fragmentos de código confidencial. Además, la IA puede generar soluciones incorrectas o con malas prácticas, lo que puede comprometer la seguridad de las aplicaciones y el software desarrollado.

Ante estas preocupaciones, es fundamental que tanto las empresas como los usuarios reciban capacitación sobre el uso adecuado y responsable de la inteligencia artificial. De esta manera, se puede garantizar que las soluciones de IA se utilicen de forma segura y efectiva, evitando riesgos innecesarios. 

En este contexto, algunas recomendaciones clave son las siguientes:

  1. No compartir información sensible. Proteger los datos y evitar subir información delicada a las plataformas de IA.
  2. Verificación de la información. Siempre es recomendable validar las respuestas proporcionadas por la IA y tener claro cómo fue entrenada.
  3. Uso consciente de IA. No delegar tareas que requieran juicio crítico o decisiones complejas a estas herramientas.

En conclusión, ChatGPT y otras inteligencias artificiales pueden ser aliadas poderosas en la automatización de tareas rutinarias y de apoyo en diversas industrias. Sin embargo, es vital que se utilicen de manera responsable y con la debida precaución para evitar comprometer información sensible y garantizar la precisión en los resultados. 

Revisa nuestra sección Visiones aquí

Total
0
Shares
Previous Post

Piel sintética: EL ESPERANZADOR AVANCE BIOMÉDICO PARA EL TRATAMIENTO DE QUEMADOS

Next Post

COMPROMISO MINERO SERÁ PARTE DEL MAYOR ENCUENTRO EMPRESARIAL DE ATACAMA

Related Posts