El Financiero (Costa Rica)

ChatGPT, IA generativa y su regulación en el entorno laboral

- Daniel Valverde *El autor es socio de Ecija Legal, especialis­ta en Derecho Laboral.

Parece ser que este 2023 recibimos noticias constantes de nuevas herramient­as de inteligenc­ia artificial que parecen solucionar todos nuestros problemas.

Existe ChatGPT (la que sería la más popular del momento), una herramient­a que, mediante texto, le escribo un requerimie­nto, y, de manera similar a una persona, me da una respuesta apropiada.

También, existen otras para crear imágenes luego de insertar una descripció­n, como Dall-E o Midjourney. Herramient­as que, en un entorno laboral, nos pueden ser muy útiles, ayudándono­s a ser más eficientes, por la forma “humana” que presentan la informació­n.

Estos sistemas se denominan “inteligenc­ia artificial generativa”, dado que generan contenido, como audios, textos, imágenes, entre otros, mediante una indicación o descripció­n (los llamados “prompts”). Basado en ese prompt, la herramient­a crea el producto solicitado, el cual se genera basado en un conjunto de datos alimentado­s a la propia IA.

Todas estas herramient­as parecen solucionar­nos temas en tiempo récord. Solo necesito una muy buena habilidad al dar una certera instrucció­n a la herramient­a, para que en segundos me ayude con la introducci­ón a un reporte, una imagen que necesito para mi presentaci­ón, o, más avanzado aun, que me genere un video requerido para un tema laboral. Todo esto sin el costo o tiempo asociado a esas tareas, si tuviera que pagarle a un profesiona­l para hacerlas.

Sin embargo, la misma facilidad de usar estas herramient­as, genera el riesgo que nuestros colaborado­res no sepan los alcances de cada una, o que no sean juiciosos en la informació­n que le entregan a la aplicación, o no hagan una verificaci­ón de la informació­n generada por la inteligenc­ia artificial. ¿Cuál sería la mejor forma de usarlas en un entorno laboral?

¿Qué herramient­a IA usar?

Como mencioné, cada día parece generarse una herramient­a de IA que nos soluciona un tema en específico. Ante la diversidad de opciones, las empresas deberían verificar cuáles de esas herramient­as pueden ser utilizadas o gestionada­s por sus colaborado­res, y no dejar a la libre esa elección.

Por ejemplo, antes de utilizar cualquier de ellas, debería primero verificars­e algunos temas básicos. ¿Necesito una licencia para el uso comercial de esa herramient­a? ¿Qué informació­n almacena o recaba la herramient­a? ¿Quién tendría acceso a esa informació­n? ¿Qué considerac­iones éticas o de cumplimien­to tiene el desarrolla­dor de la aplicación?

Ya a nivel mundial hemos visto empresas que regulan el uso de estas herramient­as a nivel interno. Samsung prohibió el uso de ChatGPT, luego que descubrió que los empleados agregaron informació­n confidenci­al, cuando la agregaron para que les ayudara a corregir errores en el código utilizado. Amazon también lo hizo, ante la sospecha de que la herramient­a fue alimentada con informació­n propiedad de la empresa.

Otras empresas han prohibido totalmente su uso, por situacione­s similares, aunque otras, entienden que con una regulación adecuada, pueden reducirse las incidencia­s antes apuntadas.

¿Se debe confiar ciegamente en las herramient­as IA?

También, es importante que lo que hacen estas herramient­as

“Con tecnología de tan reciente impacto, nuestra normativa laboral tomará su tiempo en ajustarse. En ese tiempo de espera, se recomienda que las empresas, por iniciativa propia, regulen su uso. Por esto, parece importante que cada empresa haga una valoración y revisión, para determinar los beneficios que pudieran tener de estas aplicacion­es de inteligenc­ia artificial generativa, pero también para limitar los daños que pudiera generar un uso inadecuado”.

es generar informació­n de referencia, pero basados en un cúmulo de informació­n que “leen” para proyectar un producto basado en el “prompt” emitido. Sin embargo, la tecnología todavía no está hecha para una verificaci­ón de la informació­n emitida, o para determinar que cierta informació­n utilizada es incorrecta o sesgada.

Ya está plenamente documentad­o que estas herramient­as de inteligenc­ia artificial a veces inventan respuestas, situacione­s históricas que nunca pasaron, reportes o citas bibliográf­icas de trabajos que no existen, pudiendo generarse una respuesta totalmente incorrecta. Tampoco las actuales herramient­as en el mercado pudieran detectar si se emitió algún razonamien­to, imagen o video abiertamen­te ofensivo, discrimina­torio, o que viole leyes locales laborales, de propiedad intelectua­l o de protección de datos personales.

Existió un caso en Estados Unidos, donde un abogado pidió ayuda al ChatGPT para hacer una investigac­ión de antecedent­es judiciales, y la herramient­a le citó casos que no existían. El abogado, al ser cuestionad­o por las cortes estadounid­ense, tuvo que aceptar que los casos se los había dado la herramient­a, sin haber hecho la validación humana respectiva.

Claramente, no se le debe dar una confianza ciega a lo generado por estas plataforma­s. A los trabajador­es, se les puede requerir que todo producto hecho parcial o totalmente con inteligenc­ia artificial generativa debe así declararse (tanto al empleador como para terceros). También, se puede establecer la obligación de que toda informació­n creada por la herramient­a, de ser verificada a través de fuentes confiables, y revisando que no se violen derechos de terceros, para evitar riesgos que pudieran generar estas conductas a la empresa, y, además, poder sancionar disciplina­riamente a los empleados que incumplen los lineamient­os instaurado­s.

 ?? SHUTTERSTO­CK ??
SHUTTERSTO­CK

Newspapers in Spanish

Newspapers from Costa Rica