19/3/2024

El desarrollo de la inteligencia artificial (IA) está cambiando la forma de relacionarnos, es por ello que resulta relevante preguntarnos acerca del estándar de cuidado que las personas debemos tener al momento de utilizar las diversas herramientas de IA disponibles en el mercado. Este tema específico se inserta en uno más grande y complejo, consistente en averiguar cómo la irrupción de la IA podría hacer necesario realizar adecuaciones al estatuto de responsabilidad, materia que ya genera intenso estudio y debate.

Para ilustrar de mejor manera el tema de esta columna, nos referiremos a un caso recientemente fallado en Estados Unidos, por la Corte del Estado de Massachusetts. El caso consistía en un juicio para determinar si ciertos sujetos habrían tenido responsabilidad en la muerte de una joven de 23 años, fallecida el año 2021. En particular, la víctima se habría suicidado, alegando, la demandante, que los demandados se habrían comportado indebidamente (acusando actos de explotación sexual), lo que habría provocado finalmente el suicidio de la joven.

La abogada demandante, al momento de argumentar su caso, citó una serie de precedentes. Cabe recordar que en el sistema de Common Law, el precedente es vinculante y los casos similares se utilizan como base para resolver los demás.

Sin embargo, el caso tuvo un giro en relación con el foco de atención, pues estos precedentes no pudieron ser encontrados por la Corte, ante lo cual se llamó a las partes a una audiencia. En esa oportunidad, la abogada demandante indicó que estos casos habían sido preparados por pasantes de su oficina y días después, respondiendo un requerimiento que le había realizado la Corte de explicar el origen de estos precedentes, reconoció que la demanda había incluido citas de múltiples casos ficticios, provenientes de un sistema de IA utilizado en su oficina. La abogada se disculpó por estas citas falsas e indicó que “habría fallado en revisar con la debida diligencia la autenticidad de los casos entregados por el sistema de inteligencia artificial”. La Corte decidió sancionar a la abogada con una multa de 2,000 USD.

Interesante es el razonamiento que la Corte hizo sobre la necesidad de tomar acciones para que este problema no vuelva a ocurrir en el futuro, además de advertir sobre los beneficios y peligros que acarrea la IA. Para ello, se centra en la inteligencia artificial generativa que puede crear nuevas respuestas a partir de la información que recopilan los softwares, e incluso de la información que los propios humanos le proporcionamos. En este sentido, la Corte advirtió que si un abogado entregara información a estas plataformas, se estaría violando, hasta cierto punto, la obligación de confidencialidad, por cuanto la información sensible pasa a formar parte de la base de datos de estos sistemas. Por otro lado, la Corte llamó la atención sobre otro problema, que dice relación con la información falsa o imaginaria que es entregada por algunos sistemas de IA al responder consultas de usuarios, como habría ocurrido en este caso, siendo lo más delicado el hecho que no es fácil reconocer datos ficticios sin una revisión exhaustiva.

Ante este escenario, cabe preguntarnos si los estándares de conducta que rigen a la profesión legal están cambiando. La respuesta, como vemos en el caso en comento, debiera ser afirmativa, pero incluso va más allá de la profesión legal, siendo posible sostener que el estándar de comportamiento que habrá de observarse en cualquier tipo de actividad, también deberá tener en cuenta los cambios relacionados al uso de la IA, como se ha reflexionado bastante en el ámbito médico. En esta materia, por ejemplo, se ha discutido sobre las prestaciones de radiólogos y si es que un sistema de IA podría encontrar hallazgos confiables y más rápidos que los entregados por el personal médico. Las conclusiones preliminares parecieran demostrar que, en la eventualidad de que el radiólogo utilice mecanismos de IA, deberá hacer igualmente un chequeo de la información, pues en caso de confiarse únicamente en estos sistemas y que tal información no sea correcta, podría acarrear responsabilidad el mismo médico por no revisar exhaustivamente, similar al criterio que revisábamos de la Corte de Massachusetts.

Así, ante los casos que van surgiendo en tribunales extranjeros, es posible vislumbrar los escenarios litigiosos que arribarán a nuestros tribunales de justicia a medida que sigamos utilizando los mecanismos que la tecnología nos entrega. Como hemos analizado sucintamente en estas líneas, habrá que tener especial cautela en los casos en los que parte del actuar del profesional requiera una rigurosidad de su fundamentación o bases para dar una opinión.

Con esto queremos mostrar que la utilización de sistemas de IA supone, por un lado, una revisión exhaustiva de las fuentes y resultados que ésta ofrece y, por otro, que la diligencia de quienes utilicen estos mecanismos estará bajo un escrutinio especial para evitar que se generen casos como los que acabamos de revisar. Dicho en otros términos, lo que pareciera mostrarse en casos como los citados es que, ante el uso de la IA, se agrega un factor a tener en cuenta al momento de definir el estándar de conducta exigido.

En este plano, las universidades y colegios de profesionales pueden cumplir un rol fundamental en la redefinición de dichos estándares, entregando las herramientas técnicas, pero por sobre todo éticas, para un adecuado uso de la IA en la labor profesional.