ZAGAL

IA ahora

La Inteligencia Artificial (“IA”) continúa revolucionando el mundo en el que vivimos. Con más beneficios que perjuicios – yo creo-, ya que su uso promueve la eficiencia y puede mejorar y/o ampliar el razonamiento personal que antes se creía firme.

Herramientas como ChatGPT, Gemini, entre otras, tienen una amplia gama de aplicaciones y pueden ayudar en múltiples tareas. Desde la comprensión de un lenguaje ajeno, realizando traducciones en tiempo real y de calidad, hasta responder preguntas con respuestas bien logradas gracias a su base de conocimiento alimentada por todas las palabras y solicitudes que se le presentan.

Estas herramientas también pueden actuar como asistentes personales y agilizadores de procesos, e incluso pueden ser de gran ayuda para escritores jóvenes de columnas de opinión en la generación de ideas, ampliación de temas, o bien, con la redacción artículos completos. Por supuesto que no es el caso de estas líneas, aunque eso es algo que diría alguien que usa IA.

En fin, la IA y herramientas como las mencionadas, tienen el potencial de mejorar nuestra eficiencia y creatividad, proporcionando soluciones útiles en diversas áreas.

Ahora. Dice el viejo adagio que todo en exceso es malo, y aunque la IA sea digital, está creada por humanos y aquí nadie es perfecto.

El mal uso, o más bien, el abuso de la IA puede llevar a depositar una confianza desmedida en ella, delegándole tareas que no le corresponden, pero su supuesta infalibilidad lo hace ver como la mejor solución.

He de contarles que, muy a pesar, ya que es mi profesión, dentro del mundo legal se han presentado este tipo de prácticas con frecuencia. Y es que, desde 2023, es cada vez más común enterarse de abogados y abogadas que utilizan en exceso herramientas de IA y eventualmente son descubiertos.

Le platico de uno que sucedió a principios de este año.

Durante un procedimiento de apelación ante la Corte de Apelaciones del Segundo Circuito de Estados Unidos, una abogada citó en uno de sus escritos, un precedente judicial en materia de negligencia médica que llamó la atención de dicha corte. Cuando se le solicitó clarificar y presentar el precedente, la abogada admitió que fue generado por ChatGPT y que nunca leyó o confirmo la validez del -inexistente- precedente citado.

O sea, literalmente, lo que la abogada hizo fue pedirle a ChatGPT que le dijera casos anteriores de negligencia médica, tomó el que le pareció más conveniente sin asegurarse de su existencia y, con la mágica combinación de Ctrl+C + Ctrl+V, lo incluyó en el escrito legal presentó a la corte, poniendo en riesgo no solo su carrera por ir en contra de las Federal Rules of Civil Procedure, sino también la probabilidad de éxito para su cliente. Nada más.

Dándole el beneficio de la duda a la abogada, vamos a suponer que no existió mala fe de lo que hizo -¿o sí? Sin embargo, esta situación es un claro ejemplo de lo que puede pasar si uno decide delegarle sus deberes –que son diferentes a simples tareas– a la IA.

El mundo que nos tocó es éste, y está fregón. Hay muchos avances tecnológicos que podemos aprovechar para hacer nuestra vida más fácil. La IA es uno de ellos, pero no olvidemos que siempre tendremos el poder de elegir si queremos utilizarla o no, y de cómo y para qué la utilizamos. Como dijo una vez un sabio filosofo, “un gran poder conlleva una gran responsabilidad”, una responsabilidad que siempre será nuestra y nunca debe recaer en la Inteligencia Artificial.

Reciban un saludo. Muchas gracias.

Maridaje:

Canción: Youth – Cold Years

Lectura: https://cases.justia.com/federal/appellate-courts/ca2/22-2057/22-2057-2024-01-30.pdf?ts=1706626850

 

Autor

El Heraldo de Saltillo
El Heraldo de Saltillo
El periódico con mayor tradición en Saltillo.