Nacionales

Decisiones judiciales con Inteligencia Artificial (IA) ¿justas o injustas?

Por Yokauris Vásquez

SANTO DOMINGO. – “Cuando Juana Pérez vio su sentencia aparecida en pantalla, no fue la voz del juez que dictaminó su futuro, sino un algoritmo que interpretó sus gestos, tono de voz y hasta el ritmo de su respiración. Dijo que mentía. Mientras ella, solo lloraba. No hubo mirada humana que notara el temblor en sus manos o el miedo sincero en sus ojos. Fue condenada por una máquina que no distingue el llanto real del fingido, tampoco conoce el perdón, la duda, ni el contexto. Desde entonces, se pregunta: ¿cuánto vale una emoción cuando la justicia la interpreta un código?”

Aunque esta historia es ficticia, podría no estar tan lejos de la realidad. En un futuro cuando la Inteligencia Artificial Emocional, esté incorporada en los tribunales y una máquina podría juzgar a un acusado, no por sus actos, sino por lo que interpreta de su rostro.

En el ámbito judicial, una mirada, un gesto, o el tono de voz, pueden influir de manera consciente o no en la percepción de su culpabilidad o inocencia; sin embargo, es el juez quien realiza un análisis humano, razonado y apoyado en las circunstancias de cada caso, lo que hace que la decisión final conserve un componente de empatía y contexto.

La inteligencia artificial emocional promete analizar microexpresiones, tonos y patrones de conducta para apoyar decisiones en los tribunales. Pero, su posible implementación abre un debate sobre los límites entre la justicia y la empatía, la objetividad y la humanidad.

Aunque todavía no decide destinos, la inteligencia artificial ya asiste en procesos judiciales en algunos países por lo que su avance cuestiona si la justicia podrá delegar en algoritmos la lectura de las emociones humanas.

Frente al juez, el rostro humano puede reflejar miedo, arrepentimiento o frialdad. La IA ha comenzado a observar lo que antes solo el ojo humano evaluaba: gestos, tono de voz y lenguaje corporal. Todavía no decide sentencias ni determina verdades, pero ya ofrece datos que, según sus desarrolladores, podrían ayudar a comprender las actitudes de los acusados.

Aún no existen casos en los que una persona haya sido condenada o liberada por lo que una máquina “interpretó” de su rostro; pero, la posibilidad de incorporar estas herramientas al sistema judicial plantea un debate ético sobre los límites de la tecnología en la justicia.

Malasia y China han comenzado a probar sistemas de inteligencia artificial que asisten a los jueces en la recomendación de sentencias

En países como Malasia y China, los tribunales han comenzado a probar sistemas de inteligencia artificial que asisten a los jueces en la recomendación de sentencias, o en el análisis de comportamiento durante audiencias. En Estados Unidos, algoritmos como COMPAS evalúan el riesgo de reincidencia de los acusados y han influido en decisiones de libertad condicional; aunque su uso ha generado fuertes críticas por posibles sesgos raciales y falta de transparencia.

En América Latina, el tema apenas empieza a discutirse. Ninguno de estos sistemas utiliza de forma oficial el reconocimiento emocional como prueba judicial, pero su avance técnico ya anticipa un escenario en el que las emociones humanas podrían ser cuantificadas por algoritmos.

República Dominicana

En República Dominicana, el sistema de justicia ya está considerando la Inteligencia Artificial y pese a que su regulación aún está en discusión; la nación se prepara para su exploración y posible primeros usos.

Para ello, el país cuenta con un proyecto de ley a fin de establecer sus lineamientos que incluye temas de calidad de datos, supervisión humana y rendición de cuentas. La Inteligencia Artificial en los tribunales dominicanos está en fase de prueba y consolidación, con avances importantes en digitalización y normativas preparatorias, pero aún no está al nivel de “IA sustituyendo, decidiendo” en casos judiciales reales.

No obstante, expertos locales coinciden en que su eventual llegada es solo cuestión de tiempo.

Expertos opinan:

Ante el posible escenario, el jurista Raúl Vásquez indica que el país necesitaría antes un marco regulatorio sólido que defina los límites de uso de estas tecnologías, y que garantice la protección de datos personales y preserve la imparcialidad de las decisiones judiciales.

“La justicia dominicana debe priorizar la formación humana y ética de los operadores judiciales, antes de la adopción de herramientas automatizadas. La empatía sigue siendo un valor irremplazable en la administración de justicia”, precisa.

Una herramienta, no un juez…

Para los especialistas en sicología y derecho, la inteligencia artificial es una revolución en la humanidad; no obstante, coinciden en que, a la hora de juzgar una persona, la IA no puede suplir al ser humano, puesto que delegar la lectura de las emociones a una máquina, podría tener consecuencias funestas.

Para el especializado en derecho procesal,  José Antonio Pillo Alonso,  esta herramienta les da valor agregado a todas las ramas del derecho, pero jamás podrá podrá sustituir a la persona.

José Antonio Pillo Alonso

A juicio del especialista, la inteligencia artificial tiene un papel significativo en cuanto aportes, en   todas las ramas del derecho: “Podemos recrear perfiles de asesinos, prescribir estadísticas criminológicas, buscar delitos en una población determinada, realizar fórmulas sobre cómo limitar delitos criminológicos; esto partir de un análisis cuantitativo matemático, entre otras”.

Al enumerar las ventajas de la herramienta digital, el experimentado resalta que todo lo anterior lo realiza la inteligencia artificial en cuestión de segundos; sin embargo, a la hora de juzgar un ser humano, la IA no puede suplir al humano, enfatiza.

Sicóloga Mildred Martínez

Al analizar tal escenario, la experta en comportamiento humano,  sicóloga Mildred Martínez, explica que las  emociones no son universales ni lineales; dependen del contexto, la cultura y el estado mental de cada persona: “Si una inteligencia artificial llegara a evaluar el arrepentimiento, o la veracidad de un acusado a partir de sus gestos, podría incurrir en errores graves y reforzar prejuicios invisibles”, argumenta y concluye que, aunque las máquinas puedan procesar información con precisión, solo el ser humano comprende la complejidad moral de un acto.

El especialista en IA Pedro Torrez, de su lado, defiende la inteligencia artificial en el sistema judicial, al justificar que a medida que se eleva el nivel de la toma de decisiones automatizada, exige a su vez un estándar más elevado a la toma de decisiones humana.

Argumenta que a medida que la IA revela más sobre la toma de decisiones humana, se obliga a considerar y evaluar continuamente el papel en la toma de decisiones o comportamientos humanos y por ende mejoría los procesos impulsados ​​por los individuos en el futuro.

Mientras tanto, la inteligencia artificial emocional sigue en fase experimental, pero su irrupción plantea una reflexión de fondo: ¿Qué papel queremos que juegue la tecnología en los juicios humanos?

Por ahora, la IA puede ayudar a organizar datos o sugerir patrones; pero la verdad, la culpa o el perdón siguen siendo decisiones humanas. En un mundo cada vez más automatizado, el desafío será mantener la justicia conectada con su esencia: la conciencia y la empatía.

En reflexión con la Inteligencia Artificial: “Caras vemos, corazones no sabemos”, nuestra gran pregunta  ¿Puede una máquina saber la verdad? . extraído del periódico digital tttps://www.dominicanoshoy.com/2025/10/29/decisiones-judiciales-con-inteligencia-artificial-ia-justa-o-injusta/

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba