Está en la página 1de 15

LA INTELIGENCIA ARTIFICIAL COMO PRUEBA

LIBRE: INNOVACIÓN DEL PRINCIPIO DE LIBERTAD


PROBATORIA EN EL PROCESO LABORAL

Angimar Damas
Raúl Brito

RESUMEN
En la actualidad, vivimos en un mundo que está siendo denominado por los
avances de la ciencia y la tecnología. La inteligencia artificial no escapa de esta realidad
y se está convirtiendo en una herramienta de uso habitual en la vida diaria. El derecho
tampoco escapa de esta realidad, ya que se está aplicando desde la vigilancia hasta la
toma de decisiones judiciales, con el objetivo de mejorar y agilizar los procesos. Sin
embargo, el uso de la IA en el proceso de recopilación y evaluación de pruebas plantea
importantes preguntas sobre la libertad probatoria y cómo se mantiene en un entorno
tecnológico en evolución. La IA implementa básicamente dos herramientas
fundamentales, basadas en el análisis de textos y el reconocimiento de voz, las cuales
agrupan un sin fín de datos en cuestión de segundos. Al hacer uso de la IA, se presentan
diversas implicaciones como la admisibilidad de las pruebas recopiladas por la IA, el
sesgo potencial en los algoritmos de IA y el riesgo de que la tecnología sea utilizada de
manera incorrecta o excesiva, lo que puede traer como consecuencia factores de riesgo
al no existir ninguna regulación legal en cómo puede hacerse un buen uso de la misma
sin presentar falta de transparencia en las pruebas.

Palabra clave: Inteligencia artificial, pruebas, proceso, tecnología, derecho.

ABSTRACT
Nowadays, we live in a world that is being called by the advances of science and
technology. Artificial intelligence does not escape this reality and is becoming a
commonly used tool in daily life. The law does not escape this reality either, since it is
being applied from surveillance to judicial decision-making, with the aim of improving and
streamlining processes. However, the use of AI in the evidence collection and evaluation
process raises important questions about probation and how it is maintained in an
evolving technological environment. AI basically implements two fundamental tools,
based on text analysis and voice recognition, which gather endless amounts of data in a
matter of seconds. When making use of AI, there are various implications such as the
admissibility of the evidence collected by the AI, the potential bias in AI algorithms, and
the risk of the technology being used incorrectly or excessively, which can lead to
consequence risk factors as there is no legal regulation on how to make good use of it
without presenting a lack of transparency in the tests.

Key words: Artificial intelligence, proofs, due process, technology, law.

1
En años recientes, en la legislación de España, se sancionó el
breve Real Decreto-ley 9/2021, cuya exposición de motivos advierte de “la
incidencia de las nuevas tecnologías en el ámbito laboral y la necesidad
de que la legislación laboral tenga en cuenta esta repercusión (...) en los
derechos colectivos e individuales de las personas trabajadoras”.

Es difícil aportar una definición del concepto de Inteligencia

Artificial, a pesar de que ya se ha convertido en un término familiar para

los usuarios de la tecnología de este siglo. Es una de los objetos de

estudio más complejos y extensos que deben poner bajo la lupa los

investigadores del Derecho, ya que resulta complicado delimitar, sin que

en poco tiempo se vuelva obsoleto, un concepto que evoluciona tan

deprisa. Recientemente, el High-Level Expert Group (HLEG) de la

Comisión Europea (2019) en su departamento de finanzas sustentables,

definió la IA como:

Aquellos sistemas de software diseñados por humanos que,


ante un objetivo complejo, actúan en la dimensión física o digital:
percibiendo su entorno, a través de la adquisición e interpretación
de datos estructurados o no estructurados, razonando sobre el
conocimiento, procesando la información derivada de estos datos y
decidiendo las mejores acciones para lograr el objetivo dado. Los
sistemas de IA pueden usar reglas simbólicas o aprender un
modelo numérico, y también pueden adaptar su comportamiento al
analizar cómo el medio ambiente se ve afectado por sus acciones
previas.

2
Es así, que consideramos que el empleo de la Inteligencia Artificial
tiene como finalidad llevar a cabo un comportamiento inteligente a través
de las máquinas. Entendemos de esta labor, que para esto es necesario
que éstas observen, analicen, aprendan, interpreten y tomen decisiones
por sí mismas, de modo que aporten alguna respuesta o solución nueva a
los usuarios.

Como indica el jurista español Antonio González Lorenzo (2022),


los últimos años la inteligencia artificial ha irrumpido en el ámbito laboral y
es previsible que en los próximos tiempos continúe ganando
protagonismo. Las innovadoras herramientas algorítmicas con las que
cuenta el patrono tienen un gran potencial para ser empleadas en una
gran multiplicidad de tareas y acompañar al trabajador a lo largo de la
relación laboral. Sin embargo, junto con la multiplicidad de usos de la
Inteligencia Artificial, otro de los componentes de la inteligencia artificial
fiable que debe tenerse en cuenta es la licitud, esto es, el respeto a las
normas jurídicas aplicables, que deben guardar coherencia con los
principios y valores éticos. Es así que no solo la aplicación de los
sistemas de Inteligencia Artificial en el derecho laboral sustantivo genera
desafíos jurídicos, sino también que como indica la abogado especialista
Ana Belén Muñoz Rodríguez (2020) se ha advertido de las carencias de
un enfoque por disciplinas en la reacción a los desafíos planteados por la
Inteligencia Artificial, sino se toma en cuenta también el derecho adjetivo,
lo que puede provocar desajustes normativos y lagunas que malogren los
resultados perseguidos en el proceso judicial.

Como antecedente a este debate en la legislación española,


encontramos el artículo 64.4 Estatuto de Trabajadores (2021), que
contempla un derecho de información de los representantes de los
trabajadores sobre “los parámetros, reglas e instrucciones en los que se
basan los algoritmos o sistemas de inteligencia artificial que afectan a la

3
toma de decisiones que pueden incidir en las condiciones de trabajo, el
acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

Un caso específico y reconocido, que podemos tomar como


antecedente de este tópico, fue el del uso del algoritmo COMPAS creado
por la empresa Northpointe. Fue un caso judicial que tomó lugar en
Wisconsin (2016), donde a la empresa de manufactura Loomis se le
aplicó un algoritmo especial para recibir un puntaje de riesgo de
accidentes laborales en las áreas de trabajo que estaban destinadas a los
empleados, dicho puntaje que determinaba la probabilidad de ocurrencia
y reincidencia de accidentes laborales. Es así como al empleador se le
condenó a una indemnización de 275.000 dólares por haber obtenido un
puntaje alto. La decisión fue apelada por Loomis y llegó a la Corte
Suprema de Wisconsin. Loomis argumentó que se había violado el debido
proceso pues él no tenía la información completa sobre el algoritmo que
se utilizó para fallar en su contra (Nishi, 2019). Nos hacemos la siguiente
pregunta, ¿operó el tribunal de Wisconsin con demasiada libertad al
admitir el algoritmo de Inteligencia Artificial como prueba en el proceso sin
que la parte actora tuviera a su disposición y conocimiento toda la
información sobre el cómputo del riesgo y su funcionamiento?

Resulta importante recalcar que en este caso el uso del algoritmo


COMPAS fue un obstáculo para que el proceso en contra de Loomis fuera
completamente transparente. Podríamos decir que las garantías
procesales quedaron en tela de juicio porque la empresa creadora del
algoritmo aseguró que existen secretos empresariales que no permiten la
circulación completa de información sobre ellos. Esto es un obstáculo
legal para el juez y para el demandado, porque no pueden ejercer el
control de la prueba de manera idónea, a través de una auditoría del
resultado algorítmico si la información sobre ésta es confidencial,
incompleta, limitada o ha sido modificada.

4
Este es el asunto principal que se debe tener en consideración al
permitir que resultados de un sistema de Inteligencia Artificial sean
presentados como una prueba para demostrar un hecho controvertido.
Reflexionando sobre lo anterior, nos preguntamos: ¿Podrá el juez
comprender completamente la prueba algorítmica basada en la cual toma
una determinada decisión y motiva la sentencia? ¿Puede la parte
contraria acceder a los elementos básicos para contradecir la prueba en
su contra?

Como indica Álvarez (2018), globalmente el concepto de justicia


digital ha permitido configurar sistemas jurídicos donde no solo el acceso
a la justicia sea totalmente digital, y sea la Inteligencia Artificial la que
resuelva la controversia, sino también articular las herramientas
necesarias para que la ciudadanía pueda tomar elementos de la
Inteligencia Artificial y los utilice a modo de prueba. En Zhejiang, China se
ha creado un tribunal electrónico programado para resolver las
controversias legales, utilizando las herramientas de Inteligencia Artificial.
En el 2018, La Corte Suprema de China estableció que en cuanto a las
pruebas los tribunales de Internet son competentes para reconocer datos
digitales como evidencia si las partes involucradas han almacenado estos
datos a través de blockchain con firmas digitales, marcas de tiempo
fiables y verificación de valores hash o mediante una plataforma de
deposición digital, y pueden probar la autenticidad de dicha tecnología
utilizada. Sin embargo, mientras no se produzca dicha transición en los
países de este hemisferio, es pertinente que planteemos opciones para la
implementación de la Inteligencia Artificial como medio de prueba en el
proceso laboral con las herramientas legales vigentes, sin que se viole el
principio de libertad probatoria.

En sentencia N° 109, del 20 de febrero de 2003, de la Sala


Constitucional del Tribunal Supremo de Justicia de Venezuela, se ha
pronunciado sobre los medios de prueba libres de la siguiente manera:

5
" (...) Los medios de prueba libres son aquellos que no están previstos en
el ordenamiento jurídico y que, no obstante, pueden ser utilizados por las
partes para demostrar los hechos controvertidos en el proceso." Explica la
sentencia que la admisión de los medios de prueba libres debe estar
sujeta a la valoración del juez en función de su pertinencia y relevancia
para la resolución del caso, y que además debe ser una decisión
motivada y fundamentada por parte del juez. Lo que nos hace reflexionar
sobre la posibilidad de que el juez como rector del proceso, de manera
motivada y fundamentada, pueda admitir un sistema de Inteligencia
Artificial como idóneo para la resolución del caso. Es criterio de la Sala
que la valoración de los medios de prueba libres debe estar sujeta al
principio de la sana crítica, es decir, que el juez debe valorar la prueba en
función de su razonabilidad, coherencia y concordancia con el resto del
material probatorio, y que dicha prueba libre no debe, de ninguna manera,
vulnerar los derechos fundamentales de las partes, tal como el derecho
de contradicción.

En el derecho laboral venezolano, el artículo 70 de la LOPTRA


contempla la libertad probatoria, de la siguiente manera:

(...) Las partes pueden también, valerse de cualquier otro


medio de prueba no prohibido expresamente por la ley y que
consideren conducente a la demostración de sus pretensiones.
Estos medios se promoverán y evacuarán, de la forma
preceptuada en la presente Ley, en lo no previsto en esta se
aplicarán, por analogía, las disposiciones relativas a los medios de
pruebas semejantes contemplados en el Código de Procedimiento
Civil, Código Civil o en su defecto, en la forma que señale el Juez
del Trabajo. (...)

6
Lo ha explicado, de igual manera, la Sala de Casación Social del
Tribunal Supremo de Justicia, en sentencia No. 0760, del 27 de Mayo del
2003, caso: Tiendas Karamba C. Así pues, una vez se analice la prueba
promovida, sólo resta al juzgador declarar su legalidad y pertinencia y, en
consecuencia, habrá de admitirse, salvo que se trate de una prueba que
aparezca manifiestamente contraria al ordenamiento jurídico, o cuando el
hecho que se pretende probar con el medio respectivo no guarde relación
alguna con el hecho debatido, ante cuyos supuestos tendría que ser
declarada como ilegal o impertinente y, por tanto, inadmitida. Luego
entonces, es lógico concluir que la regla es la admisión y que la negativa
sólo puede acordarse en casos excepcionales y muy claros de manifiesta
ilegalidad e impertinencia, premisa que resulta aplicable a los procesos
contencioso tributarios.

A tenor de lo expuesto anteriormente, es necesario aclarar que no


todos los medios de prueba serán idóneos en materia laboral, por sus
características procesales y materiales, para que su reglamentación se
aplique por analogía, en dado escenario, a un sistema de IA;
propongamos el caso de la prueba pericial y documental, como posibles
candidatos a ser los medios de prueba cuyo régimen se aplique a los
sistemas de IA.

¿Podría el sistema de IA, en sí mismo, fungir de perito ante un


juez? En el caso de la prueba pericial, tal como indica Rengel-Romberg
(1992) es evidente que ella brinda un conocimiento experto, específico y
especializado sobre un campo en el que el juez no tiene experiencia. Por
ende, en el caso de un sistema Inteligencia Artificial, el mismo sistema, sin
necesidad de intermediarios, podría en ocasiones ser quien brinde
respuestas o información especializada del campo para el cual fue
programado.

7
La realidad jurídica en Venezuela demuestra que el cumplimiento
de este supuesto es de difícil implementación; no por cuestiones que
nieguen la capacidad del sistema (pues ya se ha explicado que los
sistemas de IA están programados justamente para responder preguntas
y otorgar resultados sin la inmediación y constante programación por
parte de un ser humano), sino por el marco normativo en materia
probatoria del sistema jurídico venezolano y el derecho de contradicción
en sí mismo, en especial las que se refieren al proceso laboral
venezolano. La Ley Orgánica Procesal del Trabajo venezolana, contempla
la prueba de experticia en su Capítulo VI, artículo 92 de la siguiente
manera:

Art. 92: El nombramiento de expertos sólo podrá recaer en


personas que por su profesión, industria o arte tengan
conocimientos prácticos en la materia a que se refiere la experticia.
Los jueces no están obligados a seguir el dictamen de los expertos
si su convicción se opone a ello. En este caso razonaron los
motivos de su convicción.

Es claro que un sistema de Inteligencia Artificial se equipara al


nivel de un conocimiento especializado o técnico; sin embargo, el examen
pericial luego debe ser explicado o comprobado por el perito, que como
persona tiene la obligación de cumplir con ciertas características o
requisitos para poder presentar su dictamen técnico ante el tribunal. Por
ende, tal como indica Gómez Urrutia (2021) “al hablar de perito siempre
se habla de un “quién”, habría que ver si con los avances tecnológicos del
siglo XXI podría hablarse de un “qué”. Es esencial, como mencionamos,
tener claro que los peritos deben cumplir con un conjunto de
características y deberes. A saber, nos hacemos las siguientes preguntas:
¿Puede una IA cumplir con los deberes tales como los que se le exigen a
una persona natural cuando constata su dictamen pericial o es
interrogada por el tribunal?

8
Dicho lo anterior, y con base en estos lineamientos, resulta
complicado pensar que un algoritmo de IA podría llegar a hacer el rol en
sí mismo como perito, porque como sistema de dicha naturaleza está
programada para responder una serie de preguntas o aplicar ciertas
variables en determinados casos; pero esto no se equipara a tener o ser
capaz de dar una opinión independiente y que verídicamente pueda
llamarse una convicción profesional real. Es cierto, que hay quienes
podrían estar en desacuerdo con esta posición, y para ellos importante
recalcar, como indica Marcelo Hernández Castelló (2019) que: “la IA tiene
la destreza de recrear el pensamiento humano y le es incluso posible, en
el caso del machine learning, aprender bajo supervisión de sus
desarrolladores o sin supervisión de ellos”. Sin embargo, no es aún
factible aceptar en derecho igualar a un sistema, que de igual forma
necesitará unos datos de entrada y ser programado con anterioridad, con
la conciencia humana.

Otro escenario que podríamos estudiar, y que ha sido planteado


por Londoño Daza (2021), es aquel en el que el dictamen sea realizado
por el sistema de Inteligencia Artificial, pero sea un perito humano quien
de constate dicho dictamen; pero aún así, no resultaría del todo claro si
esa persona estaría brindando un testimonio técnico sobre el
funcionamiento genérico del sistema de IA y su programación, y no sobre
la aplicación específica de variables que permita dar un concepto sobre el
caso concreto y el dictamen arrojado. Aún así, la autoría del dictamen
pericial se le atribuiría a la máquina o sistema, y aquel perito humano que
lo presenta ante el juez, sería considerado un tercero que no fue quien lo
realizó. Entendemos que, en la práctica el deber ser es que el perito que
realice el dictamen sea el mismo que luego brinde declaración o sea
interrogado por la contraparte y el juez en audiencia. En dicho caso, hay
un riesgo alto de que el principio de contradicción fuera afectado, porque

9
el interés de la parte contraria en el litigio se sustenta en poder cuestionar
o disecar el dictamen pericial del perito humano que lo llevó a cabo.

El perito es en esencia un auxiliar del proceso laboral y debe ser


una persona que pueda responder las interrogantes en un lenguaje
comprensible para las partes y el juez. En el supuesto caso, de que a una
prueba algorítmica se le diera el trámite de un medio de prueba pericial se
deben evaluar los efectos, por ejemplo, en el tiempo; esto ya que, para
ejercer la contradicción debe contarse con el tiempo suficiente para que
pueda evaluarse el algoritmo, que presenta un desafío complejo para
aquel que no tiene conocimiento sobre su funcionamiento. La realidad, es
que, en el caso de la IA como medio de prueba pericial, los tiempos que
otorga la ley no son suficientes, más aún si se tiene en cuenta que la
contradicción de un dictamen pericial se hace ahí mismo, en la audiencia,
tal como lo indica el artículo 155 de la LOPTRA: “Evacuada la prueba de
alguna de las partes, el Juez concederá a la parte contraria un tiempo
breve, para que haga, oralmente, las observaciones que considere
oportunas.”.

La audiencia, entonces, sería la oportunidad para contradecir el


informe algorítmico y constatar si el proceder de este fue correcto y no
hubo intervenciones humanas en su confección final que se presenta
como resultado de Inteligencia Artificial. Es factible que sea necesario,
dadas las complejidades de los sistemas de Inteligencia Artificial,
examinar muy detenidamente el algoritmo y sus variables de manera total
con el simple resultado que ha sido consignado como medio de prueba.
Es por esto que el juez puede y debe optar por aplicar el cotejo para
analizar el examen de la Inteligencia Artificial e incluso descubrir si existió
algún tipo de intervención en el resultado o si el mismo está contaminado
por un perjuicio, como lo contempla el artículo 81 de la LOPTRA.

10
Esto tiene que ver con la autoría del documento, no con su
pertinencia o utilidad. Un ejemplo de esto sucede cuando el documento
que se provee como elemento probatorio que contiene la firma de una de
las partes es en realidad una suplantación de la firma de la persona a la
que se le atribuye su autoría; y en virtud de esto, no es auténtico. En el
caso de un resultado proporcionado como dictamen pericial del sistema
de la Inteligencia Artificial se puede tachar de falso si no se empleó el
sistema de Inteligencia Artificial al alegan para crear ese documento, sino
otro distinto o que en realidad no se utilizó ninguno, sino que fue
elaborado por la parte actora, o que el resultado arrojado por el sistema
fue en realidad resultado de la intervención de un humano.

Ahora, examinemos el segundo escenario referido a la prueba


documental en el proceso laboral venezolano. En vista de que el resultado
que arroje el sistema de Inteligencia Artificial podrá ser impreso, ello le da
viabilidad de ser tratado como un documento según el artículo 107 de la
Ley Orgánica Procesal del Trabajo:

Art. 107: El Juez, a pedimento de cualquiera de las partes y


aun de oficio, puede disponer que se ejecuten planos, calcos y
copias en fotográficas, de objetos, documentos y lugares y cuando
lo considere necesario, reproducciones cinematográficas o de otra
especie que requieran el empleo de medios, instrumentos o
procedimientos mecánicos.

O por otro lado podría ser considerado un mensaje de datos y ser


presentado como tal, siguiendo la jurisprudencia del Tribunal Suprema de
Justicia Venezolano en sentencia de la Sala de Casación Civil esta Sala
de Casación Civil, en sentencia dictada el 24 de octubre de 2007, caso:
Distribuidora Industrial de Materiales C.A. contra Rockwell Automation de
Venezuela C.A., al establecer que la información contenida en un Mensaje

11
de Datos, reproducida en formato impreso, tendrá la misma eficacia
probatoria atribuida en la ley a las copias o reproducciones fotostáticas.

Finalmente, existe la disyuntiva que representan las normas de


confidencialidad de los sistemas de Inteligencia Artificial a la hora de
poder percibir los pasos del procesamiento de datos que se reflejan en el
sistema. Esto conlleva a que el proceso de cotejo se vea frustrado al no
poder examinar paso a paso el algoritmo de Inteligencia Artificial hasta
llegar a su resultado final, razón por la cual deberá utilizarse un sistema
de Inteligencia Artificial transparente, para garantizar su debida
contradicción.

Finalizamos con la reflexión de que en la actualidad no existe un


marco normativo específico para el uso de la Inteligencia Artificial como
medio de prueba. Sin embargo, existen trabajos académicos que buscan
institucionalizar este tipo de avances tecnológicos en el ordenamiento
jurídico actual, aún es escasa la gama de usos de los sistemas de IA en la
administración de justicia. Por el momento, ante la falta de un marco
normativo, consideramos que el juez debe aplicar la analogía para poder
darle cabida en un proceso judicial. Creemos así, que es posible postular
la implementación de la Inteligencia Artificial como medio de prueba, a
pesar de que existen los retos concernientes a los requisitos y deberes
que contempla la legislación nacional, antes mencionados. Esto es debido
a que la correcta aplicación de la Inteligencia Artificial, que pueda ser
auditada, permite el desarrollo adecuado del derecho de contradicción y
así un justo ejercicio del control de la prueba por ambas partes
involucradas. Así pues, si se aplican los criterios de la analogía de
acuerdo a la sana crítica del juez, se debe optar por el medio de prueba
documental para institucionalizar el resultado arrojado por el sistema de
Inteligencia Artificial Esto a causa de que la práctica de la IA como medio
de prueba pericial es limitada según los principios del derecho laboral
venezolano, y presenta dificultades técnicas y materiales en el entendido

12
de que un sistema de IA haga el rol, en sí mismo, como perito o experto
ante el juez.

Lo anterior, permitiría no solo que las partes tengan lugar en la


construcción de la verdad en el proceso judicial, sino que es garante del
correcto funcionamiento del sistema judicial en el proceso laboral, lo que
en el ámbito jurídico se refleja en una sentencia justa que resuelve el
litigio y que ampara tanto el orden social, como la dignidad humana
(Nuñez, 2019)

13
Referencias Bibliográficas

● AA.VV., “Los desafíos de la admisión de medios probatorios


electrónicos en los procesos judiciales”,,
http://noticias.juridicas.com/actualidad/no-ticias/10537/
● Álvarez, D. (2018). Inteligencia Artificial al servicio de la técnica
forense.
● Comisión Europea. (2019)..
https://ec.europa.eu/knowledge4policy/ai-watch/finland-ai-strategy-r
eport_en
● Comisión Europea. (2019). Informe Tecnológico-Financiero del
High-Level Expert Group (HLEG). Commission appoints expert
group on AI and launches the European AI Alliance | Shaping
Europe’s digital future (europa.eu)
● Corvalán, J. (2019) Inteligencia Artificial y proceso judicial. Desafíos
concretos de aplicación. Diario DPI Novedades.
Https://dpicuántico.com/sitio/wp-content/uploads/2019/09/IA-y-Proc
eso-Judicial.pdf
● González Lorenzo, Antonio. (2021). El Arranque de la Inteligencia
Artificial.
● Gómez Urrutía, M. (2005). El Debido Proceso. Opinión Jurídica,
4(7), 89-105. http://revistas.udem.edu.co/index.php/opin-
ion/article/view/1307/1283
● Ley Orgánica Procesal del Trabajo (2002). Gaceta Oficial N°
37.504.
● Londoño Daza, Ernesto. (2020). Comparación Forense del habla:
el cambio conceptual. Revista técnica del Cuerpo Nacional de
Policía (158). Págs. 62-63
● Nieva Fenoll, Jordi. Inteligencia artificial y proceso judicial. Madrid:
Marcial Pons, 2018

14
● Nishi, A. (2019). Privatizing Sentencing : A Delegation Framework
for Recidivism Risk Assessment. Columbia Law Review. Vol. 119.
(6 bis). 119(6), 1671.
● Muñoz Rodríguez, Ana Belén. (2018) La prueba electrónica en el
proceso penal y el valor probatorio de conversaciones mantenidas
utilizando programas de mensajería instantánea. Revista Boliviana
de Derecho 25: 536-549.
https://publicaciones.unex.es/index.php/AFD/article/view/489/572
● Real Decreto-ley 9/2021 del Ordenamiento Jurídico Español.
(2021) BOE-A-2021-7840.
● Real Decreto - Ley. Estatuto de Trabajadores - BOE-A-2015-11430
Real Decreto Legislativo 2/2015.
● Sentencia No. 0760, del 27 de Mayo del 2003, caso: Tiendas
Karamba C., de la Sala de Casación Social del Tribunal Supremo
de Justicia.
● Sentencia N.281 del 24 de octubre de 2007, caso: Distribuidora
Industrial de Materiales C.A. contra Rockwell Automation de
Venezuela C.A., de la Sala de Casación Civil del Tribunal Supremo
de Justicia.

15

También podría gustarte