Construyendo un puente ético: Inteligencia artificial y cumplimiento normativo

Share on facebook
Share on google
Share on twitter
Share on linkedin
Descargar PDF

 Juan Eduardo Rosales Álvarez[1]

La inteligencia artificial (en adelante, IA) puede llegar a desempeñar un papel muy importante en el cumplimiento normativo al proporcionar el soporte para el desarrollo de herramientas avanzadas en la detección de riesgos, la automatización de tareas y el monitoreo; y, más aún, al tener la posibilidad de predecir, obviamente con el debido cuidado, la posible comisión de ilícitos o delitos. Esta interacción ofrecería valiosas oportunidades e importantes retos que merecen ser abordados con detenimiento con el fin de evitar que su uso viole la privacidad de los funcionarios.

SUMARIO

I. Introducción; II. Qué son el compliance, el behavioral compliance y la inteligencia artificial; III. Inteligencia artificial y su aplicación en el behavioral compliance; IV. Conclusiones; V. Reflexión final; VI. Bibliografía.

I. Introducción

La inteligencia artificial, término de moda hoy en día, ha generado muchas inquietudes e incertidumbres en el mundo entero. La preocupación que conlleva el uso de la IA sobre el impacto en el empleo y en la sociedad es comprensible y ha sido objeto de debate desde su aparición el siglo pasado, y más en los últimos años, pues se considera que podría reemplazar a las personas en muchas de las ocupaciones profesionales[2].

A pesar de esos cuestionamientos, la IA se impondrá en la mayoría de las actividades desarrolladas por el ser humano. Actualmente, hay una serie de factores claves que están transformando diversos aspectos de la sociedad y la economía, esencialmente por la eficiencia y la automatización de procesos en tareas rutinarias, el análisis de datos y la detección de patrones que permitirían la clasificación de los riesgos.

Otros términos que se han impuesto como normativa[3] en gran parte de las empresas son el compliance, o cumplimiento normativo, y los programas de ética y transparencia, temas que también han suscitado algunas inquietudes por su implementación y alcance, principalmente en la responsabilidad del oficial de cumplimiento (en adelante, OC).

Siendo así, ya se ha planteado la conveniencia de usar la IA para la aplicación de los programas de cumplimiento, la elaboración de los mapas de riesgos y la detección oportuna de aquellos aspectos que no solo generen el incumplimiento de las normas, sino que vayan más allá y detecten la posible comisión de ilícitos que afecten patrimonialmente a la empresa. Esto haría necesario incluir un aspecto fundamental: el comportamiento de los individuos que ejecutan las actividades dentro de la organización.

A manera de ejemplo, desde el año 2014([4]) la Comisión Europea desarrolla y gestiona la herramienta de evaluación de riesgo denominada «Arachne», representada por la Dirección General de Empleo, Asuntos Sociales e Inclusión y por la Dirección General de Política Regional y Urbana. Su objetivo es  «… identificar de forma efectiva y eficaz los proyectos, contratos, contratistas y beneficiarios de mayor riesgo necesarios para sus verificaciones de la gestión»[5]. Esta herramienta se basa en la IA y fue elaborada principalmente con una tecnología moderna de extracción y enriquecimiento de datos.

Además, de acuerdo con el documento Modelo de inteligencia artificial generativa: riesgos y oportunidades para las empresas[6], algunos modelos pueden, por ejemplo, predecir la siguiente palabra en función de las frases previas, o la siguiente imagen según las descripciones de las imágenes anteriores. Esta capacidad predictiva es lo que les permite a los modelos diseñados identificar documentos sobre una temática en un texto.

Igualmente, el 13 de julio de 2016, el Tribunal Supremo del Estado de Wisconsin, EUA, publicó un fallo[7] al adoptar una postura sobre el uso de la IA —basado en algoritmos de predicción del comportamiento[8]— para promulgar sentencias en un proceso penal, avalando el uso del Correctional Offender Management Profiling for Alternative Sanctions (COMPAS)[9].

Así mismo, en lo relacionado con el comportamiento humano, principalmente en lo concerniente a «por qué si el funcionario sabe cómo actuar y conoce las sanciones por su conducta, opta por transgredir las normas»[10], se ha observado que a pesar de existir una sanción o pena no necesariamente esto es un factor disuasivo que lo desestimule a ejecutar el acto irregular.  De ahí la importancia y la utilidad de incorporar en la IA el aspecto del comportamiento humano cuando la ocurrencia de hechos irregulares es propiciada y efectuada por funcionarios de las empresas o los terceros con interés (stakeholders), teniendo en cuenta, además, que muchos de esos actos se dan por la manipulación de los individuos.

En este último aspecto, que es altamente subjetivo, algunos tratadistas hablan de los sesgos cognitivos, entendiendo que estos se dan «[e]n grupos organizados con dinámicas preestablecidas fuertemente arraigadas, el comportamiento del individuo se ve comprometido por los influjos que estas imponen, tácita o expresamente, y que limitan su conciencia del riesgo, de la antijuridicidad o, en casos extremos, la posibilidad (exigibilidad) real de una conducta alternativa»[11]. 

Dicho lo anterior, consideraría que no estaría equivocado al indicar que lo relacionado con el comportamiento humano es un tema que obligatoriamente debe contemplarse al elaborar los programas de behavioral compliance, con el fin de tratar de determinar los riesgos de posibles actos irregulares dentro de la organización y definir cuáles serían las variables que hay que tener en cuenta al momento de la elaboración del mapa de riesgos, temas en los que haremos énfasis en este artículo.

II. Qué son el compliance, el behavioral compliance y la inteligencia artificial

A. Compliance

De manera resumida, compliance es «actuar de conformidad a una ley, regla, política o norma»[12],  o dicho en más detalle, el «cumplimiento es el resultado de que una organización cumpla con sus obligaciones, y se hace sostenible introduciéndola en la cultura de la organización y en el comportamiento y en la actitud de las personas que trabajan en ella»[13].

Esto implica un conocimiento amplio de las normas y leyes existentes con el fin de que sean aplicadas en las empresas. Es importante mencionar que el funcionario encargado de su puesta en marcha y divulgación es el OC, un profesional con conocimiento de las normativas que abarcan temas jurídicos, contables, financieros, económicos, de proyectos, entre otros. Es decir, se requiere, para la función de cumplimiento, un equipo con amplios conocimientos sobre diferentes disciplinas y del entorno socioeconómico donde se desarrolla la empresa.

Para unificar los procedimientos de la función de compliance, además de la regulación legal, existen diversas directrices emitidas por organismos internacionales que han ido orientando la implementación de compliance empresarial, entre ellas tenemos las normas ISO–UNE[14]. En Colombia, la Superintendencia de Sociedades ha emitido normativa sobre el tema[15], y, finalmente, hay aspectos contemplados en el Código Penal respecto a sanciones por irregularidades que se presenten en las empresas.

De ahí también la importancia de contar con adecuadas herramientas de software que apoyen al OC y a su equipo de trabajo con la implementación de las mejores técnicas para evitar que la empresa y sus miembros se vean abocados a sanciones pecuniarias, disciplinarias e incluso penales. Por eso, la IA se convierte en una alternativa para ayudar a desarrollar dichas herramientas.

B. Behavioral compliance (cumplimiento comportamental)

Partiremos de la palabra inglesa «behavior» que, de acuerdo con el Standard Dictionary[16], hace referencia al comportamiento, a la conducta. La primera experiencia sobre el behavioral compliance se dio en el año 2010 con la creación del Behavioural Insights Team[17], o equipos de conocimiento del comportamiento, seguido por el enfoque en las ciencias conductuales y la arquitectura de decisiones.

En párrafos anteriores se mencionaron los sesgos cognitivos y la manipulación, aspectos que tienen una gran influencia en el comportamiento de las personas que laboran en las organizaciones y que en algún momento podrían llevar a que la conducta ética que han mantenido se vea comprometida o vulnerada debido a eventos familiares, económicos, sociales o a su entorno.

De ahí que «El Behavioral Compliance puede ser definido como la forma de incluir la ética y el análisis del comportamiento humano en la transformación cultural corporativa, con miras a lograr una efectiva prevención de ilícitos o comportamientos poco éticos»[18].

Entre los programas y temas de compliance, se encuentra el programa de ética y transparencia con normas que prohíben y castigan actuaciones de los empleados frente al quebrantamiento de una de esas normas. Entendemos que una prohibición es una imposición[19], ya sea de los entes de control para las empresas o de las empresas a sus funcionarios, prohibición que incluso puede derivarse en una sanción penal a la persona natural, y que, a pesar de existir, estar escrita y especificada, no necesariamente implica que los funcionarios la cumplan. De ser así no se habrían presentado las múltiples multas y sanciones por millones de dólares a empresas en diferentes partes del mundo[20].

Es decir, la infracción de la norma no está supeditada a si un país es más desarrollado que otro o si tiene mejor cobertura educacional. Está ligada al comportamiento de cada individuo y de este con el grupo de personas con las cuales se interrelaciona. De ahí que se han presentado sanciones y multas por aspectos relacionados con estafas, fraudes, falsas insolvencias, acceso a información privilegiada, ataques informáticos, lavado de activos, enriquecimiento ilícito, cohecho, tráfico de influencias, trata de personas, entre otros[21].

Entonces, podría considerarse que el OC y su equipo deben comprender el comportamiento de los individuos para intentar evitar las acciones irregulares o asegurar el apego a las normas establecidas. Estos aspectos subjetivos, que corresponden más a la parte de la psicología o sociología, ¿están al alcance del OC? Quizás sería conveniente apoyarse en una herramienta que evalúe un acto irregular (previamente o cuando este se produce) cuando el sujeto tenga conocimiento o conciencia de que lo que va a realizar es contrario a la norma, y, a su vez, quiere realizarlo para un beneficio propio o de un tercero. O, en su defecto, ¿el actuar del individuo es por desconocimiento u omisión? Este último lo trataremos más adelante.

C. Inteligencia artificial

El Dr. Marvin Minsky es reconocido por haber introducido el término de inteligencia artificial (IA), durante una conferencia celebrada en la Universidad Dartmouth, en 1956, en Hanover, Nuevo Hampshire. Desde entonces, el término se popularizaría mundialmente «al considerar el cerebro como una máquina cuyas funciones podían ser estudiadas y emuladas por un ordenador»[22]. La definió como «la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si fueran hechas por hombres»[23]. Minsky estaba convencido de que «la [i]nteligencia [a]rtificial no puede progresar porque no hay ideas de suficiente trascendencia como para abrir nuevos caminos de investigación»[24].

Sin embargo, su estudio buscaba modelar el comportamiento de la mente humana a través de máquinas, y mediante la combinación de elementos de la psicología cognitiva[25] y de las ciencias de la computación desarrollaba formas para hacer que «las computadoras funcionaran de una manera más parecida a la del cerebro»[26], siendo este el aspecto más importante, pues, como se comentó, la conducta humana, en muchas ocasiones, está sujeta a factores externos o moldeada por estos.

En ese sentido, en 1995, los ingenieros Stuart J. Russell y Peter Norvig publicaron el libro Inteligencia artificial: un enfoque moderno, y en el año 2016 Stuart Russel fundó el Centro para Inteligencia Artificial Compatible con Humanos, en la Universidad de Berkeley. Además, publicó ese mismo año el libro Human Compatible: Artificial Intelligence and the Problem of Control[27], con el que demostró avances significativos en la materia[28].

III. Inteligencia artificial y su aplicación en el behavioral compliance

Teniendo en cuenta que los objetivos del compliance son, entre otros, la identificación, la medición, el control y monitoreo, la evaluación y el evitar la materialización de los riesgos con el fin de prevenir cualquier acto irregular o contrario a las normas[29], la IA debería ser aprovechada para ayudar al manejo de las organizaciones. Como se comentó, la IA puede apoyar el compliance y el behavioral compliance para la elaboración de los programas de cumplimiento empresarial.

Además, al pretender encontrar la forma de hacer que las computadoras funcionen de una manera parecida a la del cerebro, la pregunta sería si los programas pudieran acercarse a determinar la posibilidad de que una o varias personas que participan en un proceso no incumplan la normativa ni incurrirán en la comisión de actos irregulares, aspectos que considero más importantes toda vez que, como se comentó, la conducta humana está sujeta en muchas ocasiones a factores externos.

Actualmente hay países y empresas que están abordando el tema —como el caso de Arachne—. En Colombia, la Fiscalía General de la Nación está implementando la herramienta Prisma que consiste en establecer un «Perfil de Riesgo de Reincidencia para la Solicitud de Medidas de Aseguramiento». En sus principales resultados indican que «el uso de la herramienta de predicción del riesgo de reincidencia puede disminuir el número de delitos cometidos por reincidentes en un 25 %» [30]. En este modelo Prisma, se señala que a través de un método de aprendizaje supervisado (machine learning[31]) se calcula la probabilidad de reincidencia, teniendo en consideración las características individuales y el historial delictivo de cada persona, así como el evento criminal más reciente[32].

Es necesario destacar la relevancia de la habilidad del programador para diseñar «sistemas capaces de identificar patrones, entre los datos suministrados, para hacer predicciones»[33]. Sin la competencia adecuada del programador y una adecuada revisión y selección de la información a tomar como base para la programación, el sistema podría no detectar posibles fallos (como en la detección de fraude en el uso de las tarjetas de crédito). De ahí la importancia de lo manifestado por Sara Brown en su artículo «Aprendizaje automático explicado» en el que apuntaba que «Las máquinas son entrenadas por humanos, y los prejuicios humanos pueden incorporarse a los algoritmos»[34].

Así, si al momento de diseñar el programa se ingresa información sesgada o datos que reflejan desigualdades, el programa al ejecutarse las aprenderá y las replicará, de tal manera que lo hará permanentemente. Esto ocurre debido a que el aprendizaje automático, un subcampo dentro de la inteligencia artificial, permite que las computadoras adquieran conocimientos de forma autónoma, a partir de los datos que se les proporcionan, identificando patrones y tendencias por sí mismas. Esto es algo que ya se ha visto en algunos programas como la red social X —antes Twitter— que captaba el lenguaje ofensivo o racista y bloqueaba al usuario.

Con base en la información citada, los programas mencionados usan datos estadísticos como edad, sexo, lugar geográfico, entre otros. Es decir, son hechos cumplidos sobre los que se basan los modelos, y de ahí la esencia de su funcionamiento.

Con las herramientas informáticas y la combinación de algoritmos podemos acercarnos a la predicción de comportamientos de riesgo o a la creación misma de un mapa de riesgos. Con esto, es posible identificar individuos dentro de una organización (empresa) susceptibles o propensos a infringir no solo las normas, sino también a llevar a cabo cualquier hecho delictivo.

En mi opinión, debemos separar dos temas para la implementación de estas herramientas: en primer lugar, el uso de datos estadísticos que identifiquen incumplimientos normativos y riesgos en regiones, empresas o diferentes sectores de la economía, asunto que ya se ha venido desarrollando. En segundo lugar, es relevante abordar el elemento comportamental, especialmente en lo concerniente a las conductas contrarias a la ética, que en parte son provocadas por la existencia global de estructuras delictivas que permean la sociedad. Aquí se requeriría el soporte de las ciencias que estudian el comportamiento humano con el fin de establecer aquellos aspectos individuales y grupales que puedan ir en contravía de las normas y principalmente del comportamiento ético.

Según lo expuesto, el objetivo sería determinar la propensión de un individuo para la comisión de un delito con base en variables como la edad, el estado civil, la ubicación del lugar de crecimiento, la religión, el grupo familiar, los antecedentes laborales y penales, el área de residencia, el entorno social, el educativo, entre otros. Además, se podrían considerar los comportamientos no verbales universales, que consisten en un conjunto de indicadores corporales prácticamente idénticos en todas las personas. Existe también un segundo tipo de indicador corporal conocido como comportamiento no verbal idiosincrásico. Este último se caracteriza por ser una señal relativamente única para cada individuo, y su observación requiere un análisis detenido de los patrones de comportamiento[35].

Igualmente, la IA en un proceso de selección de personal tendría la capacidad de especificar si una persona es propensa a cometer un delito con base en reconocimiento facial, dependiendo de los gestos o reacciones frente a algunas preguntas. Este tipo de evaluación podría aun ser más preciso que la prueba del polígrafo, pues esta última depende de la experticia, la subjetividad y la actitud de la persona que la ejecuta.

Adicionalmente, existe la posibilidad de que la IA identifique cuáles individuos son susceptibles de manipulación por otras personas o grupos, pues estos podrían verse afectados por sesgos o por influencias de terceros, lo que potencialmente daría pie a la comisión de actos irregulares. Esta identificación de riesgos se basaría en factores como el entorno de trabajo, el lugar habitual de residencia, el contexto familiar y social, así como las actividades sociales y los hobbies de cada individuo, entre otros factores. Sin embargo, es importante que al momento de desarrollar los algoritmos quede claro que no se pretende discriminar a ningún sector de la sociedad con las variables expuestas[36].

Al mismo tiempo, podría intentarse la programación en el análisis y búsqueda de mensajes para identificar conversaciones escritas y habladas con el fin de detectar posibles signos de incumplimiento de políticas o normativas. Obviamente, si nos referimos a la ética y la transparencia, se deben respetar la privacidad de las personas, las leyes relacionadas con la reserva de información personal y las políticas internas de las empresas respecto al manejo del correo electrónico corporativo.

Asimismo, es conveniente que cuando se desarrolle el programa, o la arquitectura del programa, quienes estén parametrizando y diseñando los algoritmos no estén influidos ni sesgados por su manera de pensar o de comportarse respecto a cierto tipo de individuos (para que esto no influya, consciente o subconscientemente, en el resultado), ya que lo que se quiere evaluar es el comportamiento de los funcionarios respecto a cierto tipo de influencias internas o externas.

Por eso, es crucial, así como se comentó, contar con las ciencias del comportamiento. Igualmente, es imprescindible capacitar a los programadores en el campo de la informática sobre los conceptos básicos del comportamiento, de modo que puedan diseñar algoritmos que se adapten de forma precisa a las necesidades y realidades de la conducta humana, para obtener, con la información ingresada, resultados ajustados a la realidad.

IV. Conclusiones

Es un hecho que la IA ha llegado para imponerse, por ahora, en la mayoría de las actividades cotidianas del ser humano. Desde el punto de vista de la capacitación, el desarrollo profesional, la diversión, el mejoramiento de procesos y la eficiencia en costos, la inteligencia artificial se ha convertido en una herramienta esencial.

Es fundamental que la IA pueda determinar o prever la probabilidad de incurrir en actividades irregulares o predecir si van a realizarse, principalmente en aquellas áreas en las que los funcionarios manejan recursos económicos o en decisiones del denominado homo economicus.

Posiblemente la mejor alternativa sea aplicar la IA mediante el aprendizaje automático, entendiendo este como «un subcampo de la inteligencia artificial, que se define en términos generales como la capacidad de una máquina para imitar el comportamiento humano inteligente»[37].

Además, la IA puede ser empleada para personalizar de manera más efectiva las políticas de cumplimiento, teniendo en consideración el comportamiento individual de las personas y las circunstancias específicas en las que se desarrollan las actividades.

En resumen, en el caso de la inteligencia artificial, el cumplimiento normativo y el comportamiento, se busca un sistema predictivo que pueda analizar la información proporcionada y determinar la posible comisión de una irregularidad, así como ofrecer alternativas sobre qué medidas de prevención aplicar.

Por último, la combinación de la IA y el cumplimiento comportamental puede ser beneficiosa, pero debe llevarse a cabo de manera ética. Esto implica un criterio de revisión exhaustiva de cada uno de los algoritmos y la validación de la información que se incorporará al programa, así como una adecuada selección del programador y del equipo de desarrollo, y una estricta supervisión continua para evaluar posibles sesgos erróneos al ejecutar el aprendizaje automático (machine learning). 

V. Reflexión final

La IA tiene el potencial para transformar diversos aspectos de la vida, lo que ha generado incertidumbre en cuanto a su impacto en el mundo laboral. Este tema fue abordado por el psicólogo y sociólogo Naum Kliksberg, quien expresó que «los temores de muchos trabajadores se materializarán: la inteligencia artificial reemplazará a las personas»[38]. Sin embargo, es un hecho que la IA ha llegado para quedarse, y los avances en este campo son cada vez más rápidos. Por tanto, más que sentir aprensión, es necesario enfocarse en la capacitación de las personas en este ámbito, con el fin de evitar brechas en el acceso a la tecnología.

Entonces, es preciso determinar hasta qué punto la inteligencia artificial puede prever o predecir la probabilidad de incurrir en actividades irregulares en la ejecución de labores empresariales, especialmente en aquellas áreas en las que los funcionarios manejan recursos económicos o toman decisiones relacionadas con el denominado homo economicus. No obstante, no se puede pasar por alto la posibilidad de que los funcionarios utilicen la inteligencia artificial para buscar alternativas con el fin de cometer actos irregulares o inducir a otros a hacerlo.

De ahí el valor de que los programas de compliance (y su enfoque) no solo se limiten a disuadir a través de modelos que se centren únicamente en causas, controles y acciones sobre el seguimiento a los riesgos, sino que se orienten también hacia la promoción de comportamientos éticos y al fomento de valores organizacionales. Se hace necesario incluir, lo más rápido posible, modelos basados en valores y en patrones de comportamiento.

Un aspecto que debemos tener en cuenta es que el cumplimiento conductual requiere la contribución de las ciencias relacionadas con el comportamiento humano. No obstante, es importante destacar que no todos los efectos derivados de las ciencias de la conducta necesariamente serán positivos. Por lo tanto, se debe ejercer un cuidado especial en su aplicación para evitar resultados negativos o no deseados.

Además, dado que la IA se está volviendo cada vez más influyente en las actividades humanas, surgen inquietudes en relación con la ética y las posibles consecuencias de su uso. Esto plantea preguntas sobre quién sería responsable en caso de que ocurriera un error que afectará no solo a la empresa, sino también a una persona o a un grupo de personas, especialmente cuando se trata de cuestiones morales o de derechos humanos.

Finalmente, se hace evidente la necesidad de una regulación internacional, y de una específica en el país. Esto permitiría establecer un marco normativo que aborde la responsabilidad de los programadores, los usuarios y de quienes controlan el acceso (que incluye tanto a los responsables directos como a los causantes de ataques cibernéticos), y garantizar también la protección contra la fuga de información.

VI. Bibliografía

Brown, Sara. «Machine learning, explained», MIT Management, abril 21 de 2021, https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explainedhttps://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained.

Comisión Europea. Carta para la introducción y aplicación de la herramienta Arachne de la evaluación del riesgo en las verificaciones de la gestión, 2016.

De Miguel Beriain, Iñigo y Miren Josune Pérez Estrada, «La inteligencia artificial en el proceso penal español: un análisis de su admisibilidad sobre la base de los derechos fundamentales implicados», Revista de Derecho UNED, n.o 25 (2019):533, https://revistas.uned.es/index.php/RDUNED/article/view/27013/21089.

Díaz Arana, Andrés Felipe. «Sesgos cognitivos y dinámicas empresariales: el lado “subjetivo” de los programas de cumplimiento«. Diálogos Punitivos. octubre 4 de 2018, https://dialogospunitivos.com/sesgos-cognitivos-y-dinamicas-empresariales-el-lado-subjetivo-de-los-programas-de-cumplimiento/

Enseñat, Silvia. Manual del Compliance Officer. Pamplona: Arazandi, 2016.

Fajardo de Andara, Carla Yohanna. «Marvin Lee Minsky: pionero en la investigación de la inteligencia artificial». Publicaciones en Ciencia y Tecnología, 15, n.o1 (2021).

«Herramienta PRISMA: perfil de riesgo de reincidencia para la solicitud de medidas de aseguramiento», Fiscalía General de la Nación, https://www.fiscalia.gov.co/colombia/wp-content/uploads/Perfil-de-riesgo-de-reincidencia-para-solicitudes-de-medida-de-aseguramiento.pdf.

Instituto Colombiano de Normas Técnicas y Certificación, Sistemas de Gestión del Cumplimiento. Directrices, Bogotá: Icontec, 2018.

«Sistemas de Gestión de Compliance». International Organization for Standarization ISO, 2015. ISO 19600, acceso 11 de octubre de 2021, https://www.normas-iso.com/.

«Modelos de Inteligencia Artificial Generativa: riesgos y oportunidades para las empresas», KPMG, mayo de 2023, https://assets.kpmg.com/content/dam/kpmg/es/pdf/2023/06/Informe-IA-Generativa-Riesgos-Oportunidades-Empresas%20(definitivo).pdf

Rosales Álvarez, Juan Eduardo. «Compliance y auditoría interna: Dos capítulos de una misma historia», Diálogos Punitivos, febrero 20 de 2020,  https://dialogospunitivos.com/compliance-y-auditoria-interna-dos-capitulos-de-una-misma-historia/

Rosales Álvarez, Juan Eduardo. «Incumplimiento empresarial: Entre normas y personas». Diálogos Punitivos. Octubre 14 de 2022, https://dialogospunitivos.com/incumplimiento-empresarial-entre-normas-y-personas/

Saccani, Raúl y Gustavo Morales. Tratado de Compliance. Buenos Aires: Editorial La Ley, 2018.

Silva, Renato. «Por qué la inteligencia artificial aumentaría el desempleo». Infobae, 14 de mayo de 2023, https://www.infobae.com/tecno/2023/05/14/por-que-la-inteligencia-artificial-aumentaria-el-desempleo/.

Tejada Plana, Daniel. «Behavioral Compliance: Ética conductual y cumplimiento normativo», Revista Electrónica de Responsabilidad Penal de Personas Jurídicas y Compliance, 1, n.o 1 (2023).

Jurisprudencia colombiana y citación legal

Circular 100-000011 (9, agosto, 2021), Supersociedades. Modificación integral a la Circular Externa n.o 100-000003 del 26 de julio de 2016 y adición del Capítulo XIII de la Circular Básica Jurídica de 2017.

[1] Economista e ingeniero forestal. Cuenta con estudios en Contaduría Pública. Tomó el curso de Perfeccionamiento: «Excelencia de Formación en Insolvencias» y el diplomado en Compliance Officer con la Universidad Externado de Colombia. Sumado a esto, ha cursado el diplomado Programa de Introducción a la Dirección Empresarial del INALDE y curso de la Operación Bursátil. Se ha desempeñado como profesor de pregrado en diferentes universidades en materias como Micro y Macroeconomía, Economía de la Producción y Evaluación de Proyectos, entre otras. Cuenta con más de veinte años de experiencia en los temas de auditoría, lo que le ha permitido desempeñarse ampliamente en investigación del fraude en empresas del sector real y, principalmente, del sector financiero, como bancos, fiduciarias y comisionistas de bolsa. Columnista del boletín académico Diálogos Punitivos.

[2] El psicólogo y sociólogo Naum Kliksberg indicó que «la inclusión de la inteligencia artificial en el mundo laboral tendrá dos consecuencias, una positiva y otra negativa: La primera sería que la producción aumentaría de una forma que no se había visto antes, mientras que la segunda sería que “sustituirá del 50% al 80% de la población mundial en sus puestos de trabajo”. Solo en Argentina, este número llegaría al 65%»: Renato Silva, «Por qué la inteligencia artificial aumentaría el desempleo», Infobae, 14 de mayo de 2023, https://www.infobae.com/tecno/2023/05/14/por-que-la-inteligencia-artificial-aumentaria-el-desempleo/

[3] Circ. 100-000011, Supersociedades. Modificación integral a la Circ. Externa 100-000003 del 26 de julio de 2016 y adición del Capítulo XIII de la Circ. Básica jurídica de 2017.

[4] La Comisión Europea desarrolló la herramienta Arachne, con el fin de que «la autoridad de gestión, con el apoyo total de los servicios de la Comisión, adopte, aplique e integre la herramienta Arachne de evaluación del riesgo para el período de programación 2014-2020 en sus procedimientos de verificación de la gestión» (Comisión Europea, Carta para la introducción y aplicación de la herramienta Arachne de la evaluación  del riesgo en las verificaciones de la gestión, 2016), pretendiendo, entre otros aspectos, poner en marcha una medida antifraude eficaz y proporcionada, de conformidad con el artículo 125, apartado 4, letra c), del RDC, disponible en https://ec.europa.eu/social/main.jsp?catId=325&intPageId=3587&langId=es.

[5] Comisión Europea, Carta para la introducción…, 1–8.

[6] «Modelos de Inteligencia Artificial Generativa: riesgos y oportunidades para las empresas», KPMG, mayo de 2023, https://assets.kpmg.com/content/dam/kpmg/es/pdf/2023/06/Informe-IA-Generativa-Riesgos-Oportunidades-Empresas%20(definitivo).pdf

[7] Era esta la primera vez que un tribunal de tal magnitud se pronunciaba sobre la validez del empleo de herramientas de inteligencia artificial, específicamente algoritmos de predicción del comportamiento, en la emisión de sentencias dentro del ámbito judicial penal. El tribunal respaldaba el uso del Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), un software matemático creado por una entidad empresarial privada. Los autores del artículo, La inteligencia artificial en el proceso penal español: un análisis de su admisibilidad sobre la base de los derechos fundamentales implicados, consideraban que la herramienta era opaca, porque «el procesado no tenía información alguna, como prueba suficiente para tomar decisiones sobre una pena de privación de libertad». (Iñigo de Miguel Beriain y Miren Josune Pérez Estrada, «La inteligencia artificial en el proceso penal español: un análisis de su admisibilidad sobre la base de los derechos fundamentales implicados», Revista de Derecho UNED, n.o 25 (2019):532-533, https://revistas.uned.es/index.php/RDUNED/article/view/27013/21089).

[8] Ibid, p. 533.

[9] El COMPAS es un programa matemático desarrollado por una empresa privada, que opera sobre la base de un análisis complejo que implica el uso de información procedente de una encuesta de 137 preguntas separadas en varias secciones diferentes e información correspondiente a los antecedentes penales públicos individuales, programado mediante algoritmos inteligentes. Según Roa Avella y Sanabria Moyano, en su artículo Uso del algoritmo COMPAS en el proceso penal y los riesgos a los derechos humanos: «es entendido como una herramienta estructurada que valora el riesgo de reincidencia del procesado y las necesidades criminológicas del sujeto».

[10] Juan Eduardo Rosales Álvarez, «Incumplimiento empresarial: Entre normas y personas». Diálogos Punitivos. Octubre 14 de 2022, https://dialogospunitivos.com/incumplimiento-empresarial-entre-normas-y-personas/

[11] Andrés Felipe Díaz Arana, «Sesgos cognitivos y dinámicas empresariales: el lado “subjetivo” de los programas de cumplimiento», Diálogos Punitivos, octubre 4 de 2018, https://dialogospunitivos.com/sesgos-cognitivos-y-dinamicas-empresariales-el-lado-subjetivo-de-los-programas-de-cumplimiento/

[12] Raúl Saccani y Gustavo Morales, Tratado de Compliance (Buenos Aires: Editorial La ley, 2018), 6.

[13] Instituto Colombiano de Normas Técnicas y Certificación, Sistemas de Gestión del Cumplimiento. Directrices (Bogotá: Icontec, 2018), p 7. Tema que se encuentra ampliado en: Juan Eduardo Rosales Álvarez, «Compliance y auditoría interna: Dos capítulos de una misma historia», Diálogos Punitivos, febrero 20 de 2020,  https://dialogospunitivos.com/compliance-y-auditoria-interna-dos-capitulos-de-una-misma-historia/

[14] «Sistemas de Gestión de Compliance», International Organization for Standarization ISO, 2015. ISO 19600, acceso 11 de octubre de 2021, https://www.normas-iso.com/.  Así mismo, La ISO 37301 tiene una explicación más amplia de las responsabilidades de la función de compliance: en concreto, se incrementa el uso de los canales de denuncias y la relevancia de la conducta de las personas como elementos fundamentales para determinar los riesgos para las empresas.

[15] Circ. 100-000012, Supersociedades.

[16] Langensheidt. Standard Dictionary. New York. p.579

[17] Daniel Tejada Plana, «Behavioral Compliance: Ética conductual y cumplimiento normativo», Revista Electrónica de Responsabilidad Penal de Personas Jurídicas y Compliance, 1, n.o 1 (2023):1.

[18] Consultado el 28 de septiembre de 2023. Fecha de publicación 21/07/2022. Disponible en: https://www.google.com/search?sca_esv=561969515&rlz=1C1YTUH_esCO1069CO1069&q=%C2%BFQu%C3%A9+es+el+Behavioral+Compliance%3F&sa=X&ved=2ahUKEwi3kuro7omBAxX5kIkEHbg2D6EQzmd6BAgQEAY&biw=1366&bih=651&dpr=1

[19] A manera de ejemplo, las circulares: 100-000016 del 24 de diciembre de 2020, y la circular 100-000004 del 9 de abril de 2021 y la circular 100-000008 del 11 de junio de 2021, Supersociedades.

[20] Rosales Álvarez, Incumplimiento empresarial, 5–7.

[21] Ibidem.

[22] Fajardo de Andara. Carla, «Marvin Lee Minsky: pionero…», 4.

[23] Carla Yohanna Fajardo de Andara, «Marvin Lee Minsky: pionero en la investigación de la inteligencia artificial»,  Publicaciones en Ciencia y Tecnología, 15, n.o1 (2021): 41-50.

[24] Se puede encontrar en «Marvin Minsky, padre de la Inteligencia Artificial, se muestra escéptico sobre los avances en este campo», Xataka, 3 de noviembre de 2015, https://www.xataka.com/robotica-e-ia/marvin-minsky-padre-de-la-inteligencia-artificial-se-muestra-esceptico-sobre-los-avances-en-este-campo

[25] «La psicología cognitiva trabaja en la identificación de las creencias o pensamientos disfuncionales que causan sufrimiento o son el origen del trastorno de una persona para modificarlos a partir del aprendizaje»: « ¿Qué es la psicología cognitiva? Características y objetivos», La Universidad en internet, 15 de septiembre de 2020, https://www.unir.net/educacion/revista/psicologia-cognitiva/.

[26] Fajardo de Andara, «Publicaciones en ciencia y…», 44.

[27] Stuar J. Russell y Peter Norvig, Inteligencia artificial un enfoque moderno (Madrid: Pearson Educación, S.A, 2004), 3-14.

[28] Por ejemplo, el tratar de abordar la solución de problemas que involucran la planificación de múltiples pasos, como en la navegación o el juego de ajedrez. También, al considerar el conocimiento y el razonamiento necesarios para tomar decisiones lógicas. Además, al analizar cómo un agente inteligente puede percibir su entorno para comprender lo que está sucediendo y determinar la estrategia óptima para maximizar su desempeño, entre otros aspectos relevantes. Esto se debe a la notable diferencia en la velocidad de procesamiento entre los circuitos de los computadores, capaces de ejecutar una instrucción en un nanosegundo, y las neuronas, que operan a una escala temporal considerablemente más lenta.

[29] Silvia Enseñat, Manual del Compliance Officer (Pamplona: Arazandi, 2016), p. 35.

[30] «Herramienta PRISMA: perfil de riesgo de reincidencia para la solicitud de medidas de aseguramiento», Fiscalía General de la Nación, https://www.fiscalia.gov.co/colombia/wp-content/uploads/Perfil-de-riesgo-de-reincidencia-para-solicitudes-de-medida-de-aseguramiento.pdf.

[31] Machine learning  –aprendizaje automático– es una rama de la inteligencia artificial que permite que las máquinas aprendan sin ser expresamente programadas para ello.

[32] «Herramienta PRISMA: perfil de…»

[33] «Machine learning: qué es y cómo funciona», BBVA, 8 de noviembre de 2019, acceso el 20 de septiembre de 2023,  https://www.bbva.com/es/innovacion/machine-learning-que-es-y-como-funciona/

[34] Sara Brown, «Machine learning, explained», MIT Management, abril 21 de 2021, https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explainedhttps://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained.

[35] Joe Navarro y Marvin Karlins. El cuerpo habla. (Málaga: España, Editorial Silio, 2018), 8.ª edición, 28.

[36] Se debe tener especial cuidado, como ya se comentó, con los sesgos, el racismo y las mentiras con el fin de evitar consecuencias no deseadas por la aplicación de la IA. Ese fue uno de los casos en EUA en el 2021, en donde un hombre afroamericano fue arrestado equivocadamente acusado de haber cometido un hurto al usar IA, y «(e)se mismo año, en Holanda, 26.000 familias fueron acusadas de fraude. El dato en común entre ellas era poseer algún origen migrante» (Julio César Guanche, «La historia del algoritmo. Los “fallos” de la Inteligencia Artificial», Unesco, 15 de mayo de 2023, https://www.unesco.org/es/articles/la-historia-del-algoritmo-los-fallos-de-la-inteligencia-artificial

[37] Brown. «Machine learning, explained».

[38] Silva, «Por qué la inteligencia artificial…».