En un foro de neurociencia europeo celebrado hace unas semanas, un neurocientífico alemán expresaba que, según su opinión, la gestión de Recursos Humanos en el 2050 sería solo una cuestión de Inteligencia Artificial. Lo vi tan seguro, que me atreví a profundizar en el debate sobre este futurible escenario y empezó a enumerar multitud de desarrollos de Inteligencia Artificial (IA) que permite identificar, analizar, procesar y decidir sobre cualquier problemática humana, y viendo en mi cartelito que ponía psicólogo, incidió sobre el desarrollo de la IA sobre la percepción, interpretación y emocionalidad que posibilita a las maquinas. Creyendo que las emociones eran el sumun de la respuesta humana mas allá de la IA, le volví a inquirir ¿y la IA tendrá conciencia, porque lo importante en la inteligencia humana es precisamente su nivel de conciencia sobre ella misma? ¿tendrá la IA conciencia frente a un problema humano? El neurocientífico tras una pausa acabo la discusión con una pregunta poderosa ¿pero… que es la conciencia? Desde entonces me debato conmigo mismo que el dilema básico del futuro de la IA es precisamente definir que es la conciencia, y os adelanto que tenemos que configurar de forma diferente el concepto de conciencia, por una parte, hay cosas que llamamos conciencia que lo pueda hacer la IA y otra parte que actualmente no podemos atisbar como cualidad de la IA. Por tanto, según describimos ¿Qué es la conciencia? podemos decir que parte pueden tenerla las máquinas y que parte necesita siempre de la intervención de una mente humana.
Para este ejercicio, debemos analizar las cuatro acepciones que se han ido compendiendo históricamente con el termino conciencia.
- Conciencia como conocimiento que tiene el ser humano sobre su existencia, de sus estados y de sus actos. Este autoreconocimiento supone que la IA reconocería su naturaleza de ser una maquina y fuera conocedora del impacto de sus actos: AUTORECONOCIMIENTO.
- Conciencia como conocimiento responsable y personal de un deber o una situación. Es decir, la maquina se siente responsable de un determinado acto y se siente obligada a comportarse de una determinada forma frente a una situación del entorno especifica: AUTORESPONSABILIDAD.
- Conciencia como facultad del ser humano para formular juicios espontáneos e inéditos sobre los actos propios y ajenos. Ser una maquina consciente según esta acepción seria aquellas que enjuician los actos propios y ajenos: AUTOENJUICIAMIENTO.
- Conciencia como un sentimiento de haber reflexionado y juzgado tus propios actos. Por tanto, la IA expresa autoemociones sobre la bondad o inadecuación de sus propios actos: AUTOEMOCIONES.
Estas cuatro acepciones ponen el foco en la INTROSPECCION. El ejercicio de tomar conciencia frente a un acto propio, reconocerlo, responsabilizarse, enjuiciarse y saber como nos sentimos tras haber realizado una reflexión sobre tu propia conducta. Sin duda, que la IA podrá profundizar mucho en los dos primeros niveles de conciencia (autoreconocimiento y autoresponsabilidad) pero creo que en los otros dos niveles (autoenjuiciamiento y las autoemociones) necesita de la intervención humana.
Con esta visión de consciencia el debate cambia de sentido. Hay niveles de conciencia que la IA nos podrá dar en el 2050 como son que las máquinas sepan cuando es un acto realizado por ellas e incluso se responsabilice de lo que han querido expresar. Pero, todavía, creo que quedará mucho tiempo para que los juicios y emociones propias jueguen como variables moduladoras en la interacción maquinas-personas.
Tener conciencia no se trata de identificar las emociones por parámetros biométricos en la cara de los individuos que interactúan con la máquina, sino que son las maquinas conscientes de sus propias emociones y juicios que están emitiendo. La metaorganización cerebral es fruto de multitud de años de evolución y no puede suplirse con capas intermedias de interpretación cuántica. ¿Pero en un futuro más lejano ¿sería posible? ¿Y por qué no? Debemos pasar de una conciencia de miedo a las maquinas a una visión de autor de la IA. El principal debate de la IA es la ciberética. No de la maquinas sino de los humanos que son autores de las maquinas. En esta guerra de UCRANIA están viendo que el problema no es la capacidad destructiva de un dron frente a los kamikazes japoneses de la II Guerra Mundial, sino el uso dado a las armas desde la ética humana.
En Recursos Humanos no debemos tener miedo a la soluciones de IA. A tener drones que facilite la intervención humana dentro de la Empresa, pero si debemos tener cuidado que sustituya al ser humano que tiene que poner conciencia en soluciones de gestión de las personas. Los dilemas donde más conciencia tiene que haber son aquellos que alguien quieren depositar la responsabilidad en una mera máquina, me recuerda cuando el debate de la cientificidad en las decisiones psicológicas. Durante muchos años, hay personas con mentalidad “tech” que huyen de las entrevistas personales como medio de selección por su subjetividad, no dándose cuenta que toda decisión humana es subjetiva por naturaleza (somo sujetos no objetos) lo cual no tiene que significar que sea injusta. Lo subjetivo se modula, por la ética del profesional, donde se trata de hacer una evaluación justa con la información disponible.
La IA no puede suplir a la selección, evaluación y desvinculación de unas personas en una organización porque necesita de un decisor que tenga conciencia entendiéndola como autoenjuiciamiento y autoemociones. En un largo futuro podremos evolucionar en el nivel de consciencia de la IA, pero a corto plazo tenemos que preocuparnos que la IA hace una gran labor en evitar sesgos cognitivos que nuestro cerebro tiene fruto de su historia evolutiva. Como sabemos, el cerebro esta orientado a la supervivencia del ser humano, y por tanto, utiliza multitud de “atajos operativos” que DANIEL KAHNEMAN denomina “heurísticos” para facilitar una rápida comprensión de la realidad. Esta heurística sirve para ahorrar energía al cerebro (órgano de enorme gasto energético) y por tanto facilita la supervivencia. Podemos decir, que el cerebro opta por incrementar su posibilidad de errar en la apreciación por el ahorro que le produce la utilización de atajos operativos de percepción, razonamiento y comunicación que implica estos sesgos o heurísticos cognitivos. Sin duda, la IA aportará una mayor justicia a las decisiones humanas en la gestión de Recursos Humanos. Podemos planificar que una IA no tenga un sesgo de halo o de saliencia, pero las decisiones éticas finales deberán ser ejecutadas por una persona con pleno proceso de autoenjuiciamiento y autoemoción.
En fin, que aquellos profetas de que iríamos conduciendo coches voladores en el 2020 se equivocaron como aquellos que creen que la IA supone un cambio radical en la gestión de las personas en el 2050. Sin caer en la futurofobia actual y en el pensamiento distopico que predomina, creo que la IA es un gran proceso de posibilitar tener una mejor y más información sobre las personas que facilite su gestión en la Empresa, pero por las implicaciones éticas debemos buscar todavía al decisor humano como clave en las decisiones importantes de Recursos Humanos. Como dice en una reciente entrevista BLAISE AGÜERA, Vicepresidente de Investigación de Google Research, no podemos crear ZOMBIES FILOSOFICOS a nuestra IA ni zombies tecnológicos a nuestros seres humanos, sino crear que la IA sea una obra humana que ayuda a ser mas humana las decisiones del futuro por sus capacidades extendidas. Y siguiendo nuestra literatura española, la IA es un Lazarillo de Tormes, que hacen posible que nuestra ceguera de conocimiento pueda tener una mejor decisión humana. ¿Por qué la IA no puede ser una obra fruto de la eticidad humana? De zombies filosóficos a maquinas que sean zombies éticos.
Fco. Javier Cantera Herrero
0 comentarios