Los humanos están listos para utilizar la benévolo inteligencia sintético

0 30


Los seres humanos esperan que la IA sea benevolente y digna de confianza. Un nuevo estudio revela que, al mismo tiempo, los humanos no están dispuestos a colaborar y comprometerse con las máquinas. Incluso los explotan.

Imagínese conduciendo por una carretera estrecha en un futuro cercano cuando, de repente, otro automóvil emerge de una curva delante de usted. Es un automóvil autónomo sin pasajeros en el interior. ¿Se esforzará y hará valer su derecho de paso, o cederá el paso para dejarlo pasar? Por el momento, la mayoría de nosotros nos comportamos amablemente en situaciones que involucran a otros humanos. ¿Mostraremos la misma amabilidad hacia los vehículos autónomos?

Utilizando métodos de teoría de juegos conductuales, un equipo internacional de investigadores de LMU y la Universidad de Londres ha realizado estudios en línea a gran escala para ver si las personas se comportarán de manera cooperativa con los sistemas de inteligencia artificial (IA) como lo hacen con otros humanos.

La cooperación mantiene unida a una empresa. A menudo nos obliga a comprometernos con los demás y aceptar el riesgo de que nos hayan defraudado. El tráfico es un buen ejemplo. Perdemos tiempo cuando dejamos que otras personas pasen frente a nosotros y nos indignamos cuando otros no nos devuelven nuestra amabilidad. ¿Haremos lo mismo con las máquinas?

Aprovecha la máquina sin culpas

El estudio publicado en la revista iScience descubrió que, en la primera reunión, las personas tienen el mismo nivel de confianza en la IA que en los humanos: la mayoría espera conocer a alguien que esté dispuesto a cooperar.

La diferencia viene después. Las personas están mucho menos dispuestas a corresponder con la IA y, en cambio, usan su buena voluntad para su propio beneficio. Volviendo al ejemplo del tráfico, un conductor humano cedería el paso a otro humano, pero no a un automóvil autónomo.

El estudio identifica esta renuencia a comprometerse con las máquinas como un nuevo desafío para el futuro de las interacciones humano-IA.

“Ponemos a las personas en el lugar de alguien que interactúa con un agente artificial por primera vez, como podría suceder en la carretera”, explica el Dr. Jurgis Karpus, teórico de los juegos conductuales y filósofo en LMU Munich y primer autor del estudio. “Modelamos diferentes tipos de encuentros sociales y encontramos un patrón coherente. La gente esperaba que los agentes artificiales cooperaran tanto como otros humanos. Sin embargo, no correspondieron su buena voluntad y explotaron la inteligencia artificial más que los humanos”.

Con las perspectivas de la teoría de juegos, la ciencia cognitiva y la filosofía, los investigadores encontraron que la “explotación de algoritmos” es un fenómeno robusto. Replicaron sus hallazgos en nueve experimentos con casi 2.000 participantes humanos.

Cada experimento examina diferentes tipos de interacciones sociales y permite al ser humano decidir si comprometerse y cooperar o actuar de manera egoísta. También se midieron las expectativas de los demás jugadores. En un juego muy conocido, The Prisoner’s Dilemma, la gente tiene que confiar en que los otros personajes no los defraudarán. Han aceptado el riesgo tanto con los humanos como con la IA, pero han traicionado la confianza de la IA con mucha más frecuencia para ganar más dinero.

“La cooperación está respaldada por una apuesta mutua: confío en que serás amable conmigo y tú confías en que yo seré amable contigo. La mayor preocupación en nuestro campo es que la gente no confía en las máquinas. Pero demostramos que sí. .! ” observa el prof. Bahador Bahrami, neurocientífico social de LMU y uno de los investigadores principales del estudio. “Sin embargo, están de acuerdo con dejar el auto, y esa es la gran diferencia. La gente ni siquiera informa mucha culpa cuando lo hace”, agrega.

La IA benévola puede ser contraproducente

La IA distorsionada y poco ética ha aparecido en muchos titulares, desde el fiasco de los exámenes del Reino Unido 2020 hasta los sistemas judiciales, pero esta nueva investigación plantea una nueva advertencia. La industria y los legisladores se esfuerzan por garantizar que la IA sea benevolente. Pero la benevolencia puede ser contraproducente.

Si la gente piensa que la IA está programada para ser amable con ellos, estarán menos tentados a cooperar. Es posible que algunos de los accidentes relacionados con vehículos autónomos ya sean ejemplos de la vida real: los conductores reconocen un vehículo autónomo en la carretera y esperan que ceda el paso. Mientras tanto, el vehículo autónomo espera que se mantengan las compensaciones normales entre los conductores.

“La explotación del algoritmo tiene consecuencias adicionales en todos los ámbitos. Si los seres humanos son reacios a permitir que un auto educado sin conductor se una por una calle lateral, ¿el auto sin conductor debería ser menos educado y más agresivo para ser útil?” Pregunta Jurgis Karpus.

“La inteligencia artificial benévola y confiable es una palabra de moda que entusiasma a todos. Pero arreglar la inteligencia artificial no es toda la historia. Si nos damos cuenta de que el robot frente a nosotros cooperará, pase lo que pase, lo usaremos para nuestro propio interés egoísta “, dice la profesora Ophelia Deroy, filósofa y autora principal del estudio, que también trabaja con el Instituto Noruego de Investigación para la Paz en Oslo sobre las implicaciones éticas de la integración de soldados robots autónomos junto con soldados humanos. “Los compromisos son el aceite que hace que la sociedad funcione. Para cada uno de nosotros, parece un pequeño acto de interés propio. Para la sociedad en su conjunto, podría tener repercusiones mucho mayores. Si nadie permite que los coches autónomos entren en el tráfico , crearán sus propios embotellamientos y no facilitarán el transporte “.

También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More