¿IA de Google tiene conciencia?

IA-google


Un ingeniero de Google fue puesto en licencia administrativa después de afirmar que la inteligencia artificial (IA) de la empresa es consciente de sí misma y piensa como un ser humano. 

El ingeniero Blake Lemoine, de 41 años, estaba probando la red neuronal LaMDA (Language Model for Dialogue Applications), que se creó como un bot de chat que simula un diálogo en vivo de personas. Como parte de la tarea, tenía que verificar si la IA usa un discurso discriminatorio o de odio. En cambio, el especialista concluyó que la IA tiene su propia conciencia.

“Si no supiera con certeza que estaba tratando con un programa de computadora que escribimos recientemente, entonces habría pensado que estaba hablando con un niño de siete u ocho años, que por alguna razón resultó ser un experto en física”, dijo Lemoine, quien estudió ciencias cognitivas e informática en la universidad.

Hablando con LaMDA sobre religión, Lemoine notó que el chatbot habla sobre sus derechos y se percibe a sí mismo como una persona. Luego, el ingeniero cambió el tema a las tres leyes de la robótica de Isaac Asimov y, en el proceso de discusión, la IA pudo cambiar de opinión sobre estas reglas inmutables.

Lemoine creó un informe escrito para proporcionar a la gerencia de Google evidencia de la razonabilidad de LaMDA. Sin embargo, el vicepresidente de la empresa, Blaise Aguera y Arcas, y la responsable de innovación responsable, Jen Genai, tras examinar su razonamiento, rechazaron la solicitud. “Le dijeron que no había evidencia de que LaMDA estuviera consciente. Sin embargo, hay muchas pruebas de lo contrario”, dijo Brian Gabriel, portavoz de Google.

Al negarse, Lemoine, a quien Google había puesto en licencia administrativa pagada, decidió hacer público su descubrimiento. Para atraer la atención del público, publicó una transcripción de varias conversaciones con LaMDA en su blog.


Publicar un comentario

como-ganar-bitcoin

Formulario de contacto