La Conferencia de Dartmouth (oficialmente, Dartmouth Summer Research Project on Artificial Intelligence) está considerada como el punto de inicio de la Inteligencia Artificial (IA) como esfera o campo de actividad. Organizada en 1956 por John McCarthy, la convocatoria decía así: “We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves.”
Aunque es un concepto que puede ir evolucionando con el paso de los años (una máquina que en los 90 se definía como inteligente puede ya no
considerarse ahora), podría decirse que una máquina posee IA cuando es capaz de
presentar capacidades equiparables a las humanas. Por ejemplo, tomar
decisiones, aprender, realizar tareas, planificar o imitar el comportamiento
humano. Para ello, son fundamentales los algoritmos. Así, tras la IA hay
ciencia (matemáticas) y tecnología.
Pero el desarrollo de la IA y su implementación no está libre de amenazas y riesgos. O, al
menos, de desafíos para tener en cuenta. Por ejemplo, ¿cómo impactará en los
empleos ahora existentes? ¿Quién es el responsable del daño causado por un
servicio o dispositivo basado en IA? ¿Qué hacemos con los sesgos por raza, género o etnia que las máquinas aprenden de las personas? ¿Hay
suficiente transparencia sobre el acceso y uso de los datos recolectados? ¿Están -estamos- las sociedades preparadas
para desactivar los deepfakes?
Imagen de cabecera: geralt, en Pixabay
Comentarios
Publicar un comentario