El modelo más exitoso de Inteligencia Artificial en la actualidad es lo que se conoce como caja negra. Introducimos unos datos y obtenemos una respuesta, pero ignoramos cómo llega a esa conclusión. A efectos prácticos, es un proceso opaco para el usuario. De ahí su nombre. Lo que sí sabemos es que dentro de esa "caja negra" suele haber redes neuronales que se adaptan de forma autónoma a medida que van aprendiendo con datos de prueba, con los que los investigadores de turno refuerzan las respuestas correctas. El impacto que tiene esa evaluación contínua en la estructura de la red es un misterio. Y no solo eso, también da como resultado que dé respuestas inesperadas, pero no por ello incorrectas. Hay ejemplos de IAs que llegan a conclusiones correctas con un punto de partida que resultaría insuficiente para un ser humano. Aquí es donde surge la duda que da título a esta entrada. ¿Se convertirán las IAs en una versión moderna de los oráculos de la Antigua Grecia? ¿Dejaremos en sus manos decisiones vitales para nuestro futuro? Algunos se echarán las manos a la cabeza, pero ¿sería peor que la situación actual? Recordemos que estamos al borde mismo de una nueva guerra mundial. Tal vez una IA podría aportar algo de sensatez.
No hay comentarios:
Publicar un comentario