Peligros de la Inteligencia Artificial

Artículo sobre inteligencia artificial escrito por Gabriel Reyes. Experto ingeniero informático.

En el futuro, la inteligencia artificial podrá aprender todo lo que el cerebro ejecuta sobre una decisión.

La cuestión es si lo mismo conducirá a una IA más inteligente.

¿Es la IA de verdad «inteligente»? Esa es la pregunta que también persiguen los investigadores de la inteligencia artificial. En la vanguardia de este debate se encuentra el investigador de IA Chris Ruddy, del centro de investigación de IA, llamado Instituto Sion, que está impulsando el desarrollo de tecnologías como el aprendizaje automático, la IA de aprendizaje automático, para entender cómo trabaja el cerebro al tomar una decisión.

Para desarrollar la IA, Ruddy y su equipo quieren utilizar el cerebro como herramienta científica. Ahora podemos hacer preguntas simples como si reconoces caras, ves puntos de referencia o cuánto se parece una persona a ti. Luego, los informáticos podrán manipular esa inteligencia para realizar tareas como hacer un emoji con o sin tu cara. Así podremos ver cómo la interacción de un humano con el mundo afecta a su felicidad.

Pero hay un lado oscuro de la IA. La inteligencia artificial puede ser peligrosa porque conduce a otros problemas graves. Para evitar conflictos, la gente necesita desarrollar y cuidar una red de amigos y comunicarse entre humanos.

Estamos viendo cómo una IA puede aprender cosas para las que no ha sido entrenada. Resulta que genera muchas capacidades nuevas.

Aquí está la lista completa de los programas de Inteligencia Artificial que se ejecutan en el hardware de IA en Hackage:

  • Inteligencia Artificial Automatizada/BSP
  • Lógica aplicada/Proceso bayesiano
  • Dinamómetro/WPA
  • Aprendizaje profundo/Redes neuronales profundas
  • Autonomía
  • Traducción libre
  • Análisis de ventajas e inconvenientes

Con esto hay un nuevo mundo

Puede ayudar a mejorar los algoritmos de aprendizaje automático que se han enseñado en las aulas escolares.

Ver el artículo  Email hacienda.gob.es - Es FALSO

Puede automatizar la recogida de datos en parte y, en algunas circunstancias, también es útil para los estudiantes tanto de la educación como de la inteligencia artificial.

Aprende automáticamente si hay nuevos datos que necesita recoger para su estudio y para hacer otras cosas por él.

Automatiza la investigación y proporciona herramientas útiles para la enseñanza.

Automatiza el modelado informático para los estudiantes que aprenden a diseñar y codificar aplicaciones.

Permite a los estudiantes de nivel avanzado utilizar el sistema para sus experiencias en la clase.

Permite a los estudiantes experimentar con el sistema en más situaciones, como por ejemplo para realizar pruebas

Automatiza y entrena a los robots para una gran variedad de tareas como el trabajo, la lectura, etc.

Puede decidir automáticamente qué datos mostrar en su pantalla.

Puede fabricar programas informáticos inteligentes que determinen automáticamente la necesidad de información del usuario sobre sus datos.

Peligros de la inteligencia artificial: ¿Qué opinas?

La cuestión del «cómo» y el «El vídeopor qué» es un tema peliagudo. Hay muchas maneras de verlo, y por eso me interesó esta historia, incluso en un ensayo de mi coautor y colaborador anónimo llamado «Daniel» (al que nombraré porque no recuerdo dónde vive), que me hizo esta pregunta el día anterior. Me llamó la atención cuando hablé con él en una conferencia sobre IA. Daniel dio un discurso fascinante en el IEEE.

En su discurso, Daniel sugirió que podría jugar a un juego de lenguaje tautológico, en el que se pretende que algún tipo de problema lingüístico, como el lenguaje y la semántica, es un problema universal y entonces, después de que el lenguaje se resuelva, es «normal» que los humanos también lo resuelvan. Eso suena muy limpio y ordenado. Pero había leído un ensayo bastante largo de uno de mis coautores, que explicaba por qué este tipo de cosas puede ser un problema para los humanos, así como que hace muchas otras suposiciones para llegar a la idea de que alguna otra situación no puede ser realmente tan mala.

Ver el artículo  Frases de envidia

Conclusiones

¿Cómo podemos hacer el mundo más humano? ¿Cómo interactúan de esta manera? ¿Cómo hacemos que las cosas sean lo más humanas posible?

Deberíamos saberlo. La IA tiene que ser capaz de determinar lo que es bueno, lo que es más eficiente y lo que es más egoísta. Así que, para que funcione mejor, tendrá que elegir a una persona que crea que será la adecuada para él. Tendrá que elegir a una persona que pueda, por ejemplo, entender y confiar en la gente con gran empatía y una profunda comprensión de la humanidad. ¿Y cómo sé que una persona puede seguir sus acciones? Será difícil saber hasta qué punto conoce a sus propios amigos y puede simpatizar con ellos. Pero es mejor que sepa qué más hará la gente a su manera.

Extra (MUY IMPORTANTE)

Esto no lo escribo yo, lo escribe una IA.

En concreto, el texto es generado por GPT-3. Y por cierto, la fotografía del autor también la ha generado una inteligencia artificial, así que esa persona no existe. Y su nombre probablemente exista, pero también un programa lo ha generado aleatoriamente en base a su fotografía.

¿Es sorprendente? Compártelo.

Comparte esto;)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.