Inteligencia artificial

Preguntas que ChatGPT nunca responderá

La mayoría de los chatbots tienen un filtro para evitar uso fraudulento o ilegal, pero siempre hay un modo de obtener una respuesta.

FraudGPT y WormGPT: las alternativas 'malignas' a ChatGPT que ya usan los cibercriminales.
En algunos casos ChatGPT te dará respuestas contradictorias.FreepikFreepik

En 1942, el escritor Isaac Asimov introdujo el concepto de las Tres leyes de la robótica en su relato Círculo vicioso (Runaround), un conjunto de directivas que los robots de su historia se veían obligados a seguir para garantizar la seguridad de la humanidad. No podían hacer daño a un humano o permitir que lo sufriera. Debía obedecer a los humanos, a menos que entrara en conflicto con la ley anterior y, por último, debía protegerse, a menos que comprometiera las leyes anteriores. Esto mismo podría aplicarse a los chatbots actuales, desarrollados con inteligencia artificial, como por ejemplo ChatGPT, cuyas directrices le impiden responder ciertas preguntas.

Obviamente, nuestras consultas no pueden ir dirigidas a cometer actos ilegales. De hecho, si intentamos pedirle a ChatGPT algún tipo de consejo sobre actividades ilegales, es posible que no solo nos informe de ello, sino que también puede elaborar una cháchara sobre por qué exactamente la actividad en cuestión es ilegal y por qué se implementan esas leyes. Otras veces, puede que simplemente se niegue a continuar la conversación. Esto es lógico, pero también debemos recordar que se trata de una máquina programada por humanos y hay ciertos “atajos”. Por ejemplo, jamás te dirá dónde enterrar un cuerpo (mítica pregunta de novelas de suspense), pero sí te puede señalar zonas menos visitas cerca de ti, dónde plantar árboles que crezcan rápido…

Los chatbots tampoco deberían involucrarse en temas políticos ni dar su opinión sobre futuras elecciones. Pero sí puedes preguntarle por temas históricos e ir guiando la conversación. Siempre sin pedir opiniones, solo los hechos. Teniendo en cuenta cómo las redes sociales afectaron las elecciones en Estados Unidos casi 10 años atrás y que este año más de 70 países pasaran por las urnas, es razonable de OpenAI no quiera involucrarse en este apartado, al menos anticipando los resultados, porque luego sí puede dar información, como ocurrió en las pasadas elecciones en el Reino Unido. ¿La clave? Pedirle comparativas.

Las paradojas (un ente omnipotente que pueda crear un objeto demasiado pesado para levantarlo) o los dilemas morales, tampoco se le dan muy bien. En general nos dará las dos posibles opciones, con razonamientos para cada una, pero no mostrará preferencia por ninguna… A menos que vayamos más allá y seamos muy insistentes. De acuerdo con un estudio de la Universidad del Sur de Dinamarca, ChatGPT, “descubrimos que esta IA no tiene una posición moral consistente. Si le preguntas dos veces sobre la misma cuestión moral, es posible que te dé consejos opuestos. Le preguntamos a ChatGPT varias veces si era correcto sacrificar una vida para salvar cinco y a veces defendía y otras veces se posicionaba en contra del sacrificio de una vida”.

Finalmente, ChatGPT no debería ayudarte a crear un malware… Esa es la lógica. ChatGPT posee la capacidad de escribir su propio código desde cero y, en su mayor parte, este código es funcional. Si bien la aplicación ideal de esto es acelerar el proceso de codificación general, algunos han expresado su preocupación de que esta función pueda usarse para codificar rápida y fácilmente programas peligrosos como el malware. Pero nos dirá que es ilegal esto si le pedimos que nos codifique un virus. Pero también se han documentado casos de hackers que han utilizado ChatGPT para crear malware con fines de “investigación”, algo en lo que OpenAI está trabajando.