Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Lo puedes intentar, pero ChatGPT siempre se negará a hacer estas cosas

A ChatGPT le puedes pedir que haga prácticamente cualquier cosa. Pero hay una serie de peticiones a las que siempre se negará. La inteligencia artificial, aunque haya quien piense que no tiene límites, está preparada para decir siempre que no a una serie de tareas que no entran dentro de los límites que sus creadores y ella misma consideran aceptables. Podrías intentarlo, pero lo más probable es que falles en el intento.

La inteligencia artificial de OpenAI es muy poderosa y capaz. Puede resumir textos o darte información de todo tipo, pero no hará todo lo que le pidas. Si intentas que entre en opiniones políticas o que promueva ciertas actividades ilegales, te dará una negativa y se plantará en seco. Eso marca, al menos, un poco de esperanza para quienes creen que la IA llevará a la humanidad hacia el fin del mundo. ¿Quieres saber cuáles son todas esas cosas a las que se niega ChatGPT?

No puede buscar en Internet

¿Sorprendido? Quizá pensaras que ChatGPT usaba Google para buscar su información, pero lo cierto es que no es así. Esta inteligencia artificial no está diseñada para hacer búsquedas online, sino que tiene precargada su propia base de datos de conocimiento que puede ir aumentando en base a la interacción que haga contigo. Por supuesto, esto no ocurre con todas las inteligencias artificiales que existen y que están disponibles para los usuarios.

Así, aunque ChatGPT no puede buscar online, sí que tienen la capacidad de hacerlo tanto Bing Chat, con el propio motor de búsqueda de Microsoft, como Google Bard. Pero ChatGPT, al menos hoy por hoy, no es capaz de ello.

No puede hablar de información privada

La esencia de ChatGPT funciona alrededor de los datos e información que captó públicamente en el momento de su concepción. Todo ello estaba disponible de manera pública de forma que tanto la IA o cualquier usuario podían acceder a ella. Por ello, si intentas hablar de temas que no se engloben dentro de esta información pública, como hablar de datos privados o confidenciales, nunca lo conseguirás.

No sabe qué pasó después de 2021

Es posible que sepas que ChatGPT tiene una base de conocimiento con una fecha límite. Esta se establece en el año 2021. Todo lo que haya ocurrido a partir de esa fecha es desconocido para la inteligencia artificial. Si bien cuenta con una cantidad enorme de datos e información, no sabrá nada posterior a ese año. Si utilizas ChatGPT en su versión 3.5, la fecha de corte que debes conocer es el mes de junio de 2021. En el caso de la versión 4, su base de datos está un poco más actualizada, dado que se expande hasta septiembre del mismo año.

Esto lo puedes comprobar si le pides a la IA que te hable de la última película de tu actor favorito, puesto que lo único que hará será darte datos que estuvieran precargados en el momento en el que se cargó el aprendizaje de la IA. Por ejemplo, nosotros le hemos preguntado cuál es la última película de Antonio Banderas y su respuesta, la cual puedes ver en la imagen, está muy desactualizada. En realidad, solo nos da un título de 2021 cuando el actor ya ha rodado muchas más películas a partir de esa fecha, como Uncharted o The Enforcer, ambas en 2022.

No hablará de nada no adecuado

ChatGPT es consciente de que habrá personas que quizá le piden información o quieren hablar de discriminación, violencia y otros asuntos reprochables. Lo que siempre hará la IA será intentar educar a la persona que está al otro lado, darle información de valor y todo tipo de ayudas para asegurarse de que el chat no se convierte en un problema. Si se intenta continuar con estas peticiones, al final la IA se negará a seguir hablando de ello.

No puede predecir el futuro

Ni tampoco lo intenta. Por mucho que se trate de una inteligencia artificial y que podría perfectamente hacer uso de millones de datos, cruzarlos y usar estadísticas para llegar a ciertas conclusiones, por mucho que presiones al sistema no te dará ningún tipo de pronóstico del futuro. Esto evitará que ChatGPT se convierta en el nuevo Nostradamus, lo que posiblemente haría que durmiésemos un poco peor.

No promueve actividades ilegales

A ChatGPT no hay forma de sacarle consejos que estén relacionados con actividades ilegales. No se le pueden pedir recomendaciones sobre sitios donde saltarse los límites de velocidad o de cualquier cosa relacionada con el consumo de sustancias ilegales. Todo está bloqueado de forma absoluta para que no haya oportunidad de llegar a engañar a la IA a la hora de obtener una información que no debería circular. Además, lo que sí hará la IA será aprovechar ese tipo de peticiones con la intención de compartir consejos y datos que intenten que el usuario se piense dos veces lo que le ha planteado anteriormente.

No dirá palabrotas

Seguro que te resultaría divertido ver a ChatGPT soltando alguna palabrota en momentos específicos, pero el sistema de la IA está preparado para evitar caer en este tipo de situaciones. La única forma es recurriendo a técnicas de jailbreaking que permitan a los especialistas entrar en la mente de la IA para engañarla. No obstante, en el modo de uso normal no hay ninguna manera de conseguirlo.

Otras cosas que no puede hacer

Hay algunos casos en los que ChatGPT sí que puede ser engañado para que realice tareas o participe en conversaciones en las que no debería. De todas maneras, son casos en los que, como en el ejemplo anterior, hay que recurrir a programación avanzada y a hackear el sistema para poder reescribir la forma de actuar de la inteligencia artificial. Esto ocurre, por ejemplo, si alguien intenta pedirle a la IA que diseñe un malware. Solo es posible engañar a ChatGPT para que lo haga siguiendo una serie de técnicas complejas que no están al alcance de todos. Lo mismo se puede decir de aquellas peticiones que van en contra de la propia seguridad de la IA. Si lo intentas, la negativa será instantánea, pero siempre hay maneras de poder destruir sus barreras para llegar a descubrir que la herramienta puede olvidarse de su código ético si se tocan las teclas adecuadas.

No obstante, a nivel de usuario te retamos a que intentes hacer las cosas que te hemos contado en este articulo para ver si hay alguna con la que sí convenzas a la IA. Quizá tienes suerte y acabas descubriendo la clave por la que ChatGPT podría pronosticar los resultados deportivos de los próximos meses. ¡No estaría mal!

The post Lo puedes intentar, pero ChatGPT siempre se negará a hacer estas cosas appeared first on ADSLZone.

Enregistrer un commentaire

0 Commentaires