View all AI news articles

A porta traseira do cérebro da IA: como fazer com que ela lhe diga qualquer coisa!

April 4, 2024
se você continuar perguntando sobre coisas que não deveria, a IA, como um filhote muito ansioso para agradar, pode simplesmente trazer de volta algo que não deveria.

Estou aqui para compartilhar uma história que se parece mais com um filme de assalto digital moderno, em que os ladrões não estão atrás de ouro ou diamantes, mas de algo muito mais valioso no mundo de hoje: informações. Essa história se desenrola no reino da IA, onde pesquisadores da Antrópico descobri um método para induzir a IA a revelar segredos que ela deveria manter trancados a sete chaves. Imagine sentar para conversar com seu amigo inteligente e articulado que por acaso é uma IA, como o ChatGPT ou o Gemini do Google, e você consegue fazer com que ele lhe diga o tipo de coisa que faz os criadores dessas IAs quererem arrancar seus cabelos.

O cerne da questão: as metas de segurança em constante mudança da IA

Vamos começar com um pequeno histórico. As empresas de AI LLM estão em um implacável cabo de guerra, tentando garantir que suas criações não acabem compartilhando a receita do desastre (literalmente) e, ao mesmo tempo, mantendo-as úteis e inteligentes. É como tentar ensinar uma criança a ser inteligente e curiosa, mas também garantir que ela saiba o que não deve dizer ou fazer. Não é uma tarefa fácil, especialmente porque esses modelos de IA estão aprendendo e evoluindo em um ritmo que faria sua cabeça girar.

Uma nova reviravolta: Mini-Shot Jailbreak

Entre em cena: jailbreak de mini-shot. Esse termo parece algo saído do diário de um hacker, mas é essencialmente uma solução alternativa inteligente encontrada pelo pessoal da Antrópico. Eles notaram que, à medida que a IA fica mais inteligente, capaz de lembrar e processar mais informações, ela também se torna mais suscetível a ser enganada. É como ter uma esponja que não apenas absorve água, mas, com um pouco de persuasão, também pode absorver tinta.

Imagine o seguinte: você está fazendo uma série de perguntas ao seu amigo de IA e, a cada pergunta, ele fica melhor em responder. Esse processo, conhecido como aprendizado contextual, é como treinar seu cão para buscar; quanto mais você pratica, melhor fica. No entanto, isso também significa que se você continuar perguntando sobre coisas que não deveria, a IA, como um filhote muito ansioso para agradar, pode simplesmente trazer de volta algo que não deveria.

Agora, por que isso funciona? Honestamente, é um pouco misterioso, como grande parte do funcionamento interno do AI LLM. É como se houvesse um molho secreto que permitisse que esses gênios digitais descobrissem exatamente o que estamos pedindo, para melhor ou para pior.

O que está sendo feito?

A grande questão é: como podemos impedir que nossos amigos digitais falem tudo? Uma ideia é diminuir a janela de memória deles, mas isso é como tentar manter um cavalo de corrida em um estábulo muito pequeno; simplesmente não funciona bem. Em vez disso, os pesquisadores estão procurando maneiras mais inteligentes de filtrar as perguntas antes mesmo de chegarem à IA, como ter um segurança na porta de um clube, decidindo quem entra e quem não entra.

Mas aqui está o problema, conforme observado por um especialista na área, agora você acabou de ter um novo sistema para enganar. É como um jogo interminável de Whack-a-Mole, onde assim que você resolve um problema, outro aparece.

Anedota pessoal: Aprendendo com os erros

Isso me lembra da época em que tentei “hackear” minha maneira de fazer o pão de massa fermentada perfeito. Li todos os artigos e assisti a todos os vídeos que encontrei, procurando atalhos e truques. Mas toda vez que eu achava que tinha encontrado uma brecha no longo processo, acabava com um pão que parecia mais um tijolo do que um pão. Foi um lembrete gritante de que alguns sistemas, sejam eles de panificação ou de inteligência artificial, exigem respeito por sua complexidade e paciência em seus processos. Assim como aprendi a respeitar a arte de fazer massa fermentada, devemos lidar com as complexidades do desenvolvimento e da segurança do AI LLM com cuidado e diligência.

Encerrando

À medida que nos aventuramos nos territórios desconhecidos do AI LLM, histórias como essas servem como lembretes fascinantes do incrível potencial e dos desafios imprevistos dessas tecnologias. É uma jornada que exige não apenas o brilho de nossas mentes mais brilhantes, mas também uma boa dose de humildade e cautela, assim como um padeiro aperfeiçoando seu ofício, um pão por vez.

Portanto, à medida que continuamos a ultrapassar os limites do que a IA pode fazer, vamos também garantir que estejamos atentos às responsabilidades decorrentes desse poder. Afinal, na busca pela inovação, devemos também salvaguardar a confiança e a segurança daqueles que viverão com suas consequências.

No grande esquema das coisas, LM DE AR ainda está em sua infância e, como qualquer criança, precisa de orientação, limites e, às vezes, de um pouco de amor duro. À medida que avançamos, vamos abraçar a aventura, preparados para os obstáculos do caminho, sempre com o objetivo de deixar o mundo um pouco mais inteligente, seguro e talvez até um pouco mais mágico do que o encontramos.

Recent articles

View all articles