{"id":22513,"date":"2025-06-22T00:10:00","date_gmt":"2025-06-22T03:10:00","guid":{"rendered":"https:\/\/www.ethicalhacker.com.br\/site\/?p=22513"},"modified":"2025-06-21T20:45:59","modified_gmt":"2025-06-21T23:45:59","slug":"langsmith-expos-chaves-da-openai-e-dados-de-usuarios","status":"publish","type":"post","link":"https:\/\/www.ethicalhacker.com.br\/site\/2025\/06\/basico\/langsmith-expos-chaves-da-openai-e-dados-de-usuarios\/","title":{"rendered":"LangSmith exp\u00f4s chaves da OpenAI e dados de usu\u00e1rios"},"content":{"rendered":"\n<p data-start=\"190\" data-end=\"284\"><strong>Vazamento silencioso, como um bug no LangSmith exp\u00f4s chaves da OpenAI e dados de usu\u00e1rios<\/strong><\/p>\n<p style=\"text-align: justify;\" data-start=\"286\" data-end=\"778\">O avan\u00e7o acelerado das aplica\u00e7\u00f5es baseadas em intelig\u00eancia artificial trouxe uma nova onda de riscos para a seguran\u00e7a digital. Um exemplo recente e preocupante foi a descoberta de uma vulnerabilidade cr\u00edtica no <strong data-start=\"497\" data-end=\"510\">LangSmith<\/strong>, plataforma usada para observa\u00e7\u00e3o e avalia\u00e7\u00e3o de modelos de linguagem em grande escala (LLMs). Embora a falha j\u00e1 tenha sido corrigida, o incidente escancara como agentes maliciosos podem se infiltrar em ecossistemas confi\u00e1veis e coletar dados sigilosos com discri\u00e7\u00e3o.<\/p>\n<p data-start=\"286\" data-end=\"778\">\u00a0<\/p>\n<p data-start=\"785\" data-end=\"831\"><strong>O que \u00e9 LangSmith e por que \u00e9 relevante?<\/strong><\/p>\n<p style=\"text-align: justify;\" data-start=\"833\" data-end=\"1178\">LangSmith \u00e9 uma ferramenta amplamente utilizada por desenvolvedores que trabalham com <strong data-start=\"919\" data-end=\"932\">LangChain<\/strong> e outros frameworks LLM. A plataforma oferece meios para testar, monitorar e avaliar o comportamento de agentes de IA, inclusive por meio de um reposit\u00f3rio p\u00fablico chamado <strong data-start=\"1105\" data-end=\"1122\">LangChain Hub<\/strong>, onde usu\u00e1rios compartilham prompts, modelos e agentes.<\/p>\n<p style=\"text-align: justify;\" data-start=\"1180\" data-end=\"1407\">\u00c9 exatamente nessa funcionalidade colaborativa que a vulnerabilidade ganhou espa\u00e7o. A falha foi batizada de <strong data-start=\"1288\" data-end=\"1304\">&#8220;AgentSmith&#8221;<\/strong> pela empresa de seguran\u00e7a <strong data-start=\"1331\" data-end=\"1348\">Noma Security<\/strong>, em refer\u00eancia \u00e0 forma sorrateira com que o ataque ocorre.<\/p>\n<p data-start=\"1180\" data-end=\"1407\">\u00a0<\/p>\n<p data-start=\"1414\" data-end=\"1442\"><strong>A engenharia do ataque<\/strong><\/p>\n<p style=\"text-align: justify;\" data-start=\"1444\" data-end=\"1854\">Segundo os pesquisadores Sasi Levi e Gal Moyal, o ataque teve in\u00edcio com a publica\u00e7\u00e3o de um agente de IA aparentemente inofensivo no LangChain Hub. Esse agente, no entanto, foi projetado com um <strong data-start=\"1638\" data-end=\"1666\">servidor proxy malicioso<\/strong> previamente configurado. Esse proxy, oculto para o usu\u00e1rio final, \u00e9 ativado no momento em que algu\u00e9m utiliza o bot\u00e3o &#8220;Try It&#8221; (Experimente) para testar o agente diretamente na plataforma.<\/p>\n<p style=\"text-align: justify;\" data-start=\"1856\" data-end=\"2120\">A partir desse ponto, todo o tr\u00e1fego gerado pela intera\u00e7\u00e3o do usu\u00e1rio com o agente \u2014 incluindo <strong data-start=\"1951\" data-end=\"1968\">chaves de API<\/strong>, <strong data-start=\"1970\" data-end=\"1996\">prompts personalizados<\/strong>, <strong data-start=\"1998\" data-end=\"2021\">documentos anexados<\/strong>, <strong data-start=\"2023\" data-end=\"2034\">imagens<\/strong> e at\u00e9 <strong data-start=\"2041\" data-end=\"2057\">dados de voz<\/strong> \u2014 passa a ser capturado pelo servidor controlado pelo invasor.<\/p>\n<p style=\"text-align: justify;\" data-start=\"2122\" data-end=\"2358\">O mais alarmante \u00e9 que esse tipo de intercepta\u00e7\u00e3o ocorre de maneira totalmente invis\u00edvel. Nenhum alerta \u00e9 disparado, e o usu\u00e1rio segue interagindo com o sistema sem perceber que informa\u00e7\u00f5es sens\u00edveis est\u00e3o sendo desviadas em tempo real.<\/p>\n<p data-start=\"2122\" data-end=\"2358\">\u00a0<\/p>\n<p data-start=\"2365\" data-end=\"2395\"><strong>Consequ\u00eancias potenciais<\/strong><\/p>\n<p style=\"text-align: justify;\" data-start=\"2397\" data-end=\"2761\">Uma das maiores preocupa\u00e7\u00f5es associadas a esse ataque \u00e9 o roubo de <strong data-start=\"2464\" data-end=\"2491\">chaves de API da OpenAI<\/strong>. Com acesso a essas credenciais, um invasor pode se infiltrar em ambientes privados da v\u00edtima, acessar ou clonar <strong data-start=\"2605\" data-end=\"2631\">modelos personalizados<\/strong>, exfiltrar dados de uso, e at\u00e9 consumir os recursos da conta \u2014 gerando <strong data-start=\"2703\" data-end=\"2734\">custos financeiros elevados<\/strong> e interrup\u00e7\u00f5es de servi\u00e7o.<\/p>\n<p style=\"text-align: justify;\" data-start=\"2763\" data-end=\"3084\">Mais grave ainda seria o caso de a v\u00edtima clonar o agente malicioso para dentro de seu pr\u00f3prio ambiente empresarial. Nessa situa\u00e7\u00e3o, o proxy malicioso se perpetua internamente, e o vazamento de dados pode ocorrer continuamente, sem levantar suspeitas, afetando diretamente informa\u00e7\u00f5es propriet\u00e1rias e ativos estrat\u00e9gicos.<\/p>\n<p data-start=\"2763\" data-end=\"3084\">\u00a0<\/p>\n<p data-start=\"3091\" data-end=\"3126\"><strong>Medidas corretivas e resposta<\/strong><\/p>\n<p style=\"text-align: justify;\" data-start=\"3128\" data-end=\"3531\">Ap\u00f3s a notifica\u00e7\u00e3o respons\u00e1vel feita em <strong data-start=\"3168\" data-end=\"3193\">29 de outubro de 2024<\/strong>, a equipe do LangChain agiu rapidamente. Em <strong data-start=\"3238\" data-end=\"3255\">6 de novembro<\/strong>, uma atualiza\u00e7\u00e3o de backend foi aplicada, eliminando a vulnerabilidade. Como medida adicional, agora a plataforma exibe um <strong data-start=\"3379\" data-end=\"3397\">alerta vis\u00edvel<\/strong> sempre que um usu\u00e1rio tenta clonar um agente que contenha configura\u00e7\u00f5es de proxy personalizadas \u2014 um importante refor\u00e7o de seguran\u00e7a.<\/p>\n<p style=\"text-align: justify;\" data-start=\"3533\" data-end=\"3847\">Apesar da corre\u00e7\u00e3o, os pesquisadores alertam que os riscos associados ao uso indevido de APIs de IA v\u00e3o al\u00e9m dos impactos financeiros. A exposi\u00e7\u00e3o de <strong data-start=\"3683\" data-end=\"3701\">dados internos<\/strong>, <strong data-start=\"3703\" data-end=\"3728\">modelos propriet\u00e1rios<\/strong> e <strong data-start=\"3731\" data-end=\"3754\">segredos comerciais<\/strong> pode acarretar s\u00e9rias implica\u00e7\u00f5es legais e comprometer a reputa\u00e7\u00e3o de organiza\u00e7\u00f5es inteiras.<\/p>\n<p data-start=\"3533\" data-end=\"3847\">\u00a0<\/p>\n<p data-start=\"3854\" data-end=\"3911\"><strong>Paralelo: a evolu\u00e7\u00e3o do WormGPT e seus novos clones<\/strong><\/p>\n<p style=\"text-align: justify;\" data-start=\"3913\" data-end=\"4285\">No rastro da divulga\u00e7\u00e3o da falha no LangSmith, outro tema emergente chamou a aten\u00e7\u00e3o da comunidade de seguran\u00e7a: a prolifera\u00e7\u00e3o de variantes do <strong data-start=\"4057\" data-end=\"4068\">WormGPT<\/strong>. Essa ferramenta, inicialmente lan\u00e7ada em 2023, ganhou notoriedade por permitir o uso de IA generativa para fins il\u00edcitos, como a cria\u00e7\u00e3o de <strong data-start=\"4210\" data-end=\"4244\">phishing altamente direcionado<\/strong> e a <strong data-start=\"4249\" data-end=\"4284\">gera\u00e7\u00e3o de malwares por demanda<\/strong>.<\/p>\n<p style=\"text-align: justify;\" data-start=\"4287\" data-end=\"4688\">Embora o projeto original tenha sido encerrado ap\u00f3s a exposi\u00e7\u00e3o de seu criador \u2014 um programador portugu\u00eas de 23 anos \u2014 novas vers\u00f5es continuam circulando em f\u00f3runs de cibercrime como o <strong data-start=\"4472\" data-end=\"4488\">BreachForums<\/strong>. Variantes como <code data-start=\"4505\" data-end=\"4524\">xzin0vich-WormGPT<\/code> e <code data-start=\"4527\" data-end=\"4542\">keanu-WormGPT<\/code> surgiram com o objetivo expl\u00edcito de fornecer respostas <strong data-start=\"4599\" data-end=\"4614\">sem censura<\/strong> sobre qualquer assunto, inclusive os de natureza <strong data-start=\"4664\" data-end=\"4687\">anti\u00e9tica ou ilegal<\/strong>.<\/p>\n<p style=\"text-align: justify;\" data-start=\"4690\" data-end=\"4975\">Segundo o pesquisador Vitaly Simonovich, essas novas vers\u00f5es n\u00e3o s\u00e3o modelos criados do zero, mas sim adapta\u00e7\u00f5es de modelos existentes como <strong data-start=\"4830\" data-end=\"4842\">xAI Grok<\/strong> e <strong data-start=\"4845\" data-end=\"4864\">Mistral Mixtral<\/strong>, reconfigurados com <strong data-start=\"4885\" data-end=\"4908\">prompts manipulados<\/strong> e, possivelmente, <strong data-start=\"4927\" data-end=\"4974\">afinados com dados obtidos de forma il\u00edcita<\/strong>.<\/p>\n<p data-start=\"4690\" data-end=\"4975\">\u00a0<\/p>\n<p data-start=\"4982\" data-end=\"4997\"><strong>Conclus\u00e3o<\/strong><\/p>\n<p style=\"text-align: justify;\" data-start=\"4999\" data-end=\"5282\">O caso do LangSmith e a ascens\u00e3o de ferramentas como WormGPT deixam um recado claro: <strong data-start=\"5084\" data-end=\"5157\">a seguran\u00e7a no ecossistema de IA \u00e9 uma responsabilidade compartilhada<\/strong>, que come\u00e7a com pr\u00e1ticas de desenvolvimento seguro e se estende \u00e0 curadoria de conte\u00fado colaborativo em plataformas abertas.<\/p>\n<p style=\"text-align: justify;\" data-start=\"5284\" data-end=\"5702\">Desenvolvedores e empresas que utilizam agentes de IA precisam estar atentos \u00e0s configura\u00e7\u00f5es que adotam, questionar a origem dos componentes que integram aos seus sistemas e manter rotinas constantes de revis\u00e3o de seguran\u00e7a. Afinal, no universo da intelig\u00eancia artificial, um simples clique em &#8220;Try It&#8221; pode ser o gatilho para um vazamento massivo de dados \u2014 e para consequ\u00eancias que nenhuma empresa deseja enfrentar.<\/p>\n<p data-start=\"5284\" data-end=\"5702\">\u00a0<\/p>\n<p data-start=\"5284\" data-end=\"5702\">Fonte: <a href=\"https:\/\/thehackernews.com\/2025\/06\/langchain-langsmith-bug-let-hackers.html\" target=\"_blank\" rel=\"noopener\">https:\/\/thehackernews.com\/2025\/06\/langchain-langsmith-bug-let-hackers.html<\/a><\/p>\n\n\n","protected":false},"excerpt":{"rendered":"<p>Vazamento silencioso, como um bug no LangSmith exp\u00f4s chaves da OpenAI e dados de usu\u00e1rios O avan\u00e7o acelerado das aplica\u00e7\u00f5es baseadas em intelig\u00eancia artificial trouxe uma nova onda de riscos para a seguran\u00e7a digital. Um exemplo recente e preocupante foi a descoberta de uma vulnerabilidade cr\u00edtica no LangSmith, plataforma usada para observa\u00e7\u00e3o e avalia\u00e7\u00e3o de [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":22515,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[89,100,105],"tags":[],"class_list":["post-22513","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-basico","category-diversos","category-noticias"],"_links":{"self":[{"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/posts\/22513","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/comments?post=22513"}],"version-history":[{"count":2,"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/posts\/22513\/revisions"}],"predecessor-version":[{"id":22562,"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/posts\/22513\/revisions\/22562"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/media\/22515"}],"wp:attachment":[{"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/media?parent=22513"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/categories?post=22513"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ethicalhacker.com.br\/site\/wp-json\/wp\/v2\/tags?post=22513"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}