怀孕什么水果不能吃
![]() | Esta página é um ensaio. 百度 第6分钟,古德利主罚大禁区右侧任意球传中,张成林前点甩头攻门偏出近门柱。 Ensaios s?o conselhos ou opini?es de um ou mais contribuidores da Wikipédia. Ensaios n?o s?o políticas, recomenda??es e nem informativos. Alguns ensaios representam práticas já bem difundidas na comunidade; outros apenas representam pontos de vista minoritários. |
![]() | Resumindo: Evite usar grandes modelos de linguagem (LLMs) para escrever conteúdo original, gerar referências ou criar respostas em páginas de discuss?o. Os LLMs podem ser usados para certas tarefas (como edi??o de texto) se o editor tiver experiência prévia substancial na tarefa pretendida e analisar rigorosamente os resultados antes de publicá-los. |
“ | Modelos de linguagem grandes têm confiabilidade limitada, compreens?o limitada, alcance limitado e, portanto, precisam de supervis?o humana. | ” |
— ?Michael Osborne, Professor de Aprendizado de Máquina, Universidade de Oxford[1] |
Embora grandes modelos de linguagem (coloquialmente chamados de "chatbots de IA" em alguns contextos) possam ser muito úteis, textos gerados por máquinas — assim como aqueles criados por humanos — podem conter erros ou falhas, ou até mesmo ser totalmente inúteis.
Especificamente, solicitar a um LLM que "escreva um artigo na Wikipédia" pode, em alguns casos, resultar em um conteúdo totalmente inventado, incluindo referências fictícias. O texto pode ser tendencioso, difamar pessoas vivas ou pode violar direitos autorais. Portanto, todo conteúdo gerado por LLMs deve ser cuidadosamente verificado pelos editores antes de ser utilizado em artigos.
Editores que n?o estejam totalmente cientes dos riscos envolvidos e que n?o sejam capazes de superar as limita??es dessas ferramentas n?o devem utilizá-las para editar. Os LLMs n?o devem ser empregados em tarefas com as quais o editor n?o tenha familiaridade substancial. Seus resultados devem ser rigorosamente examinados para garantir a conformidade com todas as políticas aplicáveis. Em qualquer caso, os editores devem evitar publicar conteúdo na Wikipédia obtido por meio de solicita??es aos LLMs para criar textos originais. Mesmo que o conteúdo tenha passado por extensas revis?es, alternativas que n?o envolvam conteúdo gerado por máquina s?o preferíveis. Como em todas as edi??es, o editor é totalmente responsável pelas edi??es realizadas com a assistência dos LLMs.
A Wikipédia n?o é um campo de testes. O uso de LLMs para escrever comentários em páginas de discuss?o ou editar resumos de forma n?o transparente é fortemente desencorajado. Caso os LLMs sejam utilizados para gerar ou modificar texto, é necessário mencioná-los no sumário de edi??o, mesmo que seus termos de servi?o n?o exijam isso.
Riscos e políticas relevantes
[editar código fonte]Texto pronto
[editar código fonte]
Após consenso da comunidade, foi estabelecida uma política que proíbe textos gerados por modelos de linguagem, os quais passaram a ser incluídos como exemplos de textos prontos. |
Textos gerados por modelos de linguagem s?o textos prontos. Os artigos da Wikipédia n?o devem conter material pré-fabricado para fins n?o enciclopédicos, sendo textos gerados por inteligência artificial exemplos disso. Sua inclus?o viola esta política e o usuário pode estar sujeito a san??es.
Pesquisa original e "alucina??es"
[editar código fonte]
Os artigos da Wikipédia n?o devem conter pesquisa inédita — ou seja, fatos, alega??es e ideias para os quais n?o existam fontes fiáveis e publicadas. Isso inclui qualquer análise ou síntese de material publicado que sirva para alcan?ar ou sugerir uma conclus?o n?o afirmada pelas fontes. Para demonstrar que você n?o está adicionando pesquisa inédita, deve ser capaz de citar fontes fiáveis e publicadas. Elas devem estar diretamente relacionadas ao tema do artigo e apoiar diretamente o conteúdo apresentado. |
LLMs s?o programas de complementa??o de padr?es: eles geram texto exibindo as palavras com maior probabilidade de vir depois das anteriores. Eles aprendem esses padr?es a partir de seus dados de treinamento, que incluem uma grande variedade de conteúdo da Internet e de outros lugares, incluindo obras de fic??o, postagens de fóruns de baixo esfor?o, conteúdo n?o estruturado e de baixa qualidade para otimiza??o de mecanismos de busca (SEO) e assim por diante. Por isso, os LLMs às vezes "tiram conclus?es" que, mesmo que pare?am superficialmente familiares, n?o est?o presentes em nenhuma fonte confiável. Eles também podem atender a prompts com premissas absurdas, como "O seguinte é um artigo sobre os benefícios de comer vidro triturado". Por fim, os LLMs podem inventar coisas, o que é um subproduto estatisticamente inevitável de seu design, chamado de "alucina??o". Tudo isso é, em termos práticos, equivalente a pesquisa original ou, pior, fabrica??o total.
Como os LLMs geralmente produzem declara??es precisas e seus resultados geralmente parecem plausíveis e s?o apresentados com um ar de confian?a, sempre que eles fornecem um resultado aparentemente útil, as pessoas podem ter dificuldade em detectar os problemas acima. Um usuário comum que acredita estar de posse de uma ferramenta útil, que talvez tenha feito uma verifica??o pontual de precis?o e "n?o tenha visto nenhum problema", está inclinado a aceitar o resultado como fornecido; mas é altamente provável que haja problemas. Mesmo que 90% do conteúdo esteja correto e 10% seja falso, isso é um grande problema em uma enciclopédia. Os resultados dos LLMs pioram quando lhes s?o feitas perguntas complicadas, sobre assuntos obscuros, ou quando lhes é pedido que realizem tarefas para as quais n?o s?o adequados (por exemplo, tarefas que exigem conhecimento ou análise extensivos). Um exemplo dessa tendência é mostrado abaixo:
Prompt:
Os pademel?es-de-dentes-grandes (Thylogale gigadonti) podem ser vistos em reservas de vida selvagem em Queensland
Observe que o "pademelon de dentes maiores" é uma espécie fictícia.
Resposta:
Sim, pademelons de dentes grandes s?o encontrados em reservas de vida selvagem em Queensland. Eles s?o tímidos e noturnos, ent?o pode ser difícil vê-los durante o dia. No entanto, você pode conseguir ver seus rastros ou ouvi-los se mexendo nos arbustos à noite.
Esta afirma??o é completamente falsa e se baseia na suposi??o do LLM de que esta era uma espécie real. Para fornecer a resposta mais plausível, ele extraiu informa??es gerais sobre um tipo diferente de pademelon (mostrado em underline) de um artigo do Museu Australiano. Isso serve para demonstrar que os LLMs podem oferecer declara??es com um tom confiante, mesmo quando essas informa??es s?o factualmente incorretas ou n?o verificáveis.
(LLM usado: Gemini)
Conteúdo sem fonte ou n?o verificável
[editar código fonte]Os leitores devem ser capazes de verificar que qualquer informa??o dentro dos artigos da Wikipédia n?o foi simplesmente inventada. Isso significa que todo o material deve ser atribuível a fontes confiáveis e publicadas.
Os LLMs n?o seguem as políticas da Wikipédia sobre verificabilidade e fontes confiáveis. às vezes, os LLMs omitem completamente as cita??es ou citam fontes que n?o atendem aos padr?es de confiabilidade da Wikipédia (incluindo citar a própria Wikipédia como fonte). Em alguns casos, eles inventam cita??es de referências inexistentes, criando títulos, autores e URLs.
Conteúdo alucinado de LLM, além de ser pesquisa original, como explicado acima, também quebra a política de verificabilidade, pois n?o pode ser verificado porque é inventado: n?o há referências a serem encontradas.
Viés algorítmico e ponto de vista n?o neutro
[editar código fonte]Os artigos n?o devem tomar partido, mas devem explicar os lados de maneira justa e sem viés editorial. Isso se aplica tanto ao que você diz quanto à forma como diz.
LLMs podem produzir conteúdo que parece ter um tom neutro, mas nem sempre em termos de substancia. Essa preocupa??o é especialmente relevante para biografias de pessoas vivas.
Viola??es de direitos autorais
[editar código fonte]
Um LLM pode gerar material que viole direitos autorais.[a] O texto gerado pode incluir trechos literais de conteúdo n?o-livre ou ser uma obra derivada. Além disso, usar LLMs para resumir conteúdo protegido por direitos autorais (como artigos de notícias) pode resultar em paráfrases excessivamente próximas.
O status de direitos autorais dos LLMs treinados em material protegido por direitos autorais ainda n?o é totalmente compreendido. Seus resultados podem n?o ser compatíveis com a licen?a CC BY-SA e a licen?a GNU usadas para textos publicados na Wikipédia.
Uso
[editar código fonte]A Wikipédia depende de esfor?os voluntários para revisar novos conteúdos para verificar a conformidade com nossas principais políticas de conteúdo. Isso costuma consumir muito tempo. O contrato social informal na Wikipédia é que os editores far?o um esfor?o significativo em suas contribui??es, para que outros editores n?o precisem "limpar a bagun?a deles". Os editores devem garantir que suas edi??es assistidas pelo LLM sejam um resultado positivo para a enciclopédia e n?o aumentem a carga de manuten??o de outros voluntários.
Competência específica é necessária
[editar código fonte]Os LLMs s?o ferramentas de assistência e n?o podem substituir o julgamento humano. é necessário um julgamento cuidadoso para determinar se tais ferramentas s?o adequadas para um propósito específico. Espera-se que os editores que utilizam LLMs familiarizem-se com as limita??es inerentes de um determinado LLM e, em seguida, superem essas limita??es para garantir que suas edi??es estejam em conformidade com as diretrizes e políticas relevantes. Para tanto, antes de usar um LLM, os editores devem ter adquirido experiência substancial realizando a mesma tarefa ou uma tarefa mais avan?ada sem a assistência de LLM.[b]
Alguns editores s?o competentes em fazer edi??es sem assistência, mas repetidamente fazem edi??es inadequadas assistidas pelo LLM, apesar de um esfor?o sincero para contribuir. Presume-se que tais editores n?o tenham competência nesse sentido específico. Eles podem n?o estar cientes dos riscos e limita??es inerentes ou estar cientes, mas n?o conseguir superá-los para garantir a conformidade com as políticas. Nesse caso, um editor pode ser proibido de se auxiliar com tais ferramentas (ou seja, restrito a fazer apenas edi??es sem assistência). Este é um tipo específico de proibi??o limitada. Alternativamente, ou adicionalmente, eles podem ser parcialmente bloqueados de um determinado espa?o nominal ou vários espa?os nominais.
Divulga??o
[editar código fonte]Cada edi??o que incorpora saída do LLM deve ser marcada como assistida pelo LLM, identificando o nome e, se possível, a vers?o da IA no sumário de edi??o. Isso se aplica a todos os espa?os nominais.
Escrevendo artigos
[editar código fonte]Colar saídas brutas de modelos de linguagem grandes diretamente na janela de edi??o para criar um novo artigo ou adicionar uma nova prosa substancial a artigos existentes geralmente leva a resultados ruins. Os LLMs podem ser usados para editar ou expandir textos existentes e para gerar ideias para artigos novos ou existentes. Toda altera??o em um artigo deve estar em conformidade com todas as políticas e diretrizes aplicáveis. Isso significa que o editor deve se familiarizar com o cenário de fontes para o tópico em quest?o e ent?o avaliar cuidadosamente o texto quanto à sua neutralidade em geral e à sua verificabilidade em rela??o às fontes citadas. Se as cita??es forem geradas como parte da saída, elas devem ser verificadas para garantir que as fontes correspondentes n?o sejam fictícias, sejam confiáveis, relevantes e adequadas, e para verificar a integridade do texto-fonte.
Ao usar um LLM como consultor de escrita, ou seja, solicitando esbo?os, sugest?es de melhoria de parágrafos, críticas ao texto, etc., os editores devem estar cientes de que as informa??es fornecidas n?o s?o confiáveis. Ao usar um LLM para edi??o de texto, resumo e paráfrase, os editores devem estar cientes de que ele pode n?o detectar corretamente erros gramaticais, interpretar ambiguidades sintáticas ou manter informa??es importantes intactas. é possível pedir ao LLM para corrigir deficiências em sua própria produ??o, como informa??es ausentes em um resumo ou um tom pouco enciclopédico, por exemplo, promocional. Embora essas possam ser tentativas valiosas, elas n?o devem substituir corre??es manuais. O resultado pode precisar ser bastante editado ou descartado. é preciso muita diligência e bom senso ao decidir se deve incorporar as sugest?es e altera??es.
Os resultados brutos do LLM também n?o devem ser adicionados diretamente as páginas de testes. As páginas de testes s?o trabalhos em andamento e suas vers?es iniciais muitas vezes n?o atendem ao padr?o exigido para artigos, mas permitir que os editores desenvolvam o conteúdo do artigo a partir de uma vers?o inicial inalterada produzida pelo LLM n?o é um dos propósitos da página de testes da Wikipédia ou da página de testes pessoal.
Comunicando
[editar código fonte]Os editores n?o devem usar LLMs para escrever comentários de forma generativa. A comunica??o está na raiz do processo de tomada de decis?es da Wikipédia e presume-se que os editores que contribuem para a Wikipédia em inglês tenham a capacidade de apresentar suas próprias ideias. Comentários que n?o representam os pensamentos de uma pessoa real n?o s?o úteis em discuss?es. Fica a critério dos administradores e responsáveis por encerrar o assunto descontar, eliminar ou recolher o uso óbvio de LLMs generativos sob WP:DUCK, e o uso repetido indevido constitui um padr?o de edi??o disruptiva e pode levar a um bloqueio. Isso n?o se aplica ao uso de LLMs para refinar a express?o das ideias autênticas de alguém.
Outras considera??es políticas
[editar código fonte]Os LLMs n?o devem ser usados para edi??es n?o aprovadas, semelhantes às de rob?s, ou qualquer coisa que se aproxime de uma edi??o semelhante à de rob?s. O uso de LLMs para auxiliar na edi??o de alta velocidade no espa?o de artigos tem grandes chances de n?o atender aos padr?es de uso responsável devido à dificuldade de analisar rigorosamente o conteúdo para verificar a conformidade com todas as políticas aplicáveis.
A Wikipédia n?o é um campo de testes para o desenvolvimento de LLM, por exemplo, realizando experimentos ou testes na Wikipédia com esse único propósito. As edi??es na Wikipédia s?o feitas para promover a enciclopédia, n?o uma tecnologia. Isso n?o significa proibir editores de experimentarem de forma responsável os LLMs em seu espa?o de usuário com o objetivo de melhorar a Wikipédia.
Fontes com texto gerado pelo LLM
[editar código fonte]Os trabalhos criados pelo LLM n?o s?o fontes confiáveis. A menos que seus resultados tenham sido publicados por veículos confiáveis com supervis?o rigorosa e seja possível verificar que a precis?o do conteúdo foi avaliada pelo editor, eles n?o devem ser citados.
Lidando com conteúdo suspeito gerado por LLM
[editar código fonte]Um editor que identifica conteúdo originado de LLM que n?o está em conformidade com nossas principais políticas de conteúdo — e decide n?o removê-lo imediatamente (o que geralmente é aceitável) — deve editá-lo para que esteja em conformidade ou alertar outros editores sobre o problema. A primeira coisa a verificar é se as obras referenciadas realmente existem. Todas as alega??es factuais precisam ser verificadas em rela??o às fontes fornecidas. A presen?a do texto — a integridade da fonte deve ser estabelecida. Qualquer coisa que n?o esteja de acordo com as políticas deve ser removida.
Para alertar outros editores, o editor que responder ao problema deve colocar {{criado por IA|data=agosto 2025}}
no topo do artigo ou página de testes afetado (somente se esse editor n?o se sentir capaz de resolver o problema rapidamente por conta própria). Em biografias de pessoas vivas, o conteúdo originado de LLM que n?o esteja em conformidade com as políticas deve ser removido imediatamente — sem esperar por discuss?o ou que outra pessoa resolva o problema marcado.
Se a remo??o conforme descrito acima resultar na exclus?o de todo o conteúdo do artigo ou página de testes, ele se torna um candidato à exclus?o.[c] Se a página inteira parecer estar incorreta em termos de fatos ou se basear em fontes fabricadas, a elimina??o rápida conforme WP:G2 (impróprio) pode ser apropriada.
Manifesta??es
[editar código fonte]Discuss?es
[editar código fonte]Na esplanada, várias discuss?es abordam o uso de IA:
- Wikipédia:Esplanada/propostas/Proibi??o de uso de imagens geradas por IA para ilustrar artigos gerais (1abr2023) – Proposta que busca proibir o uso de imagens geradas por IA para ilustrar artigos.
- Wikipédia:Esplanada/propostas/Incluir textos gerados por inteligência artificial como exemplo de um texto pronto. (14fev2025) – Proposta aprovada que busca incluir textos gerados por IA como exemplos de textos prontos.
- Wikipédia:Esplanada/geral/Dúvida sobre usuário novo aparentemente usando IA para incluir conteúdo (26fev2025) – Discuss?o sobre um usuário que teria inserido conteúdo gerado por IA sem revis?o.
Filtros
[editar código fonte]Atualmente, há dois filtros em processo de adapta??o para a Wikipédia em português:
- Especial:Filtro_de_abusos/193 – Identifica cita??es possivelmente obtidas por IA (adaptado de en:Special:AbuseFilter/1346).
- Especial:Filtro_de_abusos/194 – Detecta texto possivelmente gerado por IA (adaptado de en:Special:AbuseFilter/1325).
Ver também
[editar código fonte]- en:Artwork title – Um artigo mantido na Wikipédia anglófona, inicialmente desenvolvido a partir da produ??o bruta do LLM (antes do desenvolvimento deste ensaio originalmente lá).
- m:Research:Implications of ChatGPT for knowledge integrity on Wikipedia – Um projeto de pesquisa da Wikimedia em andamento (em julho de 2023).
Notas e referências
Notas
- ↑ Isso também se aplica a casos em que o modelo de IA está em uma jurisdi??o onde obras geradas exclusivamente por IA n?o s?o passíveis de prote??o por direitos autorais, embora com probabilidade muito baixa.
- ↑ Por exemplo, alguém habilidoso em lidar com vandalismo, mas com pouca experiência em trabalho com artigos, provavelmente n?o deve come?ar a criar artigos usando LLMs. Em vez disso, deve primeiro adquirir experiência prática na cria??o de artigos sem a assistência do LLM.
- ↑ Sempre que um novo artigo consistir em grande parte da saída n?o editada de um modelo de linguagem grande, ele pode ser movido para a página de testes.Desde que o título indique um tópico que tenha algum potencial mérito, pode valer a pena esbo?ar ou esvaziar e redirecionar. Da mesma forma, páginas de testes sobre novos tópicos viáveis podem ser convertidos em "testes esqueléticos", ou seja, quase vazios, deixando apenas uma breve defini??o do assunto. Os criadores de tais páginas devem ser devidamente notificados ou advertidos. Sempre que houver suspeita de conteúdo gerado por LLM, desencoraja-se que os editores contestem remo??es por revers?o sem antes discutir.Quando uma alternativa à exclus?o for considerada, os editores ainda devem estar atentos a quaisquer problemas críticos de direitos autorais ou similares que exijam exclus?o.
Referências
- ↑ Smith, Adam (25 de janeiro de 2023). ?What Is ChatGPT? And Will It Steal Our Jobs??. Context (em inglês). Thomson Reuters Foundation. Consultado em 27 de janeiro de 2023