fbpx

Acesse sua conta de usuário

Nome de usuário *
Senha *
Lembrar de mim
 

BRASÍLIA/DF - O ministro Alexandre de Moraes, presidente do Tribunal Superior Eleitoral (TSE), multou dois usuários que tiveram os perfis suspensos no X (antigo Twitter) por fake news sobre as urnas e, após recuperarem as contas, voltaram atacar a Justiça Eleitoral. A multa pode chegar a R$ 600 mil para cada um.

Os usuários são Wagner Pereira e Rita de Cássia Serrão. Eles tiveram os perfis bloqueados em novembro de 2022, por ordem judicial. Moraes autorizou a reativação das contas em janeiro, mas impôs como condição para levantar o embargo uma multa de R$ 20 mil por dia caso voltassem a publicar "mensagens instigadoras ou incentivadoras de golpe militar, atentatórias à Justiça Eleitoral e ao Estado democrático de Direito".

Novas postagens que colocavam sob desconfiança a legitimidade das eleições de 2022 foram publicadas nas contas no dia 1º de maio. "Eleições tomadas, fato que eles mesmo não conseguem provar o contrário (sic)", escreveu Wagner em uma das publicações. Rita afirmou que "eles não venceram a eleição mas sim tomaram o poder".

As publicações foram removidas pelo X no dia 1º de junho, após ordem de Moraes. Na ocasião, o ministro listou oito links para serem excluídos e levantou o sigilo dos autos. A multa estabelecida na decisão é referente ao mês em que o conteúdo ficou no ar.

Embora sejam reincidentes, os usuários não chegaram a ser notificados sobre o risco de multa. Um dos documentos do processo afirma que a Coordenadoria de Processamento "certifica não ter localizado endereço para intimação dos envolvidos".

O Estadão procurou o TSE para saber se a cobrança da multa está condicionada ou não à citação prévia e aguarda resposta.

Para a advogada Maíra Recchia, especialista em Direito Eleitoral, a multa não pode ser aplicada sem a ciência dos envolvidos.

"A gente ficou muito próximo de golpe, então o Estado Democrático de Direito e a lisura do processo eleitoral precisam de proteção. Por outro lado, as pessoas só descumprem aquilo que elas têm ciência. Essa determinação judicial tem que vir pelos meios legais, seja via citação, quando é o primeiro ato de chamada da parte no processo, ou uma intimação", explica. "Quando elas não existem, eu não vejo como aplicar multa. Um fator de proteção seria a retirada do conteúdo."

 

Supremo tem ameaça de CPI

A decisão de Moraes vem a público no momento em que a Corte está sob ataques. Na Câmara, deputados de oposição conseguiram reunir 171 assinaturas para instauração da CPI do abuso de autoridade. O presidente do TSE e também ministro do Supremo Tribunal Federal tem sido alvo das principais críticas.

Em outra frente, o Senado aprovou proposta legislativa para impedir decisões monocráticas de magistrados do Supremo contra projetos de lei votados no Legislativo. A proposta seguiu para apreciação na Câmara dos Deputados.

 

 

POR ESTADAO CONTEUDO

BRASÍLIA/DF - A Google apagou da página principal de seu mecanismo de busca na internet a afirmação que "O PL das Fake News pode aumentar a confusão sobre o que é verdade ou mentira no Brasil”. A frase remetia os internautas para um artigo no qual o diretor de Relações Governamentais e Políticas Públicas da empresa no Brasil, Marcelo Lacerda, criticava o Projeto de Lei (PL) 2630, que tramita no Congresso Nacional desde 2020. Se aprovado, o texto dará origem à chamada Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.

A retirada do link da página inicial do mais popular mecanismo de buscas da internet foi feita pouco após a Secretaria Nacional do Consumidor (Senacon), do Ministério da Justiça, determinar que a Google começasse a cumprir, tão logo notificada, a uma série de medidas cautelares para corrigir “indícios” de que está censurando o debate público sobre o PL 2630.

Além da obrigação de sinalizar o conteúdo publicitário deste e de outros conteúdos contrários à aprovação do PL que produzir e divulgar, a Senacon também determinou que a Google passe a informar os consumidores sobre eventual conflito de interesse na questão, já que a eventual aprovação do projeto vai impactar suas operações. Por já ter dado ampla divulgação às críticas à proposta de regulação das plataformas digitais, a Google também terá que começar a veicular, em até duas horas após ser notificada da decisão, as posições favoráveis ao projeto de lei. Se descumprir as determinações da Senacon, a empresa será multada em R$ 1 milhão por hora.

Em seu artigo, que segue disponível no blog da Google, Lacerda sustenta que é necessário “melhorar” o texto do projeto de lei que, segundo ele, “pode ir à votação antes mesmo que diversos setores da sociedade, incluindo parlamentares, tenham tido acesso” a ele. O executivo também incentiva os internautas a enviar uma mensagem aos parlamentares pedindo que “melhorem o texto do PL”.

Ao anunciar as medidas cautelares a serem cumpridas pela Google, o ministro da Justiça e Segurança Pública, Flávio Dino,  afirmou que a Senacon encontrou inúmeros “indícios” de que Google e outras grandes empresas de tecnologia estão tentando manipular o debate público a fim de defender seus próprios interesses econômicos.

“É dever da Senacon garantir que ninguém manipule a liberdade de expressão no Brasil. Mas há uma tentativa iníqua, imoral, de inverter os termos do debate, como se nós [membros do governo federal] quiséssemos a censura. É o contrário. O que estamos evitando é uma censura privada e clandestina, disfarçada, não assumida”, disse  o ministro Flávio Dino, criticando o artigo divulgado pela Google.

“Juridicamente, [afirmar que a aprovação do PL pode aumentar a confusão na internet] é o quê? É um editorial? Quem faz editorial são as empresas de comunicação. Só que [as empresas de tecnologia] dizem que não são empresas de comunicação, mas sim plataformas de tecnologia? Se é assim, aquilo é publicidade. E, sendo assim, tem que estar sinalizada como tal”, ponderou o ministro.

Em nota, a Google classificou como “falsas” as alegações de que agiria de forma a ampliar o alcance de páginas com conteúdos contrários ao Projeto de Lei 2630, em detrimento das que veiculam informações favoráveis à regulação das plataformas digitais.

“Cada vez que uma pessoa faz uma busca, nossos sistemas trabalham para mostrar para ela os resultados mais relevantes entre milhares, às vezes milhões, de páginas de web. Não alteramos manualmente as listas de resultados para determinar a posição de uma página específica em nenhuma hipótese”, garantiu a empresa, reiterando que o debate sobre mudanças legislativas que impactem a vida de milhões de brasileiros e empresas precisa envolver toda a sociedade.

“Nas últimas semanas, temos nos manifestado em relação ao PL 2630 de forma pública e transparente, por meio de nosso blog oficial. Além disso, temos investido em campanhas de marketing para dar visibilidade mais ampla às nossas preocupações, por meio de anúncios em veículos de comunicação tradicionais, como jornais, e em mídia digital, incluindo nossas plataformas de publicidade e redes sociais”, acrescenta a empresa.

“Temos explicado os riscos, que consideramos legítimos, às pessoas que usam nossas plataformas e também aos diferentes participantes do ecossistema digital. Isso inclui criadores de conteúdo no YouTube, anunciantes de todos os tamanhos e sites de notícias”, continua a Google, confirmando os relatos de que, nas últimas semanas, a empresa enviou e-mails a produtores de conteúdo para o YouTube em que sustenta que a eventual aprovação do projeto de lei afetará a forma com que os youtubers são remunerados, ocasionando perdas financeiras.

“Às vésperas da votação do PL 2630, que não foi discutido tão amplamente e sofreu alterações significativas nas últimas semanas, é importante que os brasileiros estejam informados sobre os possíveis impactos para tomarem uma decisão sobre como participar dessa discussão", conclui a empresa.

 

 

Por Alex Rodrigues - Repórter da Agência Brasil

EUA - Os jacarés do TikTok não são o que parecem.

Eles aparecem em postagens espalhadas pelo serviço de vídeo, alterados por Photoshop em casas inundadas por furacões, misturados a híbridos de chita e pitbull ou aguardando uma luta com um avatar de Tom Cruise digitalmente projetado.

E eles são inofensivos, como grande parte da mídia manipulada no TikTok, garantindo algumas risadas e curtidas antes de voltar a um fluxo implacável de conteúdo. Mas sua existência preocupa as pessoas que estudam a desinformação, porque as mesmas técnicas estão sendo aplicadas a postagens que semeiam a divisão política, propagam teorias da conspiração e ameaçam os princípios centrais da democracia antes das eleições de meio de mandato.

“Esse tipo de manipulação está se tornando cada vez mais difundido”, disse Henry Ajder, especialista em mídia manipulada e sintética. “Quando esse volume de conteúdo pode ser criado tão rapidamente e em tal escala, isso muda completamente o cenário.”

O material editado ou sintetizado também aparece em outras plataformas online, como o Facebook, que tem quase 3 bilhões de usuários ativos mensais. Mas especialistas disseram que é especialmente difícil fiscalizar o TikTok, que incentiva seus estimados 1,6 bilhão de usuários ativos a colocar sua própria marca no conteúdo de outra pessoa, e onde a realidade, a sátira e o engano completo às vezes se misturam nos vídeos em movimento rápido e ocasionalmente transmitidos ao vivo.

A disseminação de mídia manipulada potencialmente prejudicial é difícil de quantificar, mas os pesquisadores dizem que estão vendo mais exemplos surgirem à medida que as tecnologias que tornam isso possível ficam mais acessíveis. Com o tempo, dizem os especialistas, eles temem que as manipulações se tornem mais comuns e difíceis de detectar.

Nas últimas semanas, os usuários do TikTok compartilharam uma captura de tela falsa de uma história inexistente da CNN, alegando que as mudanças climáticas são sazonais. Um vídeo foi editado para sugerir que a secretária de imprensa da Casa Branca, Karine Jean-Pierre, ignorou uma pergunta do repórter da Fox News, Peter Doocy. Outro vídeo, de 2021, ressurgiu neste outono com o áudio alterado para que a vice-presidente Kamala Harris parecesse dizer que praticamente todas as pessoas hospitalizadas com COVID-19 foram vacinadas. (Ela havia dito “não vacinadas”.)

Os usuários do TikTok adotaram até as postagens alteradas mais absurdas, como as do mês passado que retratavam o presidente Joe Biden cantando “Baby Shark” em vez do hino nacional ou que sugeriam que uma criança na Casa Branca disse um palavrão para a primeira-dama, Jill Biden.

Mas, mais do que qualquer postagem, o perigo da mídia manipulada está no risco de prejudicar ainda mais a capacidade de muitos usuários de mídia social dependerem de conceitos como verdade e prova. Os deep fakes, que geralmente são criados ao enxertar um rosto digital no corpo de outra pessoa, estão sendo usados como acusação e desculpa por aqueles que esperam desacreditar a realidade e se esquivar da responsabilidade – um fenômeno conhecido como dividendo do mentiroso.

Os teóricos da conspiração postaram vídeos oficiais da Casa Branca do presidente no TikTok e ofereceram teorias desmentidas de que é um deep fake. O consultor político Roger Stone afirmou no Telegram em setembro que as imagens que o mostravam pedindo violência antes das eleições de 2020, que a CNN transmitiu, eram “vídeos deep fake fraudulentos”. Os advogados de pelo menos uma pessoa acusada no motim de 6 de janeiro no Capitólio dos EUA em 2021 tentaram lançar dúvidas sobre as evidências em vídeo do dia citando a tecnologia de criação de deep fake “amplamente disponível e insidiosa”.

“Quando entramos nesse tipo de mundo, onde as coisas estão sendo manipuladas ou podem ser manipuladas, podemos simplesmente descartar fatos inconvenientes”, disse Hany Farid, professor de ciência da computação da Universidade da Califórnia, Berkeley, que faz parte do conselho de conteúdo do TikTok.

As empresas de tecnologia passaram anos tentando novas ferramentas para detectar manipulações como deep fakes. Durante a temporada eleitoral de 2020, o TikTok, o Facebook, o Twitter e o YouTube prometeram remover ou rotular conteúdo manipulado nocivo.

Uma lei da Califórnia de 2019 tornou ilegal criar ou compartilhar deep fakes enganosos de políticos dentro de 60 dias de uma eleição, inspirada em parte por vídeos daquele ano que foram distorcidos para fazer a presidente Nancy Pelosi parecer bêbada.

O TikTok disse em comunicado que removeu vídeos, encontrados pelo The New York Times, que violavam suas políticas, que proíbem falsificações digitais “que enganam os usuários ao distorcer a verdade dos eventos e causar danos significativos ao assunto do vídeo, outras pessoas ou sociedade”.

“O TikTok é um lugar para conteúdo autêntico e divertido, e é por isso que proibimos e removemos desinformação prejudicial, incluindo mídia sintética ou manipulada, projetada para enganar nossa comunidade”, disse Ben Rathe, porta-voz do TikTok.

Mas especialistas em desinformação disseram que exemplos individuais são difíceis de moderar e quase fora de questão. A exposição prolongada à mídia manipulada pode intensificar a polarização e reduzir a capacidade e a vontade dos espectadores de distinguir a verdade da ficção.

A desinformação tornou-se um problema na plataforma antes das eleições de meio de mandato. Nos últimos dias, pesquisadores do SumOfUs, um grupo de defesa da responsabilidade corporativa, testaram o algoritmo do TikTok criando uma conta e pesquisando e assistindo a 20 vídeos amplamente vistos que semearam dúvidas sobre o sistema eleitoral.

Em uma hora, o algoritmo passou de fornecer conteúdo neutro para promover mais desinformação eleitoral, conteúdo polarizador, radicalismo de extrema direita, teorias da conspiração do QAnon e narrativas falsas sobre a COVID-19, descobriram os pesquisadores.

O TikTok disse que removeu o conteúdo, citado pelo relatório, que violava suas diretrizes e que atualizaria seu sistema para capturar os termos de pesquisa usados para encontrar os vídeos.

“Plataformas como o TikTok em particular, mas realmente todos esses feeds de mídia social, existem para você passar pelas coisas rapidamente – eles são projetados para ser essa enxurrada de conteúdo, e essa é uma receita para eliminar nuances”, disse Halsey Burgund , um tecnólogo criativo em residência no MIT Open Documentary Lab. “Os vestígios dessas reações emocionais muito rápidas ficam dentro de nossos cérebros e se acumulam, e é meio aterrorizante.”

Em 2019, Burgund trabalhou em um projeto de documentário com a artista multimídia e jornalista Francesca Panetta que projetou um deep fake de Richard Nixon anunciando o fracasso da missão Apollo 11 de 1969. (A expedição real desembarcou os primeiros humanos na lua.) O projeto, “In Event of Moon Disaster”, ganhou um Emmy no ano passado.

A maioria dos exemplos de conteúdo manipulado atualmente nas mídias sociais são de má qualidade e obviamente fabricados. Mas as tecnologias que podem alterar e sintetizar com muito mais sutileza são cada vez mais acessíveis e muitas vezes fáceis de aprender, disseram especialistas.

“Nas mãos certas, é bastante criativo e há muito potencial”, disse Burgund. “Nas mãos erradas, é muito ruim.”

No mês passado, várias postagens do TikTok com vídeos manipulados de Jill Biden promovendo iniciativas da Casa Branca relativas ao câncer no campo do Philadelphia Eagles foram visualizadas dezenas de milhares de vezes. Nas imagens da primeira-dama cantando ao lado de pacientes com câncer e sobreviventes, o som da multidão foi substituído por vaias e protestos altos, que os verificadores de fatos rastrearam a conteúdo mais antigo do YouTube e do TikTok.

O ex-presidente Donald Trump é um tema popular para paródia no TikTok e em outras plataformas. No TikTok, que oferece ferramentas para os usuários adicionarem áudio extra ou “fazerem dueto” com outros usuários e “costurar” em seu conteúdo, imitações de Trump apareceram em conversas com Harry Potter ou atuando como Marilyn Monroe.

“O TikTok foi literalmente projetado para que a mídia possa ser combinada – esta é uma plataforma inteira projetada para manipulação e remixagem”, disse Panetta, colega de equipe de Burgund. “Como é a verificação de fatos em uma plataforma como essa?”

Muitos usuários do TikTok usam rótulos e hashtags para divulgar que estão experimentando filtros e edições. Às vezes, a manipulação é mencionada na seção de comentários. Mas esses esforços são frequentemente ignorados na rolagem rápida do TikTok.

No ano passado, o FBI alertou que “atores maliciosos quase certamente irão alavancar conteúdo sintético para operações cibernéticas e de influência estrangeira” até este outono. Este ano a manipulação da mídia já foi armada no exterior na invasão russa da Ucrânia e na eleição presidencial brasileira.

“Não teríamos como combater cada conteúdo individual, porque parece que estamos jogando um jogo perdido e há batalhas muito maiores para lutar”, disse Claire Wardle, co-diretora do Information Futures Lab da Brown University. “Mas essas coisas são realmente perigosas, mesmo que um verificador de fatos ou uma pesquisa reversa de imagens seja capaz de desmenti-las em dois segundos. Está fundamentalmente alimentando esse constante gotejamento de coisas que reforçam sua visão de mundo.” / TRADUÇÃO DE LÍVIA BUELONI GONÇALVES

 

 

Tiffany Hsu / ESTADÃO

Inscrições estão abertas e devem ser feitas até o dia 7 de julho

 

SÃO CARLOS/SP - A Universidade Federal de São Carlos (UFSCar) está promovendo a segunda oferta do curso de extensão intitulado "Ciência e Cidadania: desmistificando fake news". A iniciativa é de Karina Paes Delgado, estudante de mestrado do Programa de Pós-Graduação em Educação em Ciências e Matemática (PPGEdCM-Ar), e de sua orientadora Tathiane Milaré, docente do Departamento de Ciências da Natureza, Matemática e Educação (DCNME-Ar), do Campus Araras da UFSCar.

O curso - online e gratuito - pretende discutir conhecimentos científicos relacionados às informações divulgadas diariamente na Internet, via redes sociais. O pressuposto é que esses conhecimentos ajudem na reflexão sobre as informações disseminadas indiscriminadamente e na identificação de conteúdos enganosos, as chamadas fake news.

A intenção é que os participantes se tornem capazes de diferenciar notícias falsas daquelas verídicas e tomem decisões diárias pautadas em conhecimentos científicos e em informações confiáveis. A proposta é voltada a pessoas que estejam cursando ou já tenham concluído o Ensino Médio, além de estudantes de graduação.

As atividades serão realizadas entre os dias 2 de agosto e 8 de outubro, com encontros síncronos (às quintas-feiras, sempre das 16 às 18 horas, via Google Meet) e tarefas assíncronas, no Ambiente Virtual de Aprendizagem (AVA) - Moodle da UFSCar. A carga horária total é de 60 horas.

As inscrições estão abertas até o dia 7 de julho e devem ser feitas neste formulário online (https://bit.ly/35Xm7iX), em que são dadas mais informações sobre a iniciativa. Dúvidas podem ser esclarecidas pelo e-mail desmistificandofakenews.Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

RIO DE JANEIRO/RJ - A Justiça deu ganho de causa a Luiz Inácio Lula da Silva em um processo movido contra Regina Duarte por disseminação de fake news. A atriz foi condenada por compartilhar uma informação falsa envolvendo Marisa Letícia, falecida esposa do ex-presidente do Brasil.

Na ocasião, a artista publicou que mais de R$ 256 milhões haviam sido encontrados em uma conta da ex-Primeira Dama. Contudo, o valor real achado era de R$ 26.281,74.

De acordo com o colunista Ancelmo Góis, a decisão do juiz Manuel Eduardo Pedroso Barros, da 12ª Vara Cível de Brasília, foi de que Regina Duarte seja obrigada a se retratar pela notícia falsa publicada nas redes sociais.

“Assim, deverá a ré ser condenada a publicar, em sua conta no Instagram ou, na hipótese de a conta estar cancelada, em meio virtual similar, a integralidade da presente sentença, com sinceros pedidos de desculpa à memória da falecida”, determinou o magistrado.

Caso descumpra a decisão, a ex-Secretária Nacional de Cultura de Jair Bolsonaro pode ter de desembolsar de R$ 150 a R$ 50 mil em multas. Contudo, o processo ainda cabe recurso.

 

 

*Por: FAMOSIDADES

A 21ª edição do reality está dando o que falar e vem muito mais fogo no parquinho por aí! Na última segunda feira (1), o diretor do programa, Boninho, afirmou que terá um ‘paredão fake’.

A dinâmica consiste em eliminar um participante ilusoriamente, sem que os outros brothers saibam que, na verdade, ele segue no jogo e voltará dentro de alguns dias. Enquanto isso, o escolhido pelo público para voltar ao jogo estará assistindo a repercussão do ocorrido. Em seu Instagram, após um pedido da atriz Marina Ruy Barbosa, Boninho garantiu que irá realizar a brincadeira.

Os internautas ficaram eufóricos com a ideia e já estão pedindo pra que Lucas Penteado ou Juliette estejam neste ‘paredão fake’, levando em consideração que os dois estão com dificuldades para se relacionar com os brothers dentro do reality.

Recentemente, no BBB21, Sarah se posicionou dentro do reality em prol dos participantes Lucas Penteado e Juliette, que têm vivido conflitos com os outros brothers.

 

 

*Por: Laís Mylla / METROPOLITANA

Nosso Facebook

Calendário de Notícias

« Março 2024 »
Seg. Ter Qua Qui Sex Sáb. Dom
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Aviso de Privacidade

Este site utiliza cookies para proporcionar aos usuários uma melhor experiência de navegação.
Ao aceitar e continuar com a navegação, consideraremos que você concorda com esta utilização nos termos de nossa Política de Privacidade.