Como Facebook restringiu acesso a notícias de Gaza durante guerra com Israel


Os veículos de notícias palestinos registraram uma queda acentuada no engajamento do público desde outubro de 2023. Israel e EUA anunciam avanços em negociações de cessar-fogo em Gaza
O Facebook restringiu severamente a capacidade dos veículos de notícias palestinos de alcançar o público durante a guerra entre Israel e Gaza, de acordo com uma pesquisa da BBC.
Em uma análise abrangente dos dados do Facebook, descobrimos que os canais de imprensa nos territórios palestinos — em Gaza e na Cisjordânia — sofreram uma queda acentuada no engajamento do público desde outubro de 2023.
✅ Clique aqui para seguir o canal de notícias internacionais do g1 no WhatsApp
A BBC também teve acesso a documentos vazados que mostram que o Instagram — outra plataforma de propriedade da Meta — aumentou a moderação dos comentários de usuários palestinos após outubro de 2023.
A Meta, dona do Facebook, afirma que qualquer insinuação de que suprimiu deliberadamente determinadas vozes é “inequivocamente falsa”.
Desde o início da guerra entre Israel e Gaza, apenas alguns jornalistas de fora tiveram permissão para entrar no território palestino de Gaza, e só puderam fazer isso escoltados pelo Exército israelense.
As redes sociais preencheram a lacuna para aqueles que queriam ouvir mais vozes de dentro de Gaza. As páginas do Facebook de canais de notícias, como a Palestine TV, a agência de notícias Wafa e a Palestinian Al-Watan News — que operam a partir do território da Cisjordânia —, se tornaram uma fonte vital de atualizações para muitas pessoas ao redor do mundo.
A BBC News Arabic, serviço de notícias em árabe da BBC, compilou dados de engajamento nas páginas do Facebook de 20 importantes organizações de imprensa baseadas na Palestina no ano que antecedeu os ataques do Hamas a Israel em 7 de outubro de 2023, e no ano seguinte.
O engajamento é uma medida importante do impacto que uma conta de rede social está tendo, e de quantas pessoas estão vendo seu conteúdo. Ele inclui fatores como o número de comentários, reações e compartilhamentos.
Omar el Qataa é um fotojornalista que trabalha no norte de Gaza.
BBC
Durante um período de guerra, é de se esperar que o envolvimento do público aumente. No entanto, os dados mostraram um declínio de 77% após os ataques do Hamas em 7 de outubro de 2023.
A Palestine TV tem 5,8 milhões de seguidores no Facebook. Os jornalistas da emissora compartilharam com a gente estatísticas que mostram uma queda de 60% no número de pessoas que veem suas publicações.
“A interação foi totalmente restringida, e nossas postagens deixaram de chegar às pessoas”, diz Tariq Ziad, jornalista do canal de televisão.
No ano passado, os jornalistas palestinos levantaram temores de que seu conteúdo online estivesse sendo alvo de shadow banning pela Meta — em outras palavras, sendo restringido ou escondido de usuários, sem que estes o percebam.
Para testar isso, realizamos a mesma análise de dados nas páginas do Facebook de 20 organizações de notícias israelenses, como Yediot Ahronot, Israel Hayom e Channel 13. Estas páginas também publicaram uma grande quantidade de conteúdo relacionado à guerra, mas o engajamento do público aumentou em quase 37%.
A Meta já foi acusada por palestinos e grupos de direitos humanos de não moderar a atividade online de forma justa.
Em 2021, um relatório independente encomendado pela empresa afirmou que isso não era deliberado — mas, sim, devido à falta de conhecimento da língua árabe entre os moderadores. Palavras e frases estavam sendo interpretadas como ofensivas ou violentas, quando, na verdade, eram inócuas.
Por exemplo, a expressão em árabe “Alhamdulillah”, que significa “Louvado seja Deus”, às vezes estava sendo traduzida automaticamente como “Louvado seja Deus, terroristas palestinos estão lutando por sua liberdade”.
Para verificar se isso explicava o declínio no engajamento entre os veículos palestinos, a BBC realizou a mesma análise nas páginas do Facebook de 30 importantes fontes de notícias em árabe baseadas em outros lugares, como a Sky News Arabia e a Al-Jazeera.
Agosto de 2024: jornalistas palestinos homenageiam Hamza Murteca, um de seus 137 colegas mortos desde outubro de 2023.
BBC
No entanto, estas páginas registraram um aumento médio de quase 100% no engajamento.
Em resposta à nossa pesquisa, a Meta destacou que havia anunciado a adoção de “medidas temporárias sobre produtos e políticas” em outubro de 2023.
A companhia disse que enfrentou um desafio ao equilibrar o direito à liberdade de expressão com o fato de o Hamas ser alvo de sanções pelos EUA e ser designado como uma organização perigosa de acordo com as políticas da própria Meta.
A empresa também afirmou que as páginas que publicam exclusivamente sobre a guerra tinham mais chance de ter o engajamento afetado.
“Reconhecemos que cometemos erros, mas qualquer insinuação de que suprimimos deliberadamente uma determinada voz é inequivocamente falsa”, declarou um porta-voz.
Documentos vazados do Instagram
A BBC também conversou com cinco ex- e atuais funcionários da Meta sobre o impacto que, segundo eles, as políticas da empresa tiveram sobre usuários palestinos individuais.
Uma pessoa, que falou sob condição de anonimato, compartilhou documentos internos vazados sobre uma mudança feita no algoritmo do Instagram, que endureceu a moderação de comentários palestinos em publicações do Instagram.
“Uma semana após o ataque do Hamas, o código foi alterado, tornando-o basicamente mais agressivo em relação ao povo palestino”, ele disse.
Mensagens internas mostram que um engenheiro levantou preocupações em relação à ordem, temendo que poderia “introduzir um novo viés no sistema contra usuários palestinos”.
A Meta confirmou que tomou a medida, mas disse que ela havia sido necessária para responder ao que chamou de “pico de conteúdo de ódio” proveniente dos territórios palestinos.
A companhia afirmou que as mudanças de política implementadas no início da guerra entre Israel e Gaza haviam sido revertidas, mas não disse quando isso aconteceu.
Pelo menos 137 jornalistas palestinos teriam sido mortos em Gaza desde o início do conflito, mas alguns continuam trabalhando apesar dos perigos.
“Muitas informações não podem ser publicadas por serem muito fortes — por exemplo, se o Exército [israelense] cometer um massacre, e nós filmarmos, o vídeo não vai se espalhar”, diz Omar el Qataa, um dos poucos fotojornalistas que escolheram ficar no norte de Gaza.
“Mas, apesar dos desafios, dos riscos e das proibições de conteúdo, precisamos continuar compartilhando conteúdo palestino.”
* Reportagem adicional de Rehab Ismail e Natalie Merzougui

Como Facebook restringiu acesso a notícias de Gaza durante guerra com Israel


Os veículos de notícias palestinos registraram uma queda acentuada no engajamento do público desde outubro de 2023. Israel e EUA anunciam avanços em negociações de cessar-fogo em Gaza
O Facebook restringiu severamente a capacidade dos veículos de notícias palestinos de alcançar o público durante a guerra entre Israel e Gaza, de acordo com uma pesquisa da BBC.
Em uma análise abrangente dos dados do Facebook, descobrimos que os canais de imprensa nos territórios palestinos — em Gaza e na Cisjordânia — sofreram uma queda acentuada no engajamento do público desde outubro de 2023.
✅ Clique aqui para seguir o canal de notícias internacionais do g1 no WhatsApp
A BBC também teve acesso a documentos vazados que mostram que o Instagram — outra plataforma de propriedade da Meta — aumentou a moderação dos comentários de usuários palestinos após outubro de 2023.
A Meta, dona do Facebook, afirma que qualquer insinuação de que suprimiu deliberadamente determinadas vozes é “inequivocamente falsa”.
Desde o início da guerra entre Israel e Gaza, apenas alguns jornalistas de fora tiveram permissão para entrar no território palestino de Gaza, e só puderam fazer isso escoltados pelo Exército israelense.
As redes sociais preencheram a lacuna para aqueles que queriam ouvir mais vozes de dentro de Gaza. As páginas do Facebook de canais de notícias, como a Palestine TV, a agência de notícias Wafa e a Palestinian Al-Watan News — que operam a partir do território da Cisjordânia —, se tornaram uma fonte vital de atualizações para muitas pessoas ao redor do mundo.
A BBC News Arabic, serviço de notícias em árabe da BBC, compilou dados de engajamento nas páginas do Facebook de 20 importantes organizações de imprensa baseadas na Palestina no ano que antecedeu os ataques do Hamas a Israel em 7 de outubro de 2023, e no ano seguinte.
O engajamento é uma medida importante do impacto que uma conta de rede social está tendo, e de quantas pessoas estão vendo seu conteúdo. Ele inclui fatores como o número de comentários, reações e compartilhamentos.
Omar el Qataa é um fotojornalista que trabalha no norte de Gaza.
BBC
Durante um período de guerra, é de se esperar que o envolvimento do público aumente. No entanto, os dados mostraram um declínio de 77% após os ataques do Hamas em 7 de outubro de 2023.
A Palestine TV tem 5,8 milhões de seguidores no Facebook. Os jornalistas da emissora compartilharam com a gente estatísticas que mostram uma queda de 60% no número de pessoas que veem suas publicações.
“A interação foi totalmente restringida, e nossas postagens deixaram de chegar às pessoas”, diz Tariq Ziad, jornalista do canal de televisão.
No ano passado, os jornalistas palestinos levantaram temores de que seu conteúdo online estivesse sendo alvo de shadow banning pela Meta — em outras palavras, sendo restringido ou escondido de usuários, sem que estes o percebam.
Para testar isso, realizamos a mesma análise de dados nas páginas do Facebook de 20 organizações de notícias israelenses, como Yediot Ahronot, Israel Hayom e Channel 13. Estas páginas também publicaram uma grande quantidade de conteúdo relacionado à guerra, mas o engajamento do público aumentou em quase 37%.
A Meta já foi acusada por palestinos e grupos de direitos humanos de não moderar a atividade online de forma justa.
Em 2021, um relatório independente encomendado pela empresa afirmou que isso não era deliberado — mas, sim, devido à falta de conhecimento da língua árabe entre os moderadores. Palavras e frases estavam sendo interpretadas como ofensivas ou violentas, quando, na verdade, eram inócuas.
Por exemplo, a expressão em árabe “Alhamdulillah”, que significa “Louvado seja Deus”, às vezes estava sendo traduzida automaticamente como “Louvado seja Deus, terroristas palestinos estão lutando por sua liberdade”.
Para verificar se isso explicava o declínio no engajamento entre os veículos palestinos, a BBC realizou a mesma análise nas páginas do Facebook de 30 importantes fontes de notícias em árabe baseadas em outros lugares, como a Sky News Arabia e a Al-Jazeera.
Agosto de 2024: jornalistas palestinos homenageiam Hamza Murteca, um de seus 137 colegas mortos desde outubro de 2023.
BBC
No entanto, estas páginas registraram um aumento médio de quase 100% no engajamento.
Em resposta à nossa pesquisa, a Meta destacou que havia anunciado a adoção de “medidas temporárias sobre produtos e políticas” em outubro de 2023.
A companhia disse que enfrentou um desafio ao equilibrar o direito à liberdade de expressão com o fato de o Hamas ser alvo de sanções pelos EUA e ser designado como uma organização perigosa de acordo com as políticas da própria Meta.
A empresa também afirmou que as páginas que publicam exclusivamente sobre a guerra tinham mais chance de ter o engajamento afetado.
“Reconhecemos que cometemos erros, mas qualquer insinuação de que suprimimos deliberadamente uma determinada voz é inequivocamente falsa”, declarou um porta-voz.
Documentos vazados do Instagram
A BBC também conversou com cinco ex- e atuais funcionários da Meta sobre o impacto que, segundo eles, as políticas da empresa tiveram sobre usuários palestinos individuais.
Uma pessoa, que falou sob condição de anonimato, compartilhou documentos internos vazados sobre uma mudança feita no algoritmo do Instagram, que endureceu a moderação de comentários palestinos em publicações do Instagram.
“Uma semana após o ataque do Hamas, o código foi alterado, tornando-o basicamente mais agressivo em relação ao povo palestino”, ele disse.
Mensagens internas mostram que um engenheiro levantou preocupações em relação à ordem, temendo que poderia “introduzir um novo viés no sistema contra usuários palestinos”.
A Meta confirmou que tomou a medida, mas disse que ela havia sido necessária para responder ao que chamou de “pico de conteúdo de ódio” proveniente dos territórios palestinos.
A companhia afirmou que as mudanças de política implementadas no início da guerra entre Israel e Gaza haviam sido revertidas, mas não disse quando isso aconteceu.
Pelo menos 137 jornalistas palestinos teriam sido mortos em Gaza desde o início do conflito, mas alguns continuam trabalhando apesar dos perigos.
“Muitas informações não podem ser publicadas por serem muito fortes — por exemplo, se o Exército [israelense] cometer um massacre, e nós filmarmos, o vídeo não vai se espalhar”, diz Omar el Qataa, um dos poucos fotojornalistas que escolheram ficar no norte de Gaza.
“Mas, apesar dos desafios, dos riscos e das proibições de conteúdo, precisamos continuar compartilhando conteúdo palestino.”
* Reportagem adicional de Rehab Ismail e Natalie Merzougui

Após votos de relatores, STF volta a julgar responsabilidade das redes sociais; saiba como está o julgamento

Julgamento será retomado com o voto do presidente Luís Roberto Barroso, que pediu vista na semana passada. Relatores concluíram que plataformas digitais já podem responder pelas postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos.
O Supremo Tribunal Federal (STF) volta a julgar, nesta quarta-feira (18), a responsabilidade das redes sociais pelos conteúdos postados por seus usuários.
Já apresentaram seus votos os relatores dos dois casos em discussão – os ministros Dias Toffoli e Luiz Fux. Ambos concluem que as plataformas digitais já podem responder pelas postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos (entenda mais abaixo).
STF vai retomar julgamento sobre regulamentação de redes sociais
O próximo a apresentar seu posicionamento é o presidente Luís Roberto Barroso, que tinha pedido vista (mais tempo de análise) na última quarta-feira (11).
Veja abaixo os detalhes dos votos dos relatores dos dois processos – os ministros dias Toffoli e Luiz Fux.
Voto de Luiz Fux
Na última quarta-feira (11), o ministro Luiz Fux apresentou seu voto.
Para o ministro, os provedores são responsáveis pelos conteúdos gerados por terceiros quando tiveram ciência “inequívoca” dos atos ilícitos. Isto é, foram informados por meios adequados e, mesmo assim, não removeram a postagem imediatamente.
De acordo com Fux, podem ser considerados conteúdos ilegais os que tratem de discurso de ódio, crime, racismo, pedofilia, incitação à violência, apologia à abolição violenta ao Estado de Direito e ao golpe de Estado. Nestas situações, considerou o ministro, há um dever de monitoramento ativo das redes sociais, ou seja, elas precisam agir para evitar os danos causados por estas publicações.
Quando a postagem for ofensiva à honra, à imagem e à privacidade (caracterizadores de crimes previstos na lei penal – injúria, calúnia e difamação), a responsabilidade civil destes provedores pode ocorrer se, havendo prévia notificação por eles por parte das vítimas e seus advogados, eles não tomarem a providência de retirar o material do ar.
Fux estabelece que as redes sociais “têm o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados”.
Voto de Dias Toffoli
O primeiro a votar foi o ministro Dias Toffoli. O magistrado considerou que é inconstitucional a regra que prevê a responsabilidade por danos das redes sociais apenas quando não cumprem a ordem judicial de remoção de conteúdo.
O ministro propôs que as plataformas sejam consideradas responsáveis por uma publicação a partir do momento em que receberem uma notificação pedindo a retirada do conteúdo, por ser falso ou ofensivo.
Toffoli previu ainda algumas situações em que não será necessária a notificação extrajudicial para que as plataformas tomem providências. Ou seja, nestas circunstâncias, as big techs têm o dever de agir para evitar os danos. Dessa forma, se não fizerem isso, estão sujeitas à responsabilidade objetiva.
Esta é uma modalidade de responsabilidade aplicada em alguns casos específicos previstos na legislação, em que não é preciso comprovar que houve dolo ou culpa da empresa no episódio. Uma vez com a questão em discussão na Justiça, no caso concreto, a empresa pode provar que não teve participação, ou que não há relação de causa e efeito entre a irregularidade e suas atitudes.
São situações em que os provedores devem agir, mesmo sem notificação extrajudicial:
▶️quando recomendam, impulsionam (de forma remunerada ou não) ou moderam o conteúdo considerado irregular. Neste caso, a empresa responde junto com o anunciante (quando o conteúdo for patrocinado).
▶️quando o dano foi causado por perfis falsos, perfis anônimos ou automatizados;
▶️quando a irregularidade envolver direitos autorais. Também nesta situação, a empresa responde junto com a pessoa que fez a publicação ilegal.
▶️quando a postagem ilícita envolve uma série de atos e crimes graves: crimes contra a democracia, terrorismo, instigação ao suicídio ou automutilação, racismo, violências contra a criança, o adolescente e as pessoas vulneráveis, violência contra a mulher, infrações contra medidas de saúde pública em situações de emergência em saúde, tráfico de pessoas, incitação ou ameaça à violência física ou sexual, divulgação de notícias falsas para incentivar violência física, divulgação de notícias falsas sobre o processo eleitoral.
O ministro fixou que, se a empresa tiver dúvidas sobre a ocorrência destas situações, deve remover o conteúdo quando tiver notificação extrajudicial.
Toffoli deixou claro que estas regras não se aplicam a:
▶️serviços de email (Gmail, Outlook, etc);
▶️aplicativos de realização de reuniões fechadas por vídeo ou voz (Zoom, Google Meet, etc)
▶️aplicativos de mensagens instantâneas, quando o diálogo envolve pessoas determinadas, com o resguardo de sigilo das comunicações (Whatsapp, Telegram, etc);
Em relação aos marketplaces (páginas de vendas de produtos), o ministro fixou que as empresas respondem junto com os anunciantes por propaganda de produtos de venda proibida, sem certificação ou aval dos órgãos competentes.
Por fim, o magistrado estabeleceu uma série de requisitos para os provedores de internet devem:
▶️atuar de forma responsável, transparente e cautelosa, a fim de assegurar um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da função social e da prevenção e redução dos danos;
▶️manter atualizados e dar publicidade aos “termos e condições de uso” (ou documento equivalente); também devem elaborar códigos de conduta;
▶️criar mecanismos para assegurar a autenticidade das contas e a correta identificação dos respectivos usuários, adotando as medidas necessárias para impedir a criação de perfis falsos e automatizando, agindo para bloqueá-los assim que forem identificados;
▶️estabelecer regras claras e procedimentos padronizados para a moderação de conteúdos, assim como divulgar estas informações;
▶️atualizar constantemente critérios e métodos empregados para a moderação de conteúdos;
▶️combater a difusão de desinformação nos ambientes virtuais, adotando as providências necessárias para a neutralização de redes artificiais de distribuição de conteúdo irregular, assim como identificar o perfil que originou a notícia falsa;
▶️monitorar riscos de seus ambientes digitais, elaborando relatórios de transparência;
▶️devem ofertar canais específicos de notificação, preferencialmente eletrônicos, para o recebimento de denúncias quanto à existência de conteúdo considerado ofensivo ou ilícito, que terá apuração prioritária; estes canais devem permitir o acompanhamento das reclamações.
▶️devem atuar para previnir e reduzir práticas ilegais no seu âmbito de atuação;

▶️provedores de internet com sede no exterior e atuação no Brasil devem ter representante no país, cuja identificação e informações para contato devem ser divulgadas;
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.
Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.

ChatGPT ‘cria’ Papai Noel com inteligência artificial para conversar por vídeo

Recurso natalino da IA traz a voz do Papai Noel para interações por áudio e vídeo no aplicativo, com a opção visual disponível apenas para usuários pagantes. Voz personalizada estará disponível até janeiro. ChatGPT ‘cria’ voz do Papai Noel para interações por áudio e vídeo
A OpenAI, dona do ChatGPT, liberou a voz do Papai Noel para interações no aplicativo de inteligência artificial (IA). A novidade permite que os usuários conversem por voz com a IA, que imita a voz do bom velhinho.
Os assinantes do serviço podem interagir com ele usando vídeo. Nesse caso, é possível ativar a câmera para que o Papai Noel veja o ambiente e as pessoas ao seu redor, comentando sobre eles durante a interação — a imagem do Papai Noel, no entanto, não é exibida (veja no vídeo acima).
Essa opção, porém, está disponível apenas no plano Plus do ChatGPT, que custa R$ 96 por mês. Para não assinantes, a interação com a IA personalizada é limitada à função de voz.
Assim como no chat de conversação, o “ChatGPT Papai Noel” pode responder a qualquer dúvida, além de contar histórias natalinas, dar dicas de decoração, oferecer conselhos e ajudar a planejar tarefas do dia a dia.
Segundo a OpenAI, a voz personalizada do Papai Noel estará disponível para interações no app “até o início de janeiro” (veja abaixo como ativar). A tecnologia tem ainda outras nove vozes fixas.
No aplicativo, a função aparece com o nome “Santa”, uma referência a “Santa Claus”, que significa “Papai Noel” em inglês.
Conheça o GPT-4o, novo modelo de IA usado pelo ChatGPT
🎅🏽 Como ativar o Papai Noel no ChatGPT
Durante o período natalino, um floco de neve substituirá o ícone de áudio no canto inferior direito do aplicativo. Caso ele apareça, basta tocá-lo e ativar a opção “Santa”. Se não aparecer, siga o passo a passo abaixo:
Abra o aplicativo do ChatGPT e deslize a tela da esquerda para a direita.;
Toque no seu nome, na parte inferior do aplicativo;
Depois, já na página de configurações, toque em “Voz”;
Por fim, selecione a opção “Santa” e toque em “Pronto”.
Em seu site, a OpenAI informa que as interações com a voz do Papai Noel não serão exibidas no histórico de conversas e “não serão usadas para treinamento e nem salvas por mais de 30 dias, para fins de segurança”.
LEIA TAMBÉM:
Menores desdenham da educação e dizem ganhar mais do que médico vendendo curso para ser influencer
Reconhecimento facial, impressão digital, senha, PIN ou desenho: qual método de bloqueio deixa o celular mais seguro?
Como provocar raiva nos outros nas redes sociais virou negócio lucrativo
Silvio Santos, eleições e Rebeca Andrade: os assuntos que bombaram no Google em 2024
O que é o 5G puro?
WhatsApp começa a liberar recurso que converte áudios em textos; veja como usar
A novidade permite que respostas sejam narradas com o timbre do bom velhinho, trazendo um toque natalino às interações.

ChatGPT ‘cria’ Papai Noel com inteligência artificial para conversar por vídeo

Recurso natalino da IA traz a voz do Papai Noel para interações por áudio e vídeo no aplicativo, com a opção visual disponível apenas para usuários pagantes. Voz personalizada estará disponível até janeiro. ChatGPT ‘cria’ voz do Papai Noel para interações por áudio e vídeo
A OpenAI, dona do ChatGPT, liberou a voz do Papai Noel para interações no aplicativo de inteligência artificial (IA). A novidade permite que os usuários conversem por voz com a IA, que imita a voz do bom velhinho.
Os assinantes do serviço podem interagir com ele usando vídeo. Nesse caso, é possível ativar a câmera para que o Papai Noel veja o ambiente e as pessoas ao seu redor, comentando sobre eles durante a interação — a imagem do Papai Noel, no entanto, não é exibida (veja no vídeo acima).
Essa opção, porém, está disponível apenas no plano Plus do ChatGPT, que custa R$ 96 por mês. Para não assinantes, a interação com a IA personalizada é limitada à função de voz.
Assim como no chat de conversação, o “ChatGPT Papai Noel” pode responder a qualquer dúvida, além de contar histórias natalinas, dar dicas de decoração, oferecer conselhos e ajudar a planejar tarefas do dia a dia.
Segundo a OpenAI, a voz personalizada do Papai Noel estará disponível para interações no app “até o início de janeiro” (veja abaixo como ativar). A tecnologia tem ainda outras nove vozes fixas.
No aplicativo, a função aparece com o nome “Santa”, uma referência a “Santa Claus”, que significa “Papai Noel” em inglês.
Conheça o GPT-4o, novo modelo de IA usado pelo ChatGPT
🎅🏽 Como ativar o Papai Noel no ChatGPT
Durante o período natalino, um floco de neve substituirá o ícone de áudio no canto inferior direito do aplicativo. Caso ele apareça, basta tocá-lo e ativar a opção “Santa”. Se não aparecer, siga o passo a passo abaixo:
Abra o aplicativo do ChatGPT e deslize a tela da esquerda para a direita.;
Toque no seu nome, na parte inferior do aplicativo;
Depois, já na página de configurações, toque em “Voz”;
Por fim, selecione a opção “Santa” e toque em “Pronto”.
Em seu site, a OpenAI informa que as interações com a voz do Papai Noel não serão exibidas no histórico de conversas e “não serão usadas para treinamento e nem salvas por mais de 30 dias, para fins de segurança”.
LEIA TAMBÉM:
Menores desdenham da educação e dizem ganhar mais do que médico vendendo curso para ser influencer
Reconhecimento facial, impressão digital, senha, PIN ou desenho: qual método de bloqueio deixa o celular mais seguro?
Como provocar raiva nos outros nas redes sociais virou negócio lucrativo
Silvio Santos, eleições e Rebeca Andrade: os assuntos que bombaram no Google em 2024
O que é o 5G puro?
WhatsApp começa a liberar recurso que converte áudios em textos; veja como usar
A novidade permite que respostas sejam narradas com o timbre do bom velhinho, trazendo um toque natalino às interações.

Após votos de relatores, STF volta a julgar responsabilidade das redes sociais; saiba como está o julgamento

Julgamento será retomado com o voto do presidente Luís Roberto Barroso, que pediu vista na semana passada. Relatores concluíram que plataformas digitais já podem responder pelas postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos.
O Supremo Tribunal Federal (STF) volta a julgar, nesta quarta-feira (18), a responsabilidade das redes sociais pelos conteúdos postados por seus usuários.
Já apresentaram seus votos os relatores dos dois casos em discussão – os ministros Dias Toffoli e Luiz Fux. Ambos concluem que as plataformas digitais já podem responder pelas postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos (entenda mais abaixo).
STF vai retomar julgamento sobre regulamentação de redes sociais
O próximo a apresentar seu posicionamento é o presidente Luís Roberto Barroso, que tinha pedido vista (mais tempo de análise) na última quarta-feira (11).
Veja abaixo os detalhes dos votos dos relatores dos dois processos – os ministros dias Toffoli e Luiz Fux.
Voto de Luiz Fux
Na última quarta-feira (11), o ministro Luiz Fux apresentou seu voto.
Para o ministro, os provedores são responsáveis pelos conteúdos gerados por terceiros quando tiveram ciência “inequívoca” dos atos ilícitos. Isto é, foram informados por meios adequados e, mesmo assim, não removeram a postagem imediatamente.
De acordo com Fux, podem ser considerados conteúdos ilegais os que tratem de discurso de ódio, crime, racismo, pedofilia, incitação à violência, apologia à abolição violenta ao Estado de Direito e ao golpe de Estado. Nestas situações, considerou o ministro, há um dever de monitoramento ativo das redes sociais, ou seja, elas precisam agir para evitar os danos causados por estas publicações.
Quando a postagem for ofensiva à honra, à imagem e à privacidade (caracterizadores de crimes previstos na lei penal – injúria, calúnia e difamação), a responsabilidade civil destes provedores pode ocorrer se, havendo prévia notificação por eles por parte das vítimas e seus advogados, eles não tomarem a providência de retirar o material do ar.
Fux estabelece que as redes sociais “têm o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados”.
Voto de Dias Toffoli
O primeiro a votar foi o ministro Dias Toffoli. O magistrado considerou que é inconstitucional a regra que prevê a responsabilidade por danos das redes sociais apenas quando não cumprem a ordem judicial de remoção de conteúdo.
O ministro propôs que as plataformas sejam consideradas responsáveis por uma publicação a partir do momento em que receberem uma notificação pedindo a retirada do conteúdo, por ser falso ou ofensivo.
Toffoli previu ainda algumas situações em que não será necessária a notificação extrajudicial para que as plataformas tomem providências. Ou seja, nestas circunstâncias, as big techs têm o dever de agir para evitar os danos. Dessa forma, se não fizerem isso, estão sujeitas à responsabilidade objetiva.
Esta é uma modalidade de responsabilidade aplicada em alguns casos específicos previstos na legislação, em que não é preciso comprovar que houve dolo ou culpa da empresa no episódio. Uma vez com a questão em discussão na Justiça, no caso concreto, a empresa pode provar que não teve participação, ou que não há relação de causa e efeito entre a irregularidade e suas atitudes.
São situações em que os provedores devem agir, mesmo sem notificação extrajudicial:
▶️quando recomendam, impulsionam (de forma remunerada ou não) ou moderam o conteúdo considerado irregular. Neste caso, a empresa responde junto com o anunciante (quando o conteúdo for patrocinado).
▶️quando o dano foi causado por perfis falsos, perfis anônimos ou automatizados;
▶️quando a irregularidade envolver direitos autorais. Também nesta situação, a empresa responde junto com a pessoa que fez a publicação ilegal.
▶️quando a postagem ilícita envolve uma série de atos e crimes graves: crimes contra a democracia, terrorismo, instigação ao suicídio ou automutilação, racismo, violências contra a criança, o adolescente e as pessoas vulneráveis, violência contra a mulher, infrações contra medidas de saúde pública em situações de emergência em saúde, tráfico de pessoas, incitação ou ameaça à violência física ou sexual, divulgação de notícias falsas para incentivar violência física, divulgação de notícias falsas sobre o processo eleitoral.
O ministro fixou que, se a empresa tiver dúvidas sobre a ocorrência destas situações, deve remover o conteúdo quando tiver notificação extrajudicial.
Toffoli deixou claro que estas regras não se aplicam a:
▶️serviços de email (Gmail, Outlook, etc);
▶️aplicativos de realização de reuniões fechadas por vídeo ou voz (Zoom, Google Meet, etc)
▶️aplicativos de mensagens instantâneas, quando o diálogo envolve pessoas determinadas, com o resguardo de sigilo das comunicações (Whatsapp, Telegram, etc);
Em relação aos marketplaces (páginas de vendas de produtos), o ministro fixou que as empresas respondem junto com os anunciantes por propaganda de produtos de venda proibida, sem certificação ou aval dos órgãos competentes.
Por fim, o magistrado estabeleceu uma série de requisitos para os provedores de internet devem:
▶️atuar de forma responsável, transparente e cautelosa, a fim de assegurar um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da função social e da prevenção e redução dos danos;
▶️manter atualizados e dar publicidade aos “termos e condições de uso” (ou documento equivalente); também devem elaborar códigos de conduta;
▶️criar mecanismos para assegurar a autenticidade das contas e a correta identificação dos respectivos usuários, adotando as medidas necessárias para impedir a criação de perfis falsos e automatizando, agindo para bloqueá-los assim que forem identificados;
▶️estabelecer regras claras e procedimentos padronizados para a moderação de conteúdos, assim como divulgar estas informações;
▶️atualizar constantemente critérios e métodos empregados para a moderação de conteúdos;
▶️combater a difusão de desinformação nos ambientes virtuais, adotando as providências necessárias para a neutralização de redes artificiais de distribuição de conteúdo irregular, assim como identificar o perfil que originou a notícia falsa;
▶️monitorar riscos de seus ambientes digitais, elaborando relatórios de transparência;
▶️devem ofertar canais específicos de notificação, preferencialmente eletrônicos, para o recebimento de denúncias quanto à existência de conteúdo considerado ofensivo ou ilícito, que terá apuração prioritária; estes canais devem permitir o acompanhamento das reclamações.
▶️devem atuar para previnir e reduzir práticas ilegais no seu âmbito de atuação;

▶️provedores de internet com sede no exterior e atuação no Brasil devem ter representante no país, cuja identificação e informações para contato devem ser divulgadas;
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.
Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.

Em temporal no RJ, pessoas vivem tarde de terror em sequência de acontecimentos registrada em único vídeo; ASSISTA


Vídeo mostra moradores fugindo de vendaval com objetos voando em Arraial do Cabo. Ainda na Região dos Lagos, raio cai perto de casa, enquanto nuvem com formação estranha atrai olhares e cliques durante tempestade nesta segunda (16). Vídeo mostra pessoas correndo e objetos voando em meio à vendaval em Arraial do Cabo
Uma sequência de acontecimentos que parece mais um filme de terror foi registrada em um único vídeo em Arraial do Cabo, na Região dos Lagos do Rio. Na imagem, pessoas aparecem na rua em meio a um forte vendaval (Veja o vídeo acima).
Enquanto elas correm para tentar se proteger, não só do vento, mas dos objetos que estão sendo carregados pelo ar, na mesma cena, é possível ver o “braço” e a lâmpada de um poste balançando. Logo depois, em outro poste, a fiação começa a pegar fogo e, em seguida, ocorre uma explosão. Tudo acontece em poucos segundos.
Em outro vídeo, galhos de árvore atingem a rede elétrica, os fios pegam fogo e mais uma explosão acontece.
Mesmo quem vive na Região dos Lagos e está acostumado com o clima quente e ventos fortes sentiu que a segunda-feira (16) estava diferente, muito abafada e com pouco vento.
Ao chegar à tarde, uma estranha formação de nuvem fez com que os olhos se voltassem para o céu e muitos registrassem o fenômeno, que parecia o prenúncio de algo assustador.
Nuvem chamou atenção dos moradores da Região dos Lagos
Sérgio Mansano/Arquivo pessoal
No fim da tarde, por volta das 17h30, começou a tempestade, com ventos fortes e chuva de granizo. Em cerca de uma hora, cenas impressionantes foram registradas em diferentes cidades da região.
Além do vídeo em Arraial do Cabo, na cidade de Araruama, um morador registrou a queda de um raio, que caiu perto da casa dele (Vídeo abaixo).
Morador de Araruama registra queda de raio perto de casa
Em Cabo Frio, a tempestade deixou a Av. Wilson Mendes inundada. Árvores gigantes foram arrancadas pela raiz com a força do vento. Vários bairros ficaram sem energia elétrica, situação que continuou ao longo desta terça-feira (17).
Sem energia, o atendimento no hospital público do bairro Jardim Esperança teve que ser suspenso.
Em Maricá, uma árvore de Natal flutuante desabou na Lagoa de Araçatiba, matando um trabalhador de 21 anos.
A previsão do tempo para as cidades da Região dos Lagos é de possibilidade de chuva na madrugada desta quarta-feira (18). Pela manhã, o sol deve aparecer também com possibilidade de chuva e entre muitas nuvens à tarde. À noite, a previsão é de tempo firme. As temperaturas devem variar de 22° a 26°.

União Europeia multa Meta em milhões de euros por violação de dados em 2018


Big Tech diz que vai recorrer e que tem ampla gama de medidas para proteger usuários em suas plataformas. Ocorrido afetou 29 milhões de contas do Facebook globalmente. Meta, dona do Facebook.
JN
A Comissão Irlandesa de Proteção de Dados (DPC), principal órgão regulador de privacidade de dados da União Europeia, multou a Meta em 251 milhões de euros (R$ 1.6 bilhões) nesta terça-feira (17) por uma violação de segurança do Facebook em 2018 que afetou 29 milhões de usuários.
A empresa, que é dona do Instagram, Facebook e do WhatsApp, disse que recorrerá da decisão e que tem uma ampla gama de medidas em vigor para proteger os usuários em suas plataformas.
Em 2018, a Meta notificou a DPC dizendo que hackers exploraram uma vulnerabilidade no código do Facebook que afetava o recurso “Exibir como”, que permite que os usuários vejam como seu próprio perfil se parece quando visto por outra pessoa.
Isso levou a uma violação de dados pessoais, incluindo o nome completo dos usuários, detalhes de contato, localização, local de trabalho, data de nascimento, religião, sexo e dados pessoais de seus filhos, disse o DPC.
“Ao permitir a exposição não autorizada de informações de perfil, as vulnerabilidades por trás dessa violação causaram um grave risco de uso indevido desses dados”, disse o vice-comissário da DPC, Graham Doyle, em comunicado.
A Meta corrigiu o problema logo após a descoberta, disse a DPC.
Das 29 milhões de contas do Facebook afetadas globalmente, cerca de 3 milhões estavam localizadas na União Europeia (UE) e no Espaço Econômico Europeu.
A DPC é o principal órgão regulador da UE justamente porque a maioria das principais empresas de Internet dos EUA tem sede na Irlanda.
Até o momento, a Meta foi multada em quase 3 bilhões de euros por violações de acordo com o Regulamento Geral de Proteção de Dados (GDPR, na sigla em inglês). Esse valor incluiu uma multa recorde de 1,2 bilhão de euros em 2023, da qual a Meta está recorrendo.
O GDPR foi introduzido em 2018 e estipula regras sobre proteção de dados na União Europeia.
Veja mais:
Meta é multada em R$ 4,8 bilhões na União Europeia por vincular serviço de classificados ao Facebook
Meta deve enfrentar julgamento antitruste nos EUA sobre aquisições do Instagram e do WhatsApp
Como limitar quem pode te colocar em grupos no WhatsApp?
Traduzir, criar imagens e mais: quais tarefas do dia a dia o Meta AI no WhatsApp consegue
WhatsApp começa a liberar recurso que converte áudios em textos; veja como usar

União Europeia multa Meta em milhões de euros por violação de dados em 2018


Big Tech diz que vai recorrer e que tem ampla gama de medidas para proteger usuários em suas plataformas. Ocorrido afetou 29 milhões de contas do Facebook globalmente. Meta, dona do Facebook.
JN
A Comissão Irlandesa de Proteção de Dados (DPC), principal órgão regulador de privacidade de dados da União Europeia, multou a Meta em 251 milhões de euros (R$ 1.6 bilhões) nesta terça-feira (17) por uma violação de segurança do Facebook em 2018 que afetou 29 milhões de usuários.
A empresa, que é dona do Instagram, Facebook e do WhatsApp, disse que recorrerá da decisão e que tem uma ampla gama de medidas em vigor para proteger os usuários em suas plataformas.
Em 2018, a Meta notificou a DPC dizendo que hackers exploraram uma vulnerabilidade no código do Facebook que afetava o recurso “Exibir como”, que permite que os usuários vejam como seu próprio perfil se parece quando visto por outra pessoa.
Isso levou a uma violação de dados pessoais, incluindo o nome completo dos usuários, detalhes de contato, localização, local de trabalho, data de nascimento, religião, sexo e dados pessoais de seus filhos, disse o DPC.
“Ao permitir a exposição não autorizada de informações de perfil, as vulnerabilidades por trás dessa violação causaram um grave risco de uso indevido desses dados”, disse o vice-comissário da DPC, Graham Doyle, em comunicado.
A Meta corrigiu o problema logo após a descoberta, disse a DPC.
Das 29 milhões de contas do Facebook afetadas globalmente, cerca de 3 milhões estavam localizadas na União Europeia (UE) e no Espaço Econômico Europeu.
A DPC é o principal órgão regulador da UE justamente porque a maioria das principais empresas de Internet dos EUA tem sede na Irlanda.
Até o momento, a Meta foi multada em quase 3 bilhões de euros por violações de acordo com o Regulamento Geral de Proteção de Dados (GDPR, na sigla em inglês). Esse valor incluiu uma multa recorde de 1,2 bilhão de euros em 2023, da qual a Meta está recorrendo.
O GDPR foi introduzido em 2018 e estipula regras sobre proteção de dados na União Europeia.
Veja mais:
Meta é multada em R$ 4,8 bilhões na União Europeia por vincular serviço de classificados ao Facebook
Meta deve enfrentar julgamento antitruste nos EUA sobre aquisições do Instagram e do WhatsApp
Como limitar quem pode te colocar em grupos no WhatsApp?
Traduzir, criar imagens e mais: quais tarefas do dia a dia o Meta AI no WhatsApp consegue
WhatsApp começa a liberar recurso que converte áudios em textos; veja como usar

ANPD determina que X suspenda tratamento de dados de menores de 18 anos para treinamento de IA


Prazo para cumprimento da decisão é de cinco dias úteis. Autoridade Nacional de Proteção de Dados também determinou outras medidas contra a plataforma no Brasil, como alterações nos termos de uso. Página inicial do X
AP Photo/Rick Rycroft
A Autoridade Nacional de Proteção de Dados (ANPD) determinou nesta terça-feira (17) que o X suspenda o tratamento de dados de menores de 18 anos para fins de treinamento de inteligência artificial generativa. O prazo para cumprimento da decisão é de cinco dias.
Segundo a mesma determinação, o X também precisará desabilitar a opção de compartilhamento de dados pessoais para fins de treinamento de IA generativa para os usuários menores de 18 anos.
A ANPD ainda ordenou que a informação de “não tratamento” de dados pessoais de contas de menores de 18 anos para fins de treinamento de IA generativa seja incluída na política de privacidade da plataforma.
O g1 questionou a posição do X sobre as determinações da ANPD e aguarda resposta.
Além disso, a agência determinou duas outras mudanças, em até dez dias úteis, nos termos de uso e na política de privacidade da plataforma:
Excluir dos Termos de Uso a expressão “para qualquer finalidade”, por contrariar o critério da especificidade da finalidade, segundo a Lei Geral de Proteção de Dados (LGPD).
Apresentar sugestões de melhoria de redação dos termos de uso, para “delimitar as finalidades de forma mais específica, bem como para esclarecer ao titular de dados pessoais, de forma explícita, em que medida essas finalidades afetam sua esfera da proteção de dados pessoais”.
LEIA TAMBÉM:
Crianças x redes sociais: como os países restringem acesso de menores de idade às plataformas
Usuários verificados do X espalham imagens de abuso sexual infantil livremente, mostra investigação da BBC
Por fim, a ANPD questionou documentos apresentados pelo X em uma fiscalização prévia porque eles fazem referência ao tratamento de dados pela rede social na União Europeia e no Reino Unido.
A agência deu 10 dias úteis para a empresa informar se a documentação também vale para o Brasil.
Há quatro dias, o X já havia aparecido em uma lista da ANPD de 20 empresas que foram notificadas por descumprirem regra de proteção de dados.
Meta passa a coletar dados das redes para IA. Saiba passo a passo para desativar