Início Notícias Brasil Moraes atribui ao discurso de Bolsonaro tragédias escolares

Moraes atribui ao discurso de Bolsonaro tragédias escolares

0
370

Ministro do STF participou de reunião sobre violência nas escolas ao lado de Lula

O ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes defendeu, nesta terça-feira (18), a inclusão de um artigo na legislação brasileira para deixar claro que as regras do mundo real devem prevalecer também no ambiente virtual. A afirmação foi feita durante a reunião convocada pelo presidente Luiz Inácio Lula da Silva para discutir políticas de prevenção e enfrentamento à violência nas escolas.

– Precisamos de uma vez por todas determinar que o que não pode ser feito na vida real, no mundo real, não pode ser feito no mundo virtual – disse.

Para isso, segundo o ministro, bastaria a inclusão de “um artigo na lei, a ser regulamentado pelo Congresso”.

– É simples – acrescentou o ministro.

Na avaliação de Moraes, os problemas de violência e preconceito nas escolas têm uma mesma origem: a desinformação que, em geral, é promovida via redes sociais.

– O modus operandi dessas agressões instrumentalizadas, divulgadas e incentivadas pelas redes sociais em relação às escolas é exatamente idêntico ao modus operandi que foi utilizado contra as urnas eletrônicas e contra a democracia. É o modus operandi instrumentalizado para o 8 de janeiro. Não há nenhuma diferença. As redes sociais ainda se sentem terra de ninguém, uma terra sem lei. Precisamos regulamentar isso – discursou o ministro da Suprema Corte, atribuindo a culpa pelas tragédias escolares ao discurso do ex-presidente Jair Bolsonaro (PL).

BIG TECHS

Moraes afirmou que, se não houver “uma regulação e uma regulamentação” que tenham por base modelos – que já são, inclusive, do conhecimento das big techs responsáveis pelas redes sociais –, a instrumentalização feita por meio dessas plataformas para incentivar ataques continuarão.

– Há alguns anos a deep web divulgava esses tipos de mensagens. A investigação era muito mais difícil, porque era necessário infiltrar pessoas naquele ambiente para chegarmos aos responsáveis. Hoje é na rede social normal que isso acontece. É no Twitter. Você entra no Google e ensina uma criança a fazer uma bomba, e a incentiva a repetir os atentados que ocorreu (sic) nos Estados Unidos – criticou o ministro.

Essas plataformas, segundo Moraes, se dizem “meros depósitos de informação” e alegam que, por isso, não poderiam ser responsabilizadas.

– Faço aqui uma analogia simples entre os mundos real e virtual. No mundo real, se alguém tem um depósito e aluga esse depósito para alguém que o use para cometer crimes, obviamente não poderá ser responsabilizado. Mas a partir do momento que a pessoa sabe e renova o contrato, ela poderá ser responsabilizada. E se monetiza ou lucra em cima disso, é obrigatório que ela seja responsabilizada – argumentou ao afirmar que as redes sociais lucram em cima de incentivo à violência e de discursos de ódio.

– Isso precisa cessar imediatamente – defendeu.

PROPOSTAS

Segundo Moraes, com poucas propostas seria possível dar “um grande salto de qualidade” na legislação brasileira. Uma das medidas sugeridas pelo ministro é a de dar maior transparência sobre os algoritmos das redes sociais.

– Por que, ao colocarmos “criança” e “atentado” [em uma pesquisa], em vez de aparecer a notícia do atentado aparece [instruções sobre] como fazer uma bomba para o atentado? Porque uma notícia vai na frente da outra? – questionou.

A segunda sugestão apresentada pelo ministro é a extensão dos métodos de autorregulação que já existem para pornografia infantil, pedofilia e direitos autorais.

– Eu perguntei às big techs se elas recebem muitos vídeos de pornografia infantil e pedofilia. Responderam que recebem “milhares por dia”, e que 93% desses vídeos são retirados antes mesmo de receberem o primeiro like, comentário ou visualização. Tudo com base na inteligência artificial – disse.

Para os outros 7%, em que ficam dúvidas, há uma equipe que imediatamente analisa e retira o que for necessário.

– Tudo em pouquíssimas horas para pornografia infantil; para pedofilia. E para direitos autorais, porque as maiores indenizações das big techs são por direitos autorais. Então, aí, elas se preocupam – acrescentou ao defender a obrigatoriedade de uso de inteligência artificial e de equipe humana para retirar das redes “discursos nazistas, fascistas, homofóbicos, racistas e contra a democracia”.

Por portal Novo Norte

SEM COMENTÁRIOS