Moderação de conteúdo comunitária: mudanças entre as edições
Sem resumo de edição |
mSem resumo de edição |
||
Linha 1: | Linha 1: | ||
📝 Este | 📝 Este verbete é um esboço. Você pode ajudar a wiki do diVerso expandindo-o. 📝 | ||
Autoria inicial: Carine Neris, Gabriela Morganti da Costa Ferreira Silva e Pietra Vaz Diógenes da Silva | Autoria inicial: Carine Neris, Gabriela Morganti da Costa Ferreira Silva e Pietra Vaz Diógenes da Silva |
Edição atual tal como às 21h25min de 14 de dezembro de 2022
📝 Este verbete é um esboço. Você pode ajudar a wiki do diVerso expandindo-o. 📝
Autoria inicial: Carine Neris, Gabriela Morganti da Costa Ferreira Silva e Pietra Vaz Diógenes da Silva
A moderação de conteúdo comunitária, no âmbito do metaverso, refere-se ao conjunto de condutas realizadas pelos usuários do metaverso para realizar o controle de conteúdo compartilhado pelos demais usuários, em uma manutenção coletiva e proativa da harmonia do ambiente. Busca-se, com a implementação da moderação de conteúdo comunitária, aprofundar a participação dos usuários na construção do metaverso, bem como tornar as dinâmicas de remoção de conteúdo inapropriado mais eficientes.
Histórico
A moderação de conteúdo é uma questão que acompanha a mídia desde sua criação, antes mesmo da expansão dos meios de comunicação de massa no século XX[1]. Decisões editoriais a respeito do que publicar em jornais impressos, bem como do que noticiar em programas de rádio e televisão, são exemplos de uma moderação de conteúdo realizada internamente por cada veículo de mídia. Nos espaços digitais, em que os usuários não apenas recebem informações, mas também participam de seus processos de criação e compartilhamento, a moderação de conteúdo tornou-se mais complexa. Agora, o conteúdo a ser moderado não parte de uma fonte centralizada, mas sim da atividade de qualquer usuário de redes sociais e ambientes digitais. Nos sites em que é expressivo o número de usuários que podem fazer comentários ou postar conteúdos audiovisuais, tem-se adotado a moderação comunitária.
De maneira geral, a moderação pode ocorrer ex ante, antes mesmo do compartilhamento do conteúdo; ou ex post, depois que o conteúdo já foi publicado[2]. Em plataformas nas quais o conteúdo gerado e compartilhado é mais duradouro - como é o caso de posts no Facebook ou no Instagram, cuja exposição perdura no perfil do usuário a não ser que sejam retirados do ar -, essa moderação é mais palpável, pois há como limitar o conteúdo do objeto a ser analisado. É o caso de textos, fotos, vídeos etc. que podem ser acessados a qualquer momento.
Já no metaverso, surge uma nova dificuldade, pois o conteúdo gerado pelos usuários é dinâmico e tem duração mais efêmera na rede. É o caso de compartilhamento de áudio em tempo real, sem a possibilidade de repetição pela interface do metaverso. O problema gera questionamentos a respeito da moderação de discurso de ódio no metaverso, por exemplo, já que a expressão oral do usuário é realizada de maneira instantânea. A questão exige repensar o papel e a natureza dos moderadores de conteúdo, assim como dos métodos utilizados por eles.
Desafios
Moderação de comportamento
No metaverso, a moderação de conteúdo e de comportamento andam de mãos dadas. Isso porque a interação acontece em tempo real; logo, não apenas falas, mas também movimentos e gestos feitos pelos avatares podem indicar condutas discriminatórias ou com conotação imprópria, desafiando os usuários e a própria plataforma a criarem meios de coibir e punir os infratores.
Com relação a ambientes que não se valem de realidade virtual totalmente imersiva para interação, a moderação de gestos e movimentos pode ser simplificada com a criação de avatares próprios para uso naquele ambiente, bem como limitando ações específicas para interação, como, por exemplo, acenos, aplausos etc., ou com a possibilidade de o moderador silenciar o usuário que se comportar inadequadamente, se expressando por meio de conteúdo impróprio, ofensivo ou discriminatório.
Porém, em ambientes em que a imersão é mais completa, exigindo dispositivos de realidade virtual, como é o caso do metaverso da Meta, a questão é mais preocupante e exige rápido julgamento e poder de ação do moderador. Isso porque não é possível saber se o usuário está agindo com a intenção de tumultuar o ambiente, de agredir ou ofender demais usuários, se inexperiência com o equipamento, ou, ainda, se o usuário que está se comportando inadequadamente é uma criança ou adolescente. Neste caso, uma abordagem mais atenciosa é necessária, dada a necessidade de especial proteção estabelecida pela legislação brasileira e pelos parâmetros da Organização das Nações Unidas[3].
Em tais situações, o melhor que o moderador pode fazer é expulsar o agressor do ambiente, fazendo uso de privilégios que a função lhe permite. Andrew Bosworth, CTO da Meta, sugere que a empresa poderia moderar esses espaços utilizando uma versão mais rígida de suas regras de comunidade existentes, apostando em “um viés mais forte para a aplicação [das regras] ao longo de algum tipo de espectro de aviso, suspensões sucessivamente mais longas e em última análise, expulsão de espaços multiusuário”[4].
LGPD: mecanismos de moderação e privacidade
Para além da dificuldade de identificação dos usuários, na moderação de conteúdo do metaverso há o desafio de garantir a proteção à privacidade digital e dos dados pessoais dos usuários. Uma forma de monitorar e coibir condutas inadequadas seria por meio de gravação de áudios e/ou vídeos das interações em ambientes de metaverso. Com a gravação da movimentação no metaverso, os fatos poderiam ser apurados e providências poderiam ser tomadas a qualquer momento. No entanto, surge um impasse ao conciliar tal medida com os princípios norteadores das leis de proteção de dados, bem como de identificar qual seria a base legal mais adequada para o tratamento a partir da norma brasileira, a Lei Geral de Proteção de Dados[5].
Ademais, é um desafio identificar os agentes de tratamento nos sites e ambientes de metaverso, dada a utilização serviços de plataformas cloud em sua infraestrutura, como Amazon Web Services e Azure, que realizam tratamentos de dados dos usuários em diversas localidades do mundo. Assim, no mesmo imbróglio, acabam sendo unidos Estados que podem ou não ter uma legislação própria para o tratamento de dados pessoais. Chega-se a uma grande dificuldade em uniformizar e regulamentar uma política adequada em termos de internacionalização de dados, hipóteses de tratamento, autoridade fiscalizadora e eventuais penalidades. Em outras palavras, há um “inevitável atrito entre uma tecnologia global e a regulação local”[6]. Por ora, é recomendável que os mantenedores de sites e ambientes de metaverso estruturem seus espaços por meio do privacy by design, ou seja, tendo a proteção à privacidade e aos dados pessoais por padrão, como uma boa prática que pode ser considerada um mínimo denominador comum na tendência global de proteção de dados pessoais ao redor do mundo.
Liberdade de expressão
A Section 230 do Communications Decency Act (CDA), dos EUA, aprovada em 1996, guiou o desenvolvimento das grandes redes sociais e permitiu que elas se tornassem grandes plataformas de compartilhamento de informação. A norma estabelece que tais plataformas não podem ser vistas como responsáveis pelo conteúdo que terceiros compartilham em seus ambientes[7]. Desse modo, a Meta não pode ser responsabilizada por conteúdos discriminatórios veiculados por usuários do Facebook, por exemplo. Existem limitações à norma quanto a violações de direitos autorais e conteúdo pornográfico.
Essa norma possibilita que a dinâmica dos ambientes digitais se concretize, pois é com base nela que as empresas prestadoras de serviços digitais permitem que os usuários se expressem sem que haja uma moderação prévia do conteúdo postado. Caso as plataformas pudessem ser responsabilizadas, seria necessário que analisassem o conteúdo de cada post antes de sua divulgação para garantir sua proteção contra eventual responsabilização civil. Dado o volume de informação compartilhada a cada instante, a moderação prévia seria impraticável e o modelo de negócio das plataformas digitais seria inviabilizado[8].
No Brasil, o Marco Civil da Internet (MCI), de 2014[9], reproduz a lógica da Section 230 em seu artigo 19 ao estabelecer que a plataforma somente é obrigada a remover determinado conteúdo postado por terceiros a partir de determinação judicial. Esse modelo é chamado de “judicial notice and take down”, ou notificação judicial e retirada[10].
Nesse sentido, grandes questões, que já habitavam as discussões a respeito das redes sociais, agora também encontram lastro no metaverso. A primeira delas é: as plataformas digitais, afinal, deveriam ser responsabilizadas pelo conteúdo postado por terceiros? A Section 230 do CDA deveria ser revogada? Tanto o republicano Donald Trump, ex-presidente dos EUA, e o democrata Joe Biden, atual presidente dos EUA, já demonstraram interesse na revogação da norma[11].
A outra, que acompanha intrinsecamente a discussão sobre moderação de conteúdo, diz respeito à liberdade de expressão nas redes. Atualmente, ao mesmo tempo em que a desinformação e os discursos de ódio crescem nas plataformas digitais, exigindo maior controle de conteúdo, surgem mecanismos de cerceamento de liberdade de expressão dos usuários, pois a moderação de conteúdo toma a forma de censura[12]. Esse debate ganha profundidade no metaverso, pois sua dinâmica exige moderação em tempo real. Como equilibrar a preservação da integridade do conteúdo compartilhado com a ampla liberdade de expressão? É possível criar uma norma que seja aplicável de maneira uniforme a todos os espaços do metaverso? Trata-se de um dilema para o qual ainda não foram encontradas respostas definitivas.
Oportunidades
Moderação realizada por organizações sociais
Em julho de 2022, o Parlamento Europeu aprovou o Digital Services Act (DSA), ou Lei dos Serviços Digitais[13]. Juntamente com o Digital Markets Act (DMA), ou Lei dos Mercados Digitais[14], tal norma é voltada para a regulação do que comumente se chama de Big Techs, pois dispõe sobre very large online platforms (VLOPs), ou plataformas digitais muito grandes, em tradução livre.
O DSA estabelece, em sua consideração número 46, uma nova dinâmica de moderação de conteúdo nas VLOPs, conferindo a competência para moderar o conteúdo não a cidadãos, mas sim a entidades que demonstrem conhecimentos especializados para combater os conteúdos ilegais, que representem interesses coletivos e operem de forma diligente e objetiva. Em casos específicos, como os referentes a conteúdos terroristas, as entidades podem ser de natureza pública ou mista: de organizações não governamentais à Agência da União Europeia para a Cooperação Policial, passando pela rede INHOPE, que é uma associação que utiliza linhas diretas de telefone para facilitar a denúncia de pornografia infantil na internet e a cooperação entre diferentes provedores para remover e prevenir os conteúdos ilegais. Com isso, o legislador europeu busca aproveitar de maneira inteligente a interdependência entre Estados e demais agentes, estimulando soluções conjuntas, em um exercício de governança do ambiente digital. A norma entrará em vigor em 2024, a partir de quando será possível conferir de fato se as entidades acionadas conseguirão atender à alta demanda de moderação de conteúdo no ritmo esperado por plataformas e usuários.
Em um primeiro momento, o modelo pensado pelo DSA parece ser eficiente, além de aplicável ao metaverso. Pensar a criação de entidades da sociedade civil especializadas em moderação de conteúdo para fortalecer a moderação comunitária no ambiente do metaverso é um caminho a ser explorado.
Governança e participação a partir de DAOs
Uma organização autônoma descentralizada (DAO) consiste em um conjunto de pessoas hierarquicamente equivalentes que utiliza a tecnologia blockchain para tomar decisões, sem que haja um usuário ou subgrupo no papel de liderança[15]. No ambiente do metaverso, é possível implementar ferramentas do tipo, que permitem que sejam criados espaços deliberativos e decisórios com mecanismos simplificados de participação e governança.
Dessa forma, é possível empoderar toda a comunidade de determinado espaço no metaverso para que a moderação de conteúdo ocorra de maneira ampla, transparente e organizada. Embora as DAOs já possam ser percebidos, por exemplo, no Decentraland, existem problemas em sua utilização, como a limitação da escalabilidade e da integração com os usuários do metaverso[16]. Alguns pontos de preocupação podem ser elencados: os algoritmos incorporados em decisões autônomas, que deveriam ter um impacto pequeno, podem reverberar no metaverso geral; ademais, os algoritmos devem possuir código aberto e estruturas para auditoria devem ser disponibilizadas; e os sistemas das DAOs facilitam o processo participatório, mas não captam nuances dos posicionamentos dos usuários de maneira completa[17].
Por fim, nota-se também que, afinal, se as estruturas de governança são pensadas para coibir o comportamento inadequado dos usuários, é possível que as ferramentas das DAOs sejam utilizadas de maneira inadequada por esses mesmos usuários. Essa oportunidade, portanto, traz consigo um desafio: é preciso alcançar maneiras de garantir a integridade dos processos realizados pelas DAOs, como modelos de governança modular[18].
Sandbox filosófico: o usuário como demiurgo do metaverso
De acordo com Luciano Floridi, filósofo da informação italiano, a humanidade vive atualmente em um estado de hiperconexão tão profundo que não há mais uma divisão entre o online e o offline [19]. Nesse sentido, a realidade mistura de forma indissociável aquilo que é físico e o que é digital, e tornam-se tênues as fronteiras entre humano, máquina e natureza. Nessa nova realidade, que o filósofo chama de infosfera, passa-se de um cenário de escassez de informações para um de abundância de informações, e os objetos independentes tornam-se parte de processos e redes[19].
Essa constatação filosófica, embora seja pensada em um alto nível de abstração, é bem ilustrada pela ideia do metaverso. Na perspectiva floridiana, a vida humana não é mais somente permeada pelas tecnologias, visto que o próprio ser torna-se informação. As tecnologias de informação e comunicação, assim, juntamente com as pessoas, passam a ser habitantes e construtoras da infosfera[20]. No metaverso, isso é muito perceptível, pois a tecnologia não é um mero objeto, mas sim uma força social que modula a forma como os usuários se constroem, se percebem e interagem consigo mesmas, com outras pessoas e com a própria realidade. Ao mesmo tempo, o usuário também modela e orienta a tecnologia conforme suas vontades.
O metaverso, portanto, especialmente considerando sua moderação de conteúdo comunitária, é uma ilustração da filosofia da informação floridiana, servindo como base para testar, questionar e aprofundar os modelos propostos pelo filósofo. Floridi entende que, para que o ambiente da infosfera seja próspero, é preciso que o homem aja conforme seu papel de demiurgo da infosfera, buscando não somente seu próprio desenvolvimento enquanto sujeito, mas também de todo o ambiente em que está inserido, dentro de suas possibilidades de influência[21].
O exercício da moderação de conteúdo comunitária, assim, seria uma maneira de colocar em prática a premissa de que o ser humano é um agente informacional em um mundo igualmente informacional, devendo prezar pela manutenção harmoniosa e digna da informação que o compõe e o cerca. Assim como um sandbox regulatório, em que as normas são testadas em um cenário controlado, o metaverso pode ser apropriado pelos estudos de filosofia da informação para observar o comportamento dos usuários enquanto demiurgos da realidade virtual.
Referências
- ↑ Asa Briggs e Peter Burke. Uma história social da mídia: de Gutenberg à internet. 2016.
- ↑ Jessica Aparecida Soares. Oversight Board e a moderação de conteúdo por meio de decisões automatizadas. 2022. Disponível em: https://www.dtibr.com/_files/ugd/b53210_03c3d7650b7a4e658486f772117d6f1c.pdf
- ↑ Maria Mello, João Francisco de Aguiar Coelho, Thaís Rugolo e Alan Pessoa. A proteção de crianças e adolescentes no metaverso. Dezembro de 2022. Disponível em: https://itsrio.org/wp-content/uploads/2022/12/relatorio-diVerso_protecao-criancaadolescentes.pdf
- ↑ Techdirt. Masnick's Impossibility Theorem: Content Moderation At Scale Is Impossible To Do Well. 20 de Novembro de 2019. Disponível em: https://www.techdirt.com/2019/11/20/masnicks-impossibility-theorem-content-moderation-scale-is-impossible-to-do-well
- ↑ Brasil. Lei Geral de Proteção de Dados (Lei nº 13.709, de 14 de agosto de 2018). Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709compilado.htm
- ↑ Marina Estarque e João Victor Archegas. Redes sociais e moderação de conteúdo: Criando regras para o debate público a partir da esfera privada. 2021. Disponível em: https://itsrio.org/wp-content/uploads/2021/04/Relatorio_RedesSociaisModeracaoDeConteudo.pdf
- ↑ EUA. Section 230 of the Communications Decency Act. 1996. Disponível em: https://www.law.cornell.edu/uscode/text/47/230
- ↑ Anupam Chander. How Law made Sillicon Valley. 2013. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2340197
- ↑ Brasil. Marco Civil da Internet (Lei nº 12.965, de 23 de abril de 2014). Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm
- ↑ Gustavo Rodrigues. Liberdade de expressão, moderação de conteúdo e o PL das fake news. 06 de julho de 2020. Disponível em: https://irisbh.com.br/liberdade-de-expressao-moderacao-de-conteudo-e-o-pl-das-fake-news/
- ↑ Casey Newton. Everything you need to know about Section 230. 29 de dezembro de 2020. Disponível em: https://www.theverge.com/21273768/section-230-explained-internet-speech-law-definition-guide-free-moderation
- ↑ Artur Pericles Lima Monteiro, Francisco Brito Cruz, Juliana Fonteles da Silveira e Mariana G. Valente. Agosto de 2021. Disponível em: https://internetlab.org.br/wp-content/uploads/2021/09/internetlab_armadilhas-caminho-moderacao.pdf
- ↑ União Europeia. Digital Services Act. Proposal for a Regulation of the European Parliament and of the Council on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC. 05 de julho de 2022. Disponível em: https://eur-lex.europa.eu/legal-content/en/TXT/?uri=COM%3A2020%3A825%3AFIN
- ↑ União Europeia. Digital Markets Act. Proposal for a Regulation of the European Parliament and of the Council on contestable and fair markets in the digital sector European Parliament and of the Council. 05 de julho de 2022. Disponível em: https://eur-lex.europa.eu/legal-content/en/TXT/?uri=COM%3A2020%3A842%3AFIN
- ↑ Forbes Tech. O que é DAO? Conheça as organizações autônomas descentralizadas. 09 de março de 2022. Disponível em: https://forbes.com.br/forbes-tech/2022/03/o-que-e-dao-conheca-as-organizacoes-autonomas-descentralizadas/
- ↑ Decentraland. Decentraland DAO. Disponível em: https://dao.decentraland.org/en/
- ↑ Carlos Bermejo e Pan Hui. Life, the metaverse and everything: An overview of privacy, ethics, and governance in metaverse. Abril de 2022. Disponível em: https://www.researchgate.net/publication/359710984_Life_the_Metaverse_and_Everything_An_Overview_of_Privacy_Ethics_and_Governance_in_Metaverse
- ↑ Nathan Schneider, Primavera De Filippi, Seth Frey, Joshua Z. Tan e Amy X. Zhang. Modular politics: Toward a governance layer for online communities. Abril de 2021. Disponível em: https://dl.acm.org/doi/pdf/10.1145/3449090
- ↑ Luciano Floridi (Editor). The Onlife Manifesto: Being Human in a Hyperconnected Era. 2015.
- ↑ Luciano Floridi (Editor). The Cambridge Handbook of Information and Computer Ethics. 2010.
- ↑ Luciano Floridi. The fourth revolution: How the infosphere is reshaping human reality. 2014.