EP#57: Vício em Redes Sociais e Responsabilidade das Plataformas
Falha ao colocar no Carrinho.
Falha ao adicionar à Lista de Desejos.
Falha ao remover da Lista de Desejos
Falha ao adicionar à Biblioteca
Falha ao seguir podcast
Falha ao parar de seguir podcast
-
Narrado por:
-
De:
Sobre este título
Imagine que uma empresa fabrica um produto que sabe ser viciante. Que essa empresa possui estudos internos documentando os danos que causa. Que ela sabe que suas vítimas preferidas são crianças e adolescentes. Agora imagine que, por décadas, essa empresa argumenta com sucesso que não pode ser responsabilizada porque o problema é dos usuários, das famílias, da fraqueza humana — nunca do produto. Isso não é uma distopia futurista. Isso foi, até 25 de março de 2026, a realidade da indústria das redes sociais.
Nessa data, um júri popular da Corte Superior de Los Angeles, na Califórnia, fez algo que muitos consideravam improvável: condenou Meta e Google — as empresas que controlam Instagram, Facebook, WhatsApp e YouTube — por negligência no design de suas plataformas e pelos danos à saúde mental causados a adolescentes. A Meta foi condenada a pagar US$ 4,2 milhões (cerca de R$ 22 milhões) e o Google, US$ 1,8 milhão (cerca de R$ 9,4 milhões). Os valores, isoladamente, são modestos para gigantes que faturam centenas de bilhões por ano. Mas o sinal que o veredito emite é ensurdecedor.
Do ponto de vista jurídico, o que torna esse julgamento especialmente relevante é o ângulo escolhido pelos advogados da autora: eles não atacaram o conteúdo publicado nas plataformas — o que acionaria a imunidade prevista na Seção 230 da Lei de Decência nas Comunicações, o grande escudo legal das big techs nos Estados Unidos. Atacaram o design do produto. A arquitetura. O scroll infinito. As notificações compulsivas. O sistema de likes. O feed algorítmico que aprende o que prende você e te serve mais daquilo. Em outras palavras: não é o que está na vitrine, é a estrutura da loja que está sendo questionada. Essa distinção é crucial — e é exatamente o tipo de argumento que pode funcionar em jurisdições do mundo todo, incluindo o Brasil.
Há aqui uma dimensão filosófica que não podemos ignorar. Estamos diante de um modelo de negócio construído sobre a captura da atenção humana. A matéria-prima dessas empresas são as nossas emoções, as nossas inseguranças, o nosso tédio, a nossa solidão. O modelo funciona melhor quanto mais vulnerável é o usuário — e adolescentes, por definição, são o grupo mais vulnerável de todos, pois seus cérebros ainda estão em desenvolvimento, especialmente as regiões responsáveis pelo controle de impulsos e pela avaliação de consequências. O que chamamos de vício digital não é fraqueza moral. É a resposta neurológica previsível a sistemas projetados por especialistas em comportamento humano para maximizar o tempo de tela e, com ele, a receita publicitária. O dano não é acidental. O dano é o modelo.
A decisão de Los Angeles não encerra essa batalha. Ela marca o momento em que a Justiça começou a tratar como fato jurídico aquilo que milhões de famílias já percebiam na prática. As empresas têm donos, têm executivos, têm conselhos de administração. Os algoritmos têm designers, têm equipes de engajamento, têm métricas internas. Governos têm o dever de regular. Legisladores têm o poder de criar marcos. E nós, como sociedade, temos o direito de perguntar: que tipo de infância queremos garantir às próximas gerações? Que tipo de contrato social queremos estabelecer com as plataformas que dominam o nosso tempo, a nossa atenção e, cada vez mais, a nossa saúde mental?Essas e outras perguntas serão debatidas no episódio de hoje.