A inteligência artificial chegou.Não é preciso ser técnico para perceber que alguma coisa mudou.Hoje, um motor de busca já acerta nos nossos desejos antes de termos tempo de os dizer.Um algoritmo sugere um vídeo, outro mostra um produto, outro escreve um texto inteiro — e tudo parece funcionar com uma espécie de magia silenciosa.Mas será mesmo magia? O nosso convidado sabe que não. E sabe porquê.Bernardo Caldas é uma das pessoas mais lúcidas que conheço sobre o tema.Lidera equipas de dados e IA numa das maiores fintechs europeias, criou o projeto Data Science for Good, e tem pensado a fundo — com inteligência, mas também com alma — sobre os impactos reais da inteligência artificial no mundo onde vivemos. Nesta conversa, começamos com uma pergunta simples, mas provocadora:E se a IA te conhecesse tão bem como o teu melhor amigo?Assustador? Fascinante? Ambos? O Bernardo ajuda-nos a perceber porque é que esta tecnologia — que parece tão intuitiva — é, na verdade, o resultado de padrões.Padrões de linguagem, de comportamento, de atenção.A IA não “sabe”, não “sente”, não “pensa” no sentido humano — mas aprende a imitar tão bem que nós acreditamos. E o problema começa aí. Falamos do que distingue imitação de criatividade.Do que está por trás dos modelos generativos que escrevem, desenham e respondem com uma fluidez que nos desconcerta.E de como estes sistemas — criados para gerar conteúdo “credível” — não têm maneira de saber se estão a dizer a verdade.Podem escrever um disparate com toda a segurança de um professor catedrático. Mais à frente, mergulhamos na questão da responsabilidade.Se a máquina erra — quem responde?Se um algoritmo toma decisões médicas, jurídicas ou políticas — onde está o humano no processo? Discutimos o impacto da IA nas profissões: não só nos trabalhos manuais, mas nos intelectuais.Sim, programadores, consultores, copywriters, jornalistas — ninguém escapa.O Bernardo diz-nos que o trabalho que sobrevive é aquele onde há contexto, empatia e julgamento.Mas até os psicólogos estão em risco — e ele conta um estudo surpreendente que mostra como, em certos casos, as pessoas acham que um chatbot foi mais empático do que um terapeuta humano. Depois passamos para o tema que mais me inquieta:a economia da atenção.Porque é que os nossos feeds estão cheios de raiva, medo e teorias da conspiração?Porque é que a moderação desapareceu do radar? A resposta, segundo o Bernardo, está na forma como os algoritmos são treinados: não para informar, mas para prender.A verdade é irrelevante se a mentira for mais clicável.E isto coloca a democracia em risco real. A certa altura da conversa, ele diz uma coisa que me ficou: “O maior perigo da IA não é o apocalipse das máquinas.É deixarmos de acreditar em tudo.” É esta a verdadeira crise: a erosão da confiança pública.Não sabemos o que é real. Não sabemos em quem acreditar.E se não confiamos em nada — também não conseguimos decidir nada em comum.A democracia desliga-se. Mas nem tudo é distopia.O Bernardo também nos fala do lado esperançoso:De como a IA, se bem pensada, pode ser inclusiva.De como pode ajudar uma avó em Trás-os-Montes a resolver um problema complicado com linguagem natural.De como pode aliviar tarefas mecânicas e devolver-nos o que há de mais humano: a conversa, a atenção, o sentido. No fim, voltamos às emoções.Pode uma IA sentir? Ter consciência? Vontade própria?A resposta dele é clara: não.E, curiosamente, isso até nos pode dar algum descanso. Esta é uma conversa que não pretende fechar nada —mas que abre muitas janelas para pensar o que vem aí.E pensar, neste caso, é mesmo urgente. Se gostares, partilha este episódio com alguém que acha que inteligência artificial é só “coisa de engenheiros”.Ou com alguém que acha que já não há nada a fazer.Porque há.Mas temos de começar por perceber. LER A TRANSCRIÇÃO DO EPISÓDIO 0:12 Ora, vivam bem vindos ao pergunta simples, o vosso podcast sobre comunicação?
Exibir mais
Exibir menos