Este artigo é uma continuação.
O primeiro artigo pode ser lido aqui.
O segundo artigo pode ser lido aqui.
O terceiro artigo pode ser lido aqui.
Vimos no artigo anterior o impacto severo que as automações e a I.A. podem ter sobre o emprego. Então é chegada a hora de olharmos como elas impactam o outro lado das nossas vidas.
É inegável que, mesmo sem percebermos, nossas vidas vêm sendo moldadas pelas automações, e assim elas acabam guiando e até mesmo comandando nossas vidas.
Dos links que pesquisamos no Google, dos filmes que nos são sugeridos pela NetFlix, de quanto teremos que pagar por uma viagem pelo serviço do Uber, tudo passa por alguma I.A. que decide por nós.
Porém, quando nosso espectro de escolhas é decidido previamente, não é possível falar em livre escolha ou em livre arbítiro.
É de diversas situações que estas automações e I.A. podem causar sem a devida autorização humana e que interferem nas nossas vidas que trata este artigo.
Ele vai explorar desde falhas sistêmicas até mudanças no comportamento humano.
I – O Evento Flashcrash
Sob a bandeira da TED, Kevin Lavin proferiu a palestra “How algoritms shape our world” (“Como os algoritmos moldam nosso mundo”). Nesta palestra, ele diz, naquela época, que 70% de toda riqueza que troca de mãos nos EUA são feitas por ações totalmente automáticas, sem supervisão humana, e que ocorrem em milésimos de segundo.

É bom que se pense que estes sistemas operam há décadas com grande confiabilidade, situação hoje vital e sem substituto, porém ele esconde um potencial altamente destrutivo.
Ocorre que, no dia 6 de maio de 2010, o índice Dow Jones caiu quase 1000 pontos em cerca de 36 minutos, causando um prejuízo instantâneo da ordem de 9 bilhões de dólares.
A falha não foi exatamente causada por um bug do sistema.
Uma I.A. numa corretora tomou a decisão errada de vender certos títulos em grandes volumes em um curto intervalo de tempo.
Uma questão na programação destas automações é que, como as diversas I.A.s operantes no mercado trabalham muito com assimetria de informações (elas não sabem a totalidade das informações para tomar decisões, e o concorrente pode saber algo que elas não sabem), então boa parte do comportamento delas seria algo como “siga o líder” para minimizar perdas.
Quando aquela corretora começou a vender títulos em grande velocidade, outras I.A.s a seguiram, e quanto mais vendiam, mais os preços dos títulos despencava, realimentando as I.A.s para venderem ainda mais títulos que aparentemente não valiam mais nada.
O resultado foi catastrófico, e só parou quando desligaram manualmente os servidores.
Houve o prejuízo orçado em torno de 9 bilhões de dólares no final do evento, mas corrigido o problema e retomados os trabalhos, logo boa parte desse prejuízo foi recuperado.
Grande parte das causas da falha não pode ser creditada à I.A. da corretora que falhou. A maior responsável pela falha sistêmica estava no chamado “comportamento de manada”, que causou o efeito “estouro de boiada”.
O importante aqui é mostrar que um sistema pode operar durante anos sem apresentar uma falha, mas isso não significa que ela não exista. O fantasma de uma possível falha sistêmica é uma assombração real na cabeça dos especialistas em segurança.
Algumas falhas sistêmicas podem ser silenciosas.
Especialistas em direito do consumidor e economia alertam para o que eles chamam de “Colusão Tácita”.
Quando várias empresas usam a mesma I.A. (ou I.A.s treinadas com os mesmos dados) para definir preços, elas podem “aprender” que a melhor estratégia para todas é manter os preços elevados. Se uma I.A. decide subir o preço, as outras a seguem automaticamente para “maximizar o lucro”, causando um “estouro de boiada” artificial que inflaciona mercados inteiros, sem a menor interferência humana no processo.
No caso do Flashcrash, os prejuízos puderam ser em boa parte reparados pela própria dinâmica do mercado, mas o mesmo não pode ser dito de uma I.A. que pode abrir indevidamente as comportas de uma grande barragem, disparar um míssil nuclear ou mesmo a que controla os freios do seu carro.
Estas falhas podem ser sistêmicas, desde aquelas que causam danos pessoais a falhas sistêmicas dolorosamente imposta a toda uma sociedade.
II – O caso COMPAS – Justiça Algorítmica
O COMPAS era um sistema de I.A. criado para auxiliar juízes ao prever o risco de reincidência de réus. A empresa que criou o sistema, a Northpointe, usou milhares de processos judiciais, boletins de ocorrência e outros registros judiciais e policiais para treinar a I.A..
Este sistema foi usado por anos por juízes americanos com total confiança, decidindo sobre penas e direitos de liberdade de réus processados.
No entanto, um estudo da ProPublica mostrou o cenário kafkaniano criado pelo COMPAS. Foi feito um teste, onde foi criado um caso totalmente fictício padrão, mas com a variação de que os teóricos reus eram diferentes cidadãos de diferentes condições sociais, étnicas, religiosas, sexuais, etc.. O que se verificou é que o COMPAS reproduzia de forma altamente consistente preconceitos da sociedade.
Homens negros, que nunca tiveram qualquer problema legal, eram apontados como tendo alta possibilidade de reincidência, enquanto homens brancos com longa ficha criminal eram indicados com baixa propensão à reincidência. Havia toda uma escala de preconceitos: pior entre negros, hispânicos e orientais contra brancos, pior para mulheres que para homens e assim por diante.
Aqui, o importante é perceber que a melhor característica da I.A. de rede neural, a capacidade de reconhecimento de padrões, pode ser muito sutil. Não havia nada escrito nos documentos oferecidos à I.A. em seu treinamento que objetivamente apontasse para qualquer indicação aberta de preconceito, mas ela aprendeu a relacionar todo o cenário, que sutilmente está impregnado, e ela relacionou este padrão que posteriormente foi replicado em suas indicações de risco de reincidência.
Depois do caso divulgado foi feita uma auditoria e, graças a este erro sutil, muita gente que oferecia baixo risco de reincidência ficou presa indevidamente, enquanto muitos outros que deveriam ser presos foram libertados.
O caso mostra que a grande capacidade das I.A.s baseadas em redes neurais em perceber padrões pode não ser apenas uma boa característica. Esta capacidade também pode oferecer grandes riscos em sua utilização.
Também há muitos casos onde I.A.s de reconhecimento de face que se enganaram e causaram a prisão de inocentes, pela simples passagem deles por uma câmera monitorada.
Há diversos exemplos de como a I.A. pode interferir profundamente nas nossas vidas e até jogar nossa própria natureza natural contra nós mesmos, mas alguns levam a grandes discussões pouco produtivas, como religião e política, mas poucos exemplos são tão completamente explicáveis de forma tão completa e facilmente compreendidas quanto os modelos de preços dinâmicos.
III – A velha Precificação Diferenciada.
Precificação diferenciada não é uma coisa nova.
Um grande amigo, há muitos anos, era dono de um Ford Del Rey. Certa vez, ele precisava trocar a embreagem, mas já conhecia a malandragem. Ele entrou a pé na oficina e perguntou ao mecânico quanto ele cobrava para trocar a embreagem de um Ford Corcel, e recebeu um orçamento. Quando retornou à oficina com o carro, o mecânico quis discutir, dizendo que o orçamento para um Del Rey era bem mais caro.
Mecanicamente Corcel e Del Rey são idênticos, usando as mesmas peças e exigindo a mesma mão de obra. Tecnicamente, não existe motivo para a diferenciação de preços. A justificativa é que o preço tem base social: na época, o dono de um Del Rey, em média, tinha um poder aquisitivo maior que o dono de um Corcel, porque um era um modelo de luxo, enquanto o outro era um carro básico.
No fim, muito a contragosto, o mecânico aceitou fazer o serviço no Del Rey a preço de Corcel.
IV – O exemplo dos Marketplaces.
E se a moderna tecnologia pudesse mudar dinamicamente os preços, se ajustando de forma a fazer uma verdadeira “mineração de lucro”, precificando para cada pessoa individualmente dentro do que se sabe sobre essa pessoa?

Esta é a causa do dilema dos Marketplaces.
Um marketplace é um portal onde vários vendedores oferecem seus produtos, clientes pesquisam e fazem suas compras online, enquanto o marketplace faz a intermediação entre o pagamento e a entrega do produto.
Mas um marketplace possui dois grandes problemas aqui.
O primeiro problema é que, para um produto padrão há vários vendedores, e cada um com um preço. Se não existe diferença no produto, se o marketplace oferecer toda a lista de vendedores, os clientes comprarão sempre do vendedor mais barato, e isso acaba com a grande vantagem dele ser o centro de ofertas do resto dos vendedores.
O segundo problema se comunica com o primeiro e cria um viés de escolha, criando um conflito com o interesse dos próprios consumidores.
Como o marketplace é comissionado, ele tem interesse que o consumidor escolha os produtos mais caros. Este é seu modelo de negócio.
A resposta estes problemas está na precificação dinâmica.
Quando o consumidor pesquisa o produto que deseja, o marketplace não apresenta a totalidade dos vendedores, mas apenas uma seleção deles. De um lado, esta seleção permite que todos os vendedores tenham teoricamente as mesmas chances de serem vistos e escolhidos. Do outro, com o conhecimento que o marketplace tem das pesquisas e compras feitas no próprio portal, ele sabe se um determinado consumidor (identificado ao entrar no site) tem um perfil mais perdulário, será mostrado a ele uma seleção de ofertas mais caras do que a mostrada para um consumidor de hábitos mais restritivos com gastos.
Este é o princípio básico de todo marketplace.
Um problema da precificação dinâmica é que, quando percebida, leva o consumidor à desconfiança, e por isso há uma série de truques usados pra disfarçar a técnica.
Um deles é deixar um registro no navegador (os chamados “cookies”), que geram uma informação de que aquela máquina foi usada para uma determinada pesquisa por uma determinada pessoa. Se uma pessoa de perfil de maior preço fizer uma pesquisa, e logo em seguida outra pessoa de perfil de menor preço fizer a mesma tentativa, o marketplace exibirá uma seleção de preços compatíveis com a da primeira tentativa.
Outro filtro é o do endereço IP. Mesmo em máquinas separadas, se a mesma pesquisa for feita no mesmo endereço IP, gerando o mesmo resultado que o anterior.
O truque não dá certo entre consumidores de perfis diferentes em locais diferentes e usando máquinas diferentes.
Pessoalmente, tenho uma prima que sempre me pede o link para certos produtos que ela deseja, porque considera que os preços no marketplace estão caros. Eu, que tenho um perfil bem mais conservador, sempre consigo preços melhores que os dela logo na primeira pesquisa (estando cada um na sua casa), e mando o link para ela via comunicador instantâneo.
A estratégia do marketplace é usar a linha de pesquisa. É ela quem dispara a I.A. que irá selecionar as ofertas a serem apresentadas. Essa é sua vantagem oculta, mas também seu “Calcanhar de Aquiles”.
Com isto em mente, há ainda um outro truque, que pode conseguir bons descontos.
Quando é um produto caro, onde as diferenças de preço podem ser significativas, nunca pesquiso diretamente na linha de pesquisa do Marketplace. No lugar dele, pesquiso num buscador com a expressão do tipo “Marketplace Produto X”.
O truque é que, em primeiro lugar, o marketplace reconhece que a requisição vem de um buscador, sem o consumidor ser identificado num primeiro instante, o que burla o filtro da I.A.. Depois, o marketplace leva em consideração que uma pesquisa feita fora do site mostra que estou buscando o “Produto X” de forma genérica, podendo ir facilmente para a concorrência de outra loja ou marketplace. A forma de tentar não perder o cliente é oferecendo a melhor oferta possível. Assim consigo muitas vezes descontos que não conseguiria pesquisando pelo mecanismo orgânico do marketplace.
Ano passado, minha afilhada se casou e eu precisava dar um bom presente de casamento. Eu e minha prima, tia da moça, começamos a pesquisar cedo. Entre as pesquisas dela, minhas e feitas pelo buscador, conseguimos descontos significativos com estas técnicas.
V – O Juiz e o Dedo-duro
O exemplo do marketplace é ainda um tanto quanto “engessado”, pois o preço das ofertas ainda é fixa para a maioria dos vendedores.
Mas, e se cada oferta pudesse também possuir a capacidade de flutuar dinamicamente seus preços? Não apenas o marketplace poderia lucrar mais, como os próprios vendedores poderiam lucrar com preços dinâmicos.
Não só esta é uma ideia muito atrativa, como existe a oferta de “robôs” de precificação dinâmica oferecidos como serviço para vendedores nos marketplaces e com a anuência dos próprios portais.
Porém as tecnologias estão muito mais avançadas e vão muito além dos mecanismos dos markeplaces. Há tecnologias muito refinadas no setor de supermercados, por exemplo.
Imagine que um supermercado consiga identificar um consumidor assim que ele entra no estacionamento, e possa acompanhá-lo passo a passo. Sabendo seus hábitos de consumo, seria possível para o supermercado precificar dinamicamente seus preços, mesmo sendo uma loja física.

Uma das primeiras idéias neste sentido surgiu com um experimento em 2012, com cientistas de dados da Orbitz (uma agência de viagens online na época). Eles observaram um padrão estatístico curiosamente consistente: usuários que acessavam o site através de computadores Mac gastavam, em média, 30% a mais em diárias de hotel que usuários com PC’s/Windows.
Logo surgiu a lógica de “mineração de lucro”. Se o usuário estivesse usando um Mac, a curadoria de ofertas seria outra:
- A lista de resultados priorizava hotéis de 4 ou 5 estrelas no topo da página;
- As ofertas mais baratas não desapareciam, mas eram empurradas para a segunda ou terceira página, aproveitando-se da pressa e da conveniência do usuário;
- A Orbitz descobriu que usuários de Mac tinham 40% mais chances de reservar hotéis de luxo.
Assim, logo se verificou que o próprio equipamento do usuário servia como “dedo-duro” para a I.A., que por sua vez atuava como “juiz” e decretava sua “sentença” emitindo uma lista de pesquisa fortemente tendenciosa para os interesses do site e não do consumidor. O crime? Ser o consumidor quem ele realmente é.
Atualmente esta tecnologia está bastante avançada, e conta com um “dedo-duro” muito mais companheiro e fiel: o smartphone.
A oportunidade para esta tecnologia é que praticamente ninguém desliga as funções de WiFi e Bluetooth do seu aparelho. Roteadores e outros tipos de dispositivo podem emitir sinais que levem os modens de WiFi e Bluetooth dos celulares a responder, e com eles, são emitidos o chamado “MAC Address”, um número que identifica aquele aparelho individualmente no mundo inteiro. É o que se chama de ”Vigilância de Proximidade Ativa”.
Um passo à frente, empresas como Qualcomm já desenvolveram tecnologias e produtos que permitem acompanhar a movimentação de centenas de usuários portando smartphones dentro das lojas físicas, com precisão de centímetros. Entre estas tecnologias, há tarjetas inteligentes com telas de e-paper que podem ser mudadas dinamicamente, de tal sorte que pode apresentar o preço dinâmico do produto assim que o consumidor se aproxima da prateleira.
Outras tecnologias, como as desenvolvidas pela Microsoft, medem as velocidades das mãos movimentando os produtos nas prateleiras, medindo a urgência com que o produto é manipulado. Se os movimentos são lentos e longamente pensados, um produto pode até ter seu preço diminuído para garantir a venda, mas se os movimentos forem rápidos, demonstram pressa, e o preço é ajustado para cheio ou até com algum sobre-preço.
Estas tecnologias estão no âmago da estratégia de “smart retail” (“varejo Inteligente”), que ainda não apareceu em larga escala no país, mas já é bastante usada no exterior.
V – A Assimetria “De Um para Muitos”
A soma destas tecnologias colocam cada indivíduo num mundo de realidade muito particular.
– “O preço do Produto X é $100 ou $130? Depende. É referente a Fulano ou a Ciclano?”.
Isso molda a realidade de cada um na medida em que a realidade para cada um depende da visão de mundo que cada um possui.

Isso é muito mais crítico do que se possa pensar.
A questão do preço dinâmico é apenas um exemplo do tipo de interferência que cada um pode sofrer. Cada um pode sofrer interferências em suas preferências políticas, econômicas, sociais e religiosas. E pode piorar bastante quando as coisas se misturam.
Não podemos esquecer do esqueleto no armário de empresas como a IBM, que forneceu ao governo nacional-socialista tecnologias que permitiram encontrar judeus através de dados.
Pessoas podem não só pagar mais caro, mas podem ser privadas de seus direitos pela negação a serviços públicos e particulares simplesmente por aquilo que são e pensam, sem que haja a menor transparência de como este processo é feito.
A estrutura tecnológica dos marketplaces e supermercados que aqui discutimos possuem uma arquitetura em comum. Elas utilizam agentes de I.A. altamente ativos e reativos, enquanto centenas ou milhares de consumidores agem de forma passiva diante desta manipulação de realidade. É a arquitetura que chamamos de “De Um Para Muitos”.
Isto detém muito poder nas mãos de poucos, e o processo de manipulação da realidade do consumidor é muito pouco transparente.
O mais estranho é que a estrutura “De Um Para Muitos” é uma estrutura em árvore.
Existe a relação de “De Um Para Muitos” entre o consumidor e a loja da rede de supermercados. Existe outra relação entre as lojas e a matriz do supermercado. Outra relação ocorre entre as várias matrizes de supermercados e os fornecedores desta tecnologia no país. Na raiz desta árvore existem poucos fornecedores que concentram grande poder de manipulação.
Esta assimetria do poder computacional pode gerar um oligopólio cognitivo. Não apenas pessoas podem sofrer este tipo de impacto, como até empresas podem fechar as portas por mera manipulação dos dados simplesmente porque desagradam uma pequena minoria que detém o controle centralizado da I.A..
Este é um clássico quadro kafkaniano por excelência.
Pessoas, entidades, grupos étnicos e religiosos podem ser lentamente sufocados sem que tenham a menor ideia do porquê foram “denunciados”, “processados”, “julgados” e penalizados.
Mesmo diante da lei, existe o potencial de causar prejuízos e injustiças contra as pessoas e ainda assim seus causadores podem passar incólumes porque suas ações não deixam provas.
Este é o grande poder do “um para todos”.
Jornais e emissoras de rádio e TV são concessões públicas justamente por este motivo, e há responsáveis que podem ser processados criminalmente pelo abuso deste poder. Então precisamos pensar em como este poder pode ser exercido por aqueles que detém o poder sobre a I.A.. É preciso haver transparência, regulação e fiscalização no uso da I.A. em larga escala para que não se cometam excessos eventuais e abusos intencionais.
VI – O lado “B” do “De Um para Muitos”
Quando poucos é quem detém os mecanismos de I.A., esta pode ser a causa de assimetrias que se mostram vantajosas num primeiro instante, mas problemáticas para a instabilidade sistêmica no médio e longo prazo.
Numa espécie de “corrida armamentista computacional”, quando uma entidade, que pode ser um mero supermercado ou até uma grande “big tech”, implementa um mecanismo tecnológico como é a I.A., que lhe oferece uma vantagem competitiva sobre seus concorrentes, há o estímulo para que cada concorrente se esforce para obter recurso semelhante que iguale ou ultrapasse a vantagem do primeiro. Foi assim com a tecnologia da bomba atômica e estamos vendo se repetir com a I.A..
A questão é que, quando todos os principais concorrentes tiverem recursos semelhantes, o equilíbrio entre eles é restaurado, mas assim como a corrida nuclear durante a Guerra Fria criou uma paz tensa sobre toda população mundial, a corrida pela tecnologia mais avançada da I.A. pelos grandes concorrentes terá, em algum momento, um equilíbrio onde todos são tão equipotentes entre si quanto eram antes do início dessa corrida, porém com um consumo de recursos imensamente maior. E nós, consumidores, pagaremos essa conta sem que possamos usufruir proporcionalmente ao custo de manter essa “paz tensa” entre concorrentes. E esta “paz tensa” trará desgastes.
A concorrência acirrada entre I.A.s trará uma busca de maximizar lucros sobre o cidadão e consumidor, e este até poderá não reagir ao abuso, quer seja por ignorância e/ou por tolerância, mas ao longo do tempo o abuso constante tende a causar esgotamentos e fadiga social, que, em algum instante, afetará os próprios concorrentes de I.A..
Este mecanismo de desgaste é outra manifestação do Dilema dos Comuns, e mostra-se prejudicial aos próprios detentores das I.A.s.
VI – O lado humano da relação com a I.A.
O lado humano da nossa relação com a I.A. também merece preocupação.
Arquimedes certa vez disse:
– Dá-me um ponto de apoio e levantarei o mundo!

O computador, originalmente, foi concebido como uma ferramenta que daria enorme poder adicional para a mente humana, permitindo que a humanidade tivesse um alcance além das suas limitações físicas, assim como a alavanca de Arquimedes.
No entanto, nosso cérebro, dentro de suas limitações, tende a economizar esforços e pode se tornar “preguiçoso”. Muitas pessoas deixam de se preocupar e pensar na medida em que o computador assume certas funções. O que a máquina fizer está correto para estas pessoas, e elas não questionam o que a máquina faz.
Isto pode ter um impacto severo na saúde mental das pessoas.
Há dados estatísticos mostrando uma desaceleração no crescimento do índice de Q.I. (“Quociente de Inteligência”) da população por todo mundo, tendo caído pela primeira vez ao medir o Q.I. da atual geração mais nova, assim como estudos que apontam uma redução significativa dos níveis de atenção sustentada.
Tanto o Q.I. como o nível de atenção possuem forte relação com a inteligência e a capacidade cognitiva. Pensamentos e processo cognitivos profundos surgem após grandes esforços do cérebro e isto demora um significativo tempo para se formar. Se tanto o Q.I. quanto o nível de atenção vem caindo na população, há um forte indício da perda da capacidade intelectual e cognitiva da população, e se estas capacidades se mostrarem rasas, e as pessoas apresentem um processamento cognitivo cada vez mais superficial, poderão seguir cegamente o que lhes é comandado, incluindo comandos vindos de uma I.A..
Embora ainda não haja pesquisas científicas sérias que criem a relação de causa e efeito, há muitos sinais de que a computação e a I.A. podem estar afetando a capacidade cerebral de boa parte da população.
A população tem mostrado cada vez menos capacidade de interpretação de textos, não conseguindo até mesmo ler textos um pouco mais longos. Isto disparou todo um processo que vem dado vários passos:
- Muitas pessoas passaram a se informar pelo título das matérias jornalísticas, e se achando suficientemente informadas a partir desta fonte;
- Muitos textos foram substituídos por emojis, num evidente retrocesso de uma comunicação escrita para uma linguagem pictórica como a usada pelos povos das cavernas;
- Progressiva substituição dos textos, por menores que sejam, por vídeos;
- E mesmo entre vídeos, o sucesso cada vez maior dos vídeos curtos em diversas plataformas em detrimento dos vídeos mais longos.
Tudo isso aponta para uma redução progressiva do esforço cognitivo da população.
Outra alta correlação foi demonstrada pela ciência.
Pesquisadores descobriram pessoas com altas capacidades intelectuais e cognitivas normalmente apreciam músicas com riqueza sonora e arranjos complexos, muitas vezes com 2 ou mais melodias sobrepostas, vocais em perfeita consonância com a melodia, etc.. Estes estudos sugerem uma grande correlação entre uma preferência por estruturas musicais mais complexas e maior engajamento cognitivo.
Então comparamos a riqueza harmônica das músicas dos anos 1970 e 1980 com as atuais. A correlação entre estilos musicais ao longo dos anos e a relação mostrada pela ciência fica evidente.
Não há ainda provas científicas de que se trata de uma relação de causa e efeito, mas a altíssima correlação entre estas observações podem indicar um sintoma bem pessimista sobre este quadro.
O exercício mental está para o cérebro assim como o esforço físico está para os músculos. Um cérebro que não é exercitado desde a mais tenra idade será incapaz de pensamentos profundos. Um cérebro adulto que não se exercita com pensamentos profundos e grandes análises cognitivas é um cérebro que perde progressivamente o seu poder.
Grandes executivos do Vale do Silício, na Califórnia, se juntaram para criar escolas para seus filhos, onde qualquer interação entre crianças e computadores é terminantemente proibida. Esta decisão, vinda justamente de quem mais cria tecnologias para computadores, levanta questionamentos interessantes sobre os efeitos do uso precoce da tecnologia.
Quando juntamos esta perda de capacidade intelectual com a ascensão da I.A., com a progressiva substituição do pensamento humano pelo pensamento “frio” da máquina, teremos um cenário para a evolução humana cada vez mais árido de resultados, e um grande empobrecimento geral da capacidade intelectual da humanidade, justamente quando deveríamos estar em franco crescimento.
Ao invés de evolução, teremos involução.
VII – Conclusão final
Chegamos ao fim desta sequência de matérias.
Tivemos uma noção filosófica do que é a I.A., de como ela pensa, de como ela pode ser produtiva, como ela pode impactar os empregos e as vidas das pessoas.
Embora a soma destes artigos pareça possuir um tom pessimista, na verdade a opinião do autor é bastante otimista com relação à I.A..
A questão é que tudo possui vantagens e desvantagens, mas como há grandes interesses comerciais por trás destas iniciativas, só são mostrados os aspectos francamente positivos do uso da I.A., e é preciso falar dos lados não tão favoráveis desta tecnologia.
Ainda assim, estes textos não são negativistas ou pessimistas. Seu foco sempre foi o de alertar para os riscos desta tecnologia para que certas situações não saiam de controle.
Entendam que a I.A. não controla nossas vidas diretamente, mas ela molda o nosso espaço de decisões, e isso nos dá a ilusão do exercício do livre arbítrio, quando na verdade ele é guiado.
Reafirmo que nenhuma tecnologia é boa ou ruim. Toda tecnologia é neutra.
O que a torna boa ou ruim é o uso que fazemos fazemos dela.
E, como qualquer tecnologia, ela possui vantagens e desvantagens. As vantagens existem para usufruirmos com moderação,m enquanto as desvantagens cabe a nós percebermos e mantê-las sob controle. Só assim a I.A. será uma tecnologia onde todos ganharemos.
VIII – Epílogo — Sobre máquinas, decisões e responsabilidade
Ao longo desta série, percorremos um caminho que começou na curiosidade e terminou na consequência.
Falamos sobre o que a inteligência artificial é capaz de fazer.
Sobre como ela já está inserida em sistemas críticos.
Sobre seu impacto no trabalho, nos mercados e, por fim, na forma como tomamos decisões.
Mas talvez o ponto mais importante não esteja em nenhuma dessas partes isoladamente.
Ele está na interação entre elas.
A inteligência artificial não surgiu para substituir o ser humano de forma direta.
Ela surgiu como ferramenta — uma extensão da nossa capacidade de calcular, prever e decidir.
Como a alavanca de Arquimedes, ela deveria amplificar nossa força, não substituí-la.
E, de fato, durante muito tempo foi exatamente isso que aconteceu.
Mas, como vimos, há uma transição em curso.
Sistemas que inicialmente ampliavam a capacidade humana passaram, gradualmente, a assumir partes do processo decisório.
Primeiro em tarefas repetitivas.
Depois em contextos complexos.
E, agora, em aspectos cada vez mais cotidianos da vida.
Hoje, não apenas utilizamos sistemas inteligentes.
Vivemos dentro de ambientes moldados por eles.
Eles definem o que vemos.
Influenciam o que escolhemos.
Antecipam o que provavelmente faremos.
E fazem isso de forma eficiente, silenciosa e contínua.
Ao mesmo tempo, o próprio ambiente em que estamos inseridos mudou.
A abundância de informação, a fragmentação da atenção e a redução do esforço necessário para decidir criaram um cenário onde o pensamento profundo se torna mais raro — não por incapacidade, mas por falta de necessidade imediata.
E é aqui que os dois movimentos se encontram.
De um lado, sistemas cada vez mais capazes de estruturar decisões.
De outro, indivíduos cada vez menos exigidos em sua capacidade de estruturá-las.
O resultado não é uma ruptura.
É um acoplamento.
Um ciclo em que:
a automação reduz o esforço
a redução de esforço diminui a prática
a menor prática reduz a capacidade
e a capacidade reduzida aumenta a dependência da automação
Esse ciclo não elimina o livre arbítrio.
Mas redefine suas condições de operação.
Escolher continua sendo possível.
Mas as escolhas passam a ocorrer dentro de um espaço progressivamente estruturado.
E, mais importante, com uma capacidade cada vez menor de explorar esse espaço em profundidade.
A questão, portanto, não é se as máquinas vão decidir por nós.
Essa é uma simplificação.
A questão real é outra:
até que ponto continuaremos dispostos — e capazes — de decidir por conta própria.
A tecnologia não tem intenção.
Não tem vontade.
Não tem objetivo próprio.
Mas os sistemas que construímos operam com objetivos claros.
E, cada vez mais, esses sistemas aprendem a otimizar resultados a partir do comportamento humano.
Nesse contexto, responsabilidade deixa de ser apenas uma questão técnica.
Ela passa a ser uma questão de postura.
Questionar resultados.
Entender processos.
Manter a capacidade de análise.
Resistir à delegação automática.
Nada disso impede o avanço tecnológico.
Mas define o papel que teremos dentro dele.
A inteligência artificial continuará evoluindo.
Isso é inevitável.
A única variável em aberto é outra:
qual será o papel do ser humano nesse sistema.
Se continuarmos tratando a tecnologia como ferramenta, ela continuará sendo uma extensão da nossa capacidade.
Mas, se abrirmos mão do esforço de pensar, decidir e questionar, ela deixará de ser uma alavanca — e passará a ser um substituto.
E substitutos, por definição, ocupam o lugar de quem deixa de atuar.
No fim, talvez a questão não seja tecnológica.
Seja, simplesmente, humana.
AAD




