Como a tecnologia sequestra a mente das pessoas

“É mais fácil enganar as pessoas do que convencê-las de que estão sendo enganadas.”

Tempo estimado de leitura: 12 minutos.

Sou um especialista em como a tecnologia explora nossas vulnerabilidades psicológicas. E é por isso que passei os últimos três anos como um especialista em ética de design do Google me preocupando em como projetar as coisas de uma maneira que não permita que as mentes de bilhões de pessoas sejam sequestradas.

Ao usar tecnologia, frequentemente focamos positivamente em todas as coisas que ela faz por nós. Mas quero mostrar onde ela talvez faça o contrário.

Onde a tecnologia explora as fraquezas das pessoas?

Aprendi a pensar dessa maneira quando eu era mágico. Mágicos começam procurando pontos cegos, vulnerabilidades e limites da percepção das pessoas, para que assim possam influenciar as ações delas sem que elas percebam. Uma vez que você aprende a apertar os botões certos, pode controlá-las facilmente.

Este sou eu performando um truque de mão na festa de aniversário da minha mãe.

E isso é exatamente o que designers de produtos fazem com sua mente. Eles usam suas vulnerabilidades psicológicas (consciente e inconscientemente) contra você na corrida para chamar sua atenção.

Quero mostrar para vocês como eles fazem isso.

Sequestro #1: Se você controla o menu, você controla as escolhas

Menu: Ótima Escolha #1, Ótima Escolha #2, Ótima Escolha #3. O que não está no menu?  

A cultura ocidental é construída em torno de ideais de escolha individual e liberdade. Milhões de nós defendem ferozmente nosso direito de escolher “livremente”, enquanto ignoramos como essas escolhas são manipuladas previamente por menus que nem escolhemos em primeiro lugar.

Isso é exatamente o que mágicos fazem. Eles dão a impressão de livre escolha para as pessoas enquanto arquitetam o menu para que possam ganhar, não importa o que escolherem. Não posso enfatizar o suficiente o quão profunda é essa ideia.

Quando dão um menu de opções para as pessoas, elas raramente perguntam:

  • “o que não está no menu?”

  • “por que estão me dando essas opções e não outras?”

  • “eu sei os objetivos do provedor do menu?”

  • “esse menu está focado na minha necessidade original, ou as opções são apenas uma distração?” (e.g. uma quantidade absurda de opções de pasta de dente)

O quão “empoderador’ é esse menu de opções para a necessidade “acabou minha pasta de dente”?

Por exemplo, imagine que você saiu com seus amigos numa terça à noite e quer manter a conversa rolando. Você abre o Yelp para achar recomendações ao redor e vê uma lista de bares. O grupo se torna um agrupamento de rostos abaixadas, olhando para o celulares e comparando bares. Eles analisam as fotos de cada, comparando coquetéis. Esse menu ainda é relevante para o desejo original do grupo?

Não é que bares não sejam uma boa opção, é que o Yelp substituiu a pergunta original do grupo (“onde podemos ir para continuar conversando”) com uma pergunta diferente (“qual é o bar com boas fotos de coquetéis”) só por formatar o menu.

Além disso, o grupo acredita na ilusão de que o menu do Yelp representa uma gama completa de opções para onde ir. Enquanto olham para os celulares, não veem o parque mais adiante na rua com uma banda tocando música ao vivo. Perdem uma galeria temporária do outro lado da rua servindo crepes e café. Nenhum deles aparecem no menu do Yelp.

Yelp reconfigura sutilmente a necessidade do grupo “onde podemos ir para continuar conversando?” com fotos de opções de coquetéis.

Quanto mais opções a tecnologia nos dá em quase todas as esferas das nossas vidas (informação, eventos, lugares para ir, amigos, encontros, trabalhos), mais nós assumimos que o nosso celular é sempre o menu mais completo e útil para nossas escolhas. Será?

O menu “mais empoderador” é diferente do menu que tem o maior número de opções. Mas quando nos rendemos cegamente aos menus que nos são dados, é fácil não se dar conta da diferença.

  • “Quem está livre para sair esta noite?” se torna um menu das pessoas mais recentes com quem trocamos mensagens (que podemos chamar).

  • “O que está acontecendo no mundo?” se torna um menu de histórias do feed de notícias.

  • “Quem está solteiro para ir a um encontro?” se torna um menu de rostos para passar no Tinder (no lugar de eventos locais com amigos, ou aventuras urbanas próximas).

  • “Preciso responder esse email.” se torna um menu de teclas para digitar uma resposta (no lugar de jeitos mais completos de se comunicar com uma pessoa)

Todas as interfaces de usuário são menus. E se seu cliente do email desse melhores opções de jeitos de responder, ao invés de “que mensagem você quer digitar de volta?” (Design por Tristan Harris).

Quando acordamos de manhã e pegamos o celular para ver uma lista de notificações, isso molda a experiência de “acordar de manhã” em torno de um menu de “todas as coisas que perdi desde ontem”. (para mais exemplos, veja a palestra sobre design emponderador de Joe Edelman)

Uma lista de notificações quando acordamos – o quão emponderador é o menu de opções quando acordamos? Ele reflete com o que nos importamos? (da palestra sobre design emponderador de Joe Edelman).

Ao moldar os menus da onde escolhemos, a tecnologia sequestra a maneira que identificamos nossas opções e as substitui com novas. Mas quanto mais prestamos atenção nas opções que nos são dadas, mais iremos notar quando elas não estão exatamente alinhadas às nossas necessidades reais.

Sequestro #2: Coloque um caça-níqueis em um bilhão de bolsos

Se você é um aplicativo, como você mantém as pessoas viciadas? Você se transforma em um caça-níqueis.

Uma pessoa comum checa seu celular 150 vezes por dia. Por que fazemos isso? Estamos fazendo 15o escolhas conscientes?

Quantas vezes você checa seu email por dia?

Uma das principais razões é o #1 fator psicológico de caças-níqueis: recompensas variáveis intermitentes.

Se você quer maximizar o potencial de dependência, só o que os designers de tecnologia precisam fazer é linkar a ação do usuário (como puxar uma alavanca) com uma recompensa variável. Você puxa a alavanca e imediatamente recebe ou uma recompensa atrativa (um match, um prêmio!) ou nada. O potencial de dependência é maximizado quando o percentual de recompensa é mais variável.

Esse efeito realmente funciona nas pessoas? Sim. Caças-níqueis fazem mais dinheiro nos Estados Unidos do que o baseball, filmes e parques de diversões juntos. Em relação a outros modos de aposta, as pessoas ficam “envolvidas problematicamente” de 3 a 4 vezes mais rápido com caça-níqueis de acordo com a professora da NYU Natasha Dow Schull, autora de Addiction by Design.

Mas aqui está a triste verdade: várias bilhões de pessoas tem um caça-níquel no bolso.

  • Quando tiramos o celular do bolso, estamos jogando um caça-níquel para ver quais notificações ganhamos.

  • Quando atualizamos a caixa de entrada, estamos jogando um caça-níquel para ver qual novo email ganhamos.

  • Quando deslizamos nosso dedo para rolar o feed do Instagram, estamos jogando um caça-níquel para ver qual será a próxima foto.

  • Quando deslizamos rostos para esquerda ou direita em aplicativos de encontros como o Tinder, estamos jogando um caça-níquel para ver se conseguimos um match.

  • Quando clicamos no # de notificações vermelhas, estamos jogando um caça-níquel para ver o que está por baixo.

“Jogue como um caça-níquel para ver ‘quantos likes eu recebi”.

Aplicativos e sites borrifam recompensas variáveis intermitentes por todos os seus produtos porque é bom para os negócios.

Mas em outros casos, caças-níqueis surgem por acidente. Por exemplo, não existe uma corporação maquiavélica por trás de todos os emails que escolhe torná-los conscientemente em um caça-níqueis. Ninguém lucra quando milhões checam o email e não há nada. Os designers da Apple e do Google também não querem que os celulares funcionem como caças-níqueis. Acontece por acidente.

Mas agora empresas como a Apple e o Google têm a responsabilidade de reduzir esses efeitos tornando recompensas variáveis intermitentes menos viciantes, mais previsíveis com um design melhor. Por exemplo, elas podem ajudar as pessoas a definir horários previsíveis do dia ou da semana para checar os aplicativos “caças-níqueis” e ajustar correspondentemente quando novas mensagens são recebidas, alinhando com esses horários.

Sequestro #3: Medo de Estar Perdendo Algo Importante (FOMO, em inglês)

Outra maneira que aplicativos e sites controlam a mente das pessoas é ao induzir a “1% de chance de você estar perdendo algo importante”.

Se eu consigo te convencer de que sou um canal de informações importantes, mensagens, amizades, ou potenciais oportunidades sexuais – vai ser difícil você me desligar ou excluir sua conta – porque (aha, eu ganhei) você talvez perca algo importante:

  • Isso nos mantêm inscritos em newsletters mesmo quando elas não ofereceram nenhuma vantangem recente (“e se eu perder um anúncio futuro?”)

  • Isso nos mantêm “amigos” de pessoas com quem não falamos há décadas (“e se eu perder algo importante sobre eles?”)

  • Isso nos mantêm passando rostos nos aplicativos de encontros, mesmo quando não nos encontramos com ninguém faz tempo (“e se eu perder aquele match quente que goste de mim?”)

  • Isso nos mantêm usando mídias sociais (“e se eu perder aquela história importante ou não conseguir acompanhar o que os meus amigos estão falando?”)

Mas se nos aproximarmos desse medo, descobriremos que está fora do nosso controle: sempre perderemos algo importante em qualquer momento que deixamos de usar algo.

  • Haverá momentos mágicos no Facebook que iremos perder ao não usá-lo pela sexta hora (e.g. um amigo antigo que está visitando a cidade neste momento).

  • Haverá momentos mágicos que iremos perder no Tinder (e.g. nosso parceiro romântico dos sonhos) ao não deslizar para o nosso 700º match.

  • Haverá chamadas de emergência que iremos perder se não estivermos conectados 24\7.

Mas viver momento a momento com o medo de estarmos perdendo algo não é como fomos preparados para viver.

E é impressionante o quão rapidamente, uma vez que abrimos mão desse medo, acordamos dessa ilusão. Quando nos desconectamos por um dia, cancelamos as notificações ou vamos para o Camp Grounded – as preocupações que pensávamos ter na verdade não acontecem.

Não perdemos o que não vemos.

O pensamento “e se eu perder algo importante?” é gerado na antecipação de desconectar, cancelar a assinatura ou desligar – não depois. Imagine se companhias de tecnologia reconhecessem isso e nos ajudassem proativamente a regular nossos relacionamentos com amigos e negócios em relação ao que definirmos como “tempo bem gasto” em nossas vidas, ao invés do que podemos perder.

Sequestro #4: Aprovação social

Facilmente uma das coisas mais atrativas que o ser humano pode receber.

Somos todos vulneráveis em relação à aprovação social. A necessidade de pertencer, de ser aprovado ou apreciado por nossos iguais está entre uma das maiores motivações humanas. Mas agora nossa aprovação social está nas mãos das empresas de tecnologia.

Quando sou marcado pelo meu amigo Marc, imagino que ele esteja fazendo uma escolha consciente ao me marcar. Mas eu não vejo como uma empresa como o Facebook orquestrou a ação dele em primeiro lugar.

Facebook, Instagram e Snapchat podem manipular a frequência com que as pessoas são marcadas nas fotos ao sugerir automaticamente todos os rostos que deveriam ser marcados (e.g. ao mostrar um box com uma confirmação de 1 clique, “Marcar Tristan nessa foto?”).

Então quando Marc me marca, ele na verdade está aceitando uma sugestão do Facebook, e não fazendo uma escolha independente. Mas como escolhas definidas dessa forma, o Facebook controla o multiplicador para a frequência com que milhões de pessoas experimentam sua aprovação social em risco.

O Facebook usa sugestões automáticas como essa para fazer com que as pessoas marquem mais pessoas, criando exterioridades sociais e interrupções.

O mesmo acontece quando mudamos nossa foto de perfil – o Facebook sabe que esse é um momento que estamos vulneráveis no quesito aprovação social: “o que os meus amigos vão achar da minha nova foto?”. O Facebook pode deixá-la em destaque no feed de notícias, para que fique por mais tempo no feed e mais amigos possam curtir e comentar. Toda vez que eles curtem ou comentam, a foto volta a subir.

Todo mundo inerentemente reage à aprovação social, mas algumas faixas etárias (adolescentes) são mais vulneráveis que outras. É por isso que é tão importante reconhecer o quão poderosos são os designers quando exploram essa vulnerabilidade.

"Quantas curtidas eu recebi?”

Sequestro #5: Reciprocidade social (quid pro quo)

  • Você me faz um favor – Fico te devendo na próxima.

  • Você diz “obrigado” – Eu tenho que falar “de nada”.

  • Você me manda um email – É rude não te responder.

  • Você me segue – É rude não te seguir de volta. (especialmente para adolescentes)

Somos vulneráveis ao precisarmos corresponder os gestos dos outros. Mas assim como a Aprovação Social, empresas de tecnologia agora manipulam com que frequência passamos por isso.

Em alguns casos, é por acidente. Email e aplicativos de mensagem são fábricas de reciprocidade social. Mas em outros casos, as empresas exploram essa vulnerabilidade de propósito.

LinkedIn é o ofensor mais óbvio. O LinkedIn quer o maior número de pessoas criando obrigações sociais para as outras, porque cada vez que correspondem (ao aceitar uma conexão, ao responder uma mensagem ou ao reforçar uma habilidade de outro) precisam voltar ao linkedin.com, onde eles conseguem que as pessoas gastem mais tempo.

Como o Facebook, LinkedIn explora uma assimetria na percepção. Quando você recebe um convite de alguém para se conectar, você imagina que essa pessoa esteja fazendo uma escolha consciente de te convidar, quando, na realidade, eles provavelmente responderam inconscientemente a lista do LinkedIn de contatos sugeridos. Em outras palavras, o LinkedIn transforma seus impulsos inconscientes (de “adicionar” uma pessoa) em novas obrigações sociais que milhões de pessoas se sentem na obrigação de responder. Tudo isso enquanto lucra com o tempo que as pessoas levam fazendo isso.

“Não é estranho que o LinkedIn junte os convites pendentes com a possibilidade de mandar ainda mais convites?”

Imagine milhares de pessoas sendo interrompidas dessa maneira durante todo o dia, correndo por aí como galinhas com as cabeças cortadas, correspondendo umas às outras – tudo arquitetado por companhias que lucram com isso.

Bem vindo à mídia social.

Após aceitar uma aprovação, LinkedIn se aproveita da sua tendência em corresponder oferecendo *quatro* pessoas adicionais para você aprovar em retorno.

Imagine que empresas de tecnologia tenham a responsabilidade de minimizar a reciprocidade social. Ou que exista uma organização independente que represente os interesses públicos — um consórcio industrial ou um FDA para a tecnologia — e monitore quando as empresas abusarem dessas tendências?

“O LinkedIn finalmente valeu a pena -- me rendeu dois novos seguidores no Twitter.”

Sequestro #6: Tigelas sem fundo, Feeds Infinitos e Autoplay

Youtube dá autoplay no próximo vídeo após uma contagem regressiva.

Outra maneira de manipular as pessoas é mantê-las consumindo coisas, mesmo quando elas não estão mais com fome.

Como? Fácil. Pegue uma experiência que era limitada e finita e a transforme em um fluxo sem fim que continua sem parar.

O professor da Universidade Cornell, Brian Wansink, demonstrou isso em seu estudo ao mostrar que você pode induzir as pessoas a continuar tomando sopa ao dar a uma tigela sem fundo que reabastece automaticamente enquanto elas comem. Com tigelas sem fundo, as pessoas comem 73% mais calorias do que aquelas com tigelas normais e subestimam a quantidade de calorias que ingeriram em 140 calorias.

Empresas de tecnologia exploram o mesmo princípio. Feeds de notícias são personalizados propositalmente para se autorecarregar com motivos para você continuar rolando, e propositalmente eliminar qualquer motivo para você parar, reconsiderar ou sair.

É também por isso que mídias sociais e de vídeo como Netflix, YouTube e Facebook reproduzem automaticamente o próximo vídeo depois de uma contagem regressiva, no lugar de esperar você fazer uma escolha consciente (no caso, você não vai). Uma grande parcela do tráfego nesses sites é devido à reprodução automática da próxima coisa.

“O Netflix coloca automaticamente o próximo episódio depois de uma contagem regressiva”

Empresas de tecnologia frequentemente alegam que “nós só estamos deixando mais fácil para os usuários verem o vídeo que querem assistir”, quando na verdade estão satisfazendo seus interesses de negócios. E você não pode culpá-las, porque aumentar o “tempo gasto” é a moeda pela qual elas competem.

No lugar, imagine que empresas de tecnologia incentivem você a concientemente limitar sua experiência para alinhá-la com o que seria “tempo bem gasto” para você. Não só delimitando a quantidade de tempo que você gasta, mas a qualidade do que seria um “tempo bem gasto”.

Sequestro #7: Interrupções Instantâneas vs Delivery “Respeitoso”

Empresas sabem que mensagens que interrompem imediatamente as pessoas são mais persuasivas em conseguir que elas respondam do que mensagens entregues de maneira assincrônica (como email ou qualquer inbox agendada).

Dada a chance, o Messenger do Facebook (ou o WhatsApp, WeChat ou SnapChat para falar a verdade) prefere projetar o sistema de mensagens para interromper o receptor imediatamente (e mostrar um box da conversa) ao invés de ajudar os usuários a respeitar a atenção um dos outros.

Em outras palavras, interrupção é bom para os negócios.

É também do interesse deles amplificar o sentimento de urgência e reciprocidade social. Por exemplo, o Facebook avisa automaticamente o remetente quando você “viu” sua mensagem, ao invés de deixar você evitar que o outro saiba se você leu ou não (“agora que você sabe que eu vi a mensagem, me sinto ainda mais na obrigação de responder”).

Por contraste, a Apple, de maneira mais respeitosa, deixa os usuários ativarem ou desativarem a opção “Recibos de Leitura”.

O problema é que maximizar interrupções em nome dos negócios cria uma tragédia dos comuns, arruinando o limiar de atenção mundial e levando à bilhões de interrupções desnecessárias por dia. Esse é um problema enorme que precisamos consertar com padrões compartilhados do design (potencialmente, como parte do Time Well Spent)

Sequestro #8: Amarrando suas razões com as razões deles

Outra forma que os aplicativos te controlam é pegando seus motivos para visitar o aplicativo (para cumprir uma tarefa) e os tornando inseparáveis das razões de negócios do próprio aplicativo (maximizando o quanto nós consumimos uma vez que entramos).

Por exemplo, no mundo físico dos supermercados, a primeira e a segunda razão mais populares para frequentá-los são para repor produtos de higiene e beleza e para comprar leite. Mas os supermercados querem maximizar o quanto as pessoas gastam, então eles colocam a farmácia e o leite no fundo da loja.

Em outras palavras,  eles tornam a coisa que os consumidores querem (leite, produtos de higiene) inseparável do que os negócios querem. Se as lojas fossem realmente organizadas para ajudar as pessoas, elas colocariam os itens mais populares na frente.

Companhias de tecnologia desenvolvem seus sites da mesma maneira. Por exemplo, quando você quer dar uma olhada em um evento do Facebook que irá acontecer hoje a noite (sua razão), o aplicativo do Facebook não permite que você o acesse sem primeiro passar pelo feed de notícias (as razões deles), e isso é proposital. O Facebook quer converter qualquer razão que você tiver para usar o Facebook na razão deles, que é maximizar o tempo que você gasta consumindo coisas.

No lugar, imagine se...

  • o Twitter desse um caminho separado para postar um Tweet sem que você precisasse passar pelo feed de notícias deles.

  • o Facebook desse um caminho separado para ver os eventos do Facebook dessa noite, sem ser forçado a usar o feed de notícias deles.

  • o Facebook desse um caminho separado para usar o Facebook Connect como um passaporte para criar novas contas em aplicativos e sites terceiros, sem precisar instalar todo o aplicativo do Facebook, feed de notícias e notificações.

No mundo do Time Well Spent sempre há um caminho direto para chegar ao que você quer, separado do que os negócios querem.

Imagine uma “declaração dos direitos dos cidadãos” digital, delineando normas de design que forcem os produtos usados por bilhões de pessoas a apoiar caminhos empoderadores para que elas possam navegar em direção de seus objetivos.

Sequestro #9: Escolhas Inconvenientes

Nos dizem que é suficiente para o mercado “deixar as opções disponíveis”.

  • “Se você não gosta, pode sempre usar um produto diferente”.

  • “Se você não gosta, pode sempre cancelar a assinatura”.

  • “Se você está viciado no aplicativo, pode sempre desinstalá-lo do seu celular”.

O mercado naturalmente quer tornar as escolhas que ele quer que você faça mais fáceis, e as escolhas que ele não quer que você faça mais difíceis. Mágicos fazem a mesma coisa. Você torna mais fácil para o espectador escolher aquilo que você quer que ele escolha, e mais difícil escolher o que você não quer.

Por exemplo, o NYTimes.com permite que você “faça uma livre escolha” em cancelar sua assinatura digital. Mas ao invés de isso acontecer quando você clica em “Cancelar Assinatura”, eles mandam um email com informações de como cancelar sua conta ao ligar para um número que só está disponível durante determinadas horas.

O NYTimes afirma que está dando a escolha de cancelar sua assinatura

No lugar de ver o mundo em relação à disponibilidade de escolhas, deveríamos vê-lo em relação à fricção necessária para decretar as escolhas. Imagine um mundo onde as escolhas são catalogadas de acordo com a dificuldade em alcançá-las (como coeficientes e fricção) e há uma entidade independente – um consórcio industrial ou não lucrativo – que catalogou essas dificuldades e estabeleceu padrões para o quão fácil a navegação deve ser.

Sequestro #10: Prevendo erros, estratégias de arranque

O Facebook prometeu uma escolha fácil para “Ver Foto”. Você ainda clicaria se ele desse a verdadeira etiqueta de preço?

Por último, os apps podem explorar a inabilidade de pessoas em prever as consequências de um clique.

As pessoas não preveem intuitivamente o verdadeiro preço de um clique quando ele é apresentado para elas. As pessoas de vendas usam técnicas de arranque ao começar por um pequeno e inócuo pedido (“só um clique para ver qual tweet conseguiu um retweet”) e escalar a partir daí (“por que você não fica um pouco?”). Virtualmente, todos os sites de engajamento usam esse truque.

Imagine se browsers e smartphones, os portais por onde as pessoas fazem suas escolhas, estivessem realmente cuidando das pessoas e ajudando elas a prever as consequências de um clique (baseados em dados reais sobre quais são os benefícios e custos que ele realmente têm?)

É por isso que eu adiciono “Tempo estimado de leitura” no início dos meus posts. Quando você coloca o “custo verdadeiro” de uma escolha na frente das pessoas, você está tratando seus usuários ou audiência com dignidade e respeito. Numa internet do Time Well Spent, as escolhas seriam formatadas em relação aos benefícios e custos previstos, para que as pessoas fossem empoderadas a fazer escolhas informadas costumeiramente, e não como um trabalho extra.

“Você ainda clicaria?” TripAdvisor usa uma técnica de arranque ao pedir um feedback de um clique só (“Quantas estrelas?”) enquanto esconde uma pesquisa de três páginas por trás do clique.

Resumo e como podemos consertar

Você está triste que a tecnologia sequestra sua atenção? Eu também. Listei algumas técnicas, mas existem literalmente milhares. Imagine estantes de livros inteiras, seminários, workshops e treinamentos que ensinam aspirantes a empresários de tecnologia técnicas como essas. Imagine centenas de engenheiros cujo trabalho de todo o dia é inventar novas maneiras de te manter viciando.

A última liberdade é uma mente livre, e precisamos de uma tecnologia no nosso time para nos ajudar a viver, sentir, pensar e agir livremente.

Precisamos dos nossos smartphones, telas de notificações e browsers como exoesqueletos para nossas mentes e relacionamentos interpessoais que colocam nossos valores, e não nossos impulsos, primeiro. O tempo das pessoas é valioso. E deveríamos protegê-lo com o mesmo rigor da privacidade e outros direitos digitais.

Tristan Harris era um filósofo do produto no Google até 2016, onde estudou como a tecnologia afeta a atenção, o bem estar e o comportamento de bilhões de pessoas. Veja mais informações sobre o Time Well Spent.

Nota do autor: Na primeira versão do post faltaram reconhecimentos para aqueles que inspiraram meu pensamento por muitos anos, incluindo Joe Edelman, Aza Raskin, Raph D’Amico, Jonathan Harris e Damon Horowitz.

Meu pensamento sobre menus e escolhas foi profundamente inspirado no trabalho de Joe Edelman sobre Valores Humanos e Escolhas.

***

Nota da tradução: Este texto foi originalmente publicado em inglês no Medium do autor e traduzido para o português por Julia Barreto para o PapodeHomem por acreditarmos na incrível contribuição que ele traz pra nossas vidas.


publicado em 21 de Agosto de 2016, 00:05
Tristan harris

Tristan Harris

Humano, amigo, empreendedor, filósofo, CEO da Aptura, co-fundador da Time Well Spent e ex-designer ético do Google. Pode ser encontrado no Medium, no Twitter ou no Facebook.


Puxe uma cadeira e comente, a casa é sua. Cultivamos diálogos não-violentos, significativos e bem humorados há mais de dez anos. Para saber como fazemos, leianossa política de comentários.

Sugestões de leitura