Aquele que foi em tempos um dos conselheiros de Bill Gates é agora um dos principais pensadores do futuro. Neste domínio, o da incerteza, impera uma convicção: a tecnologia nunca será boa ou má, será sempre um reflexo da sociedade e do seu ambiente socioeconómico
Daniel Rasmus é o tipo de analista que podemos denominar de “futurólogo”, alguém que se dedica a prever como será o mundo a longo prazo. O norte-americano recorre a uma metodologia assente na elaboração de cenários, que começam com a incerteza e que posteriormente olham para múltiplos futuros. Rasmus foi diretor da unidade de Business Insights da Microsoft, onde ajudou a tecnológica a perspetivar como as pessoas irão trabalhar no futuro. Durante este período escreveu, em co-autoria, a obra “Listening to the Future”, onde explora a sua metodologia de cenários e as transformações que vão ter impacto político, económico e social. Daniel Ramus é hoje o fundador do website Serious Insights e o seu trabalho de consultoria está particularmente focado na evolução do ensino superior. O analista foi o principal orador do LX Data Science Summit, com o tema “A Glimpse into the Future”, organizado pela Singularity Digital Enterprise em outubro. Durante a sua passagem por Portugal, conversámos com Daniel Rasmus e procurámos saber a que se assemelhará o futuro.
IT Insight - Neste mundo de inteligência artificial (IA), continuaremos a ter o conceito information worker/knowledge worker?Daniel Rasmus – Há uns anos fiz uma pesquisa com a Universidade da Geórgia, nos EUA, sobre o futuro da aprendizagem. Por norma recorro a cenários e um dos futuros supunha que as máquinas deixassem de ter inteligência, porque os governos decidiriam que, para efeitos de privacidade, todas as empresas que fazem recomendações automáticas teriam de revelar aos consumidores todas as fontes de dados. Ora isto levaria as empresas a deixarem de o fazer. Para as pessoas significaria que teriam novamente de extrair conclusões a partir da informação. Gosto de trabalhar com cenários porque envolvem o ambiente socioeconómico e político. À medida que avançamos existem potenciais cenários, particularmente se formos pelo caminho do machine learning e da IA. Continuará a ter de haver knowledge workers, para sintetizar e extrair sentido da informação, para adicionar criatividade e inovação, algo que as máquinas não conseguem fazer. As máquinas encontram dados e padrões. No entanto, a potencial viragem poderá acontecer se as máquinas vierem a produzir o trabalho de base. Neste caso, como se aprende a ser jornalista ou um analista? Iremos assistir a um envelhecimento crescente da população e haverá um problema em relação ao modo como se trazem novas pessoas para esta realidade. Será um problema.
Irá a IA suprimir empregos?Acredito que o futuro mais provável é o da cibernética, da simbiose entre humanos e máquinas. É mais provável do que o de humanos vs máquinas. Nesse ponto, haverá coisas que os humanos farão muito bem e que as máquinas farão melhor, nomeadamente em termos de rapidez e de reconhecimento de padrões. Acredita na possibilidade de virmos a ter humanos aumentados por algoritmos?Não vejo nenhuma razão pela qual não chegaremos a esse ponto. Já estamos a utilizar silício enquanto interface com humanos, no campo militar, para que as próteses funcionem melhor. A verdade é que isto conduziu a um maior conhecimento, por parte da neurociência, sobre como integrar hardware com o corpo humano, e creio que isso irá acontecer. Mais uma vez, há fatores em torno desta questão: será socialmente correto sermos tecnologicamente aumentados? Falo muito sobre isto quando abordo o futuro da aprendizagem. O que acontecerá se um dia tivermos um implante cerebral, praticamente invisível, que nos permita ter acesso à internet? Neste cenário, sempre que nos colocassem uma pergunta a resposta surgiria de forma imediata, no nosso cérebro. No ensino, como faríamos testes de avaliação? Se o ensino passa por transmitir factos que as pessoas podem encontrar online, muito mais rapidamente, então a escola tem de desempenhar um papel diferente. O que acontecerá à propriedade intelectual se começarmos a criar com a ajuda de algoritmos?Se este futuro se concretizar, a propriedade intelectual permanece com o ser humano. Não creio que as máquinas acrescentem criatividade, sou muito cético quanto a esta possibilidade. Vão apenas dar-nos as fontes dos dados. Creio que nos afastámos bastante daquele conceito generalizado de inteligência artificial dos anos 90, pelo que não estou certo que a IA enverede por aí. A inteligência artificial está a evoluir em direção à analítica, ajudando a extrair sentido das coisas e ajudando as pessoas a tomarem melhores decisões. Não faz então sentido recear a inteligência artificial?O medo é legítimo, mas não se trata de termos uma máquina autónoma a decidir que vai iniciar uma guerra. O problema é se uma pessoa mal-intencionada ordenar que a máquina o faça. É o mesmo que dar a um drone a instrução para se deslocar de um ponto a outro sem deixar que nada se intrometa no seu caminho. A instrução é clara, mas pode ser perigosa: se não disser para evitar humanos, o drone pode magoar pessoas. Mas a instrução dada não foi essa. No final, tudo se resumirá às intenções das pessoas e à utilização que farão das máquinas.
Em julho deste ano um grupo de investigadores da Universidade Tecnológica da Geórgia encerrou um programa de IA após este ter criado um idioma próprio quase impossível de decifrar, apesar de este o ter feito para cumprir instruções mais rapidamente. Notícias como esta não devem levantar preocupação?Existe um caminho em data science, pelo qual a IA tenta escrever algoritmos melhores, em cima dos algoritmos que já tem. Trata-se de algo completamente diferente. As máquinas podem decidir, sim, mas não creio que decidam fazer-nos mal. Este campo, da evolução da inteligência artificial, é relativo porque nós continuamos a dizer aos computadores o que é que cada coisa significa – que a palavra “azul” significa uma cor, por exemplo. Estamos já a condicioná-los à partida e a impedir que desenvolvam um outro tipo de inteligência. A este nível os computadores estão limitados. Para que se desenvolvesse um outro nível de inteligência teriam que ter sentidos. Por exemplo, teriam de ter visão e de perceber como processá-la. Os computadores só conhecem o que lhes dizemos. No entanto, poderemos ensiná-los a fazer as suas próprias associações, até ao ponto em que descobrem o que é que a palavra “azul” significa para eles. Este tipo de computação poderá não ser inteligência generalizada, mas um autonomous reasoning. Ajudou a imaginar o local de trabalho do futuro. Como será dentro de 5 a 10 anos?No livro “Listening to the Future” descrevia quatro futuros diferentes. A tecnologia pode estar a postos, mas no final é a sociedade que decide se vamos ou não afastar-nos dos algoritmos e das suas sugestões. Porque utilizar estas tecnologias exige muito mais transparência, saber em que as empresas estão a pensar, o que pode não lhes agradar. Num dos cenários do livro havia um futuro que era muito simbiótico, com computadores e humanos a trabalharem em conjunto. Um mundo de mútuo benefício, do ponto de vista económico, com maior produtividade. Se pensarmos bem, hoje as máquinas já podem ser programadas para construir casas. Surpreende-me que ainda não tenhamos robôs que constroem estruturas, porque já seria possível. Poderíamos até ter um robô que produz tudo o que necessita no próprio local. Por outro lado, se chegarmos ao ponto em que os computadores são tão produtivos que as pessoas não têm nada para fazer, a questão a colocar será: o que fazem as pessoas? A boa versão desse futuro é que o nosso hobbie torna-se na nossa ocupação. Poderemos, neste caso, assistir ao nascer de uma nova economia, que valorize novamente o lado humano do que fazemos. Estes são os cenários positivos. E os menos positivos?Nos menos positivos os computadores tornam-se progressivamente mais parciais, não porque o sejam, mas porque os dados que os alimentam o são. Basta pensar na utilização que os países podem querer fazer deles. Se começarmos a alimentar os computadores com dados menos “bons”, os computadores tornar-se-ão muito bons a fazer coisas muito más. Há ainda um outro futuro, no qual as máquinas asseguram todo o tipo de tarefas que beneficiam a economia, mas ficam nas mãos de apenas 1% da população, que decide não partilhar. Acabaremos num mundo muito tecnológico, mas que só beneficia alguns.
Tecnologias como a IA e o machine learning contribuirão para acentuar ou amenizar a exclusão digital?Depende do que fazemos com essas tecnologias. Uma das propostas de valor da inteligência artificial é a resolução de problemas que consideramos muito difíceis. A aplicação da tecnologia pode resultar em melhores condições económicas, mas será que deixaremos que assim seja? Tudo se resumirá à vontade e aos interesses. Basta ver o que acontece agora: no mundo ocidental temos conhecimentos e meios que nos permitem viver melhor e, no entanto, continua a haver uma parte do mundo subdesenvolvida, porque a eles não tem acesso. Não nos temos propriamente empenhado em distribuir a riqueza. Tudo se resume à utilização que as pessoas fazem da tecnologia. Uma das mensagens que deixei no evento foi a de que temos de definir o que significa ser bom. O que é bom para umas pessoas pode ser mau para outras. É uma das questões mais importantes a colocar. Não deveríamos desenvolver tecnologia apenas para resolver um dado problema. Temos de definir o que significa ter um resultado bom. Não pode ser só importante o KPI do negócio, mas em que é que determinado desenvolvimento tecnológico beneficia a sociedade. Temos de colocar esta questão mais vezes. |