Photo by Jason Leung on Unsplash
Nos próximos anos, a inteligência artificial provavelmente mudará sua vida – e provavelmente o mundo inteiro. Mas as pessoas têm dificuldade em concordar exatamente como a IA afetará nossa sociedade. Podemos construir sistemas de IA que nos ajudem a consertar o mundo? Ou estamos condenados a uma dominação robótica? Explore as limitações da inteligência artificial e a possibilidade de criar tecnologia compatível com humanos. Este vídeo é baseado em trechos de entrevistas do Podcast da Rádio Davos.
O episódio se chama “The promises and perils of AI – Stuart Russell on Radio Davos”.
Audio | |
---|---|
Normal | Slow |
English Transcript | Tradução |
In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. | Nos próximos anos, a inteligência artificial provavelmente mudará sua vida e provavelmente o mundo inteiro. |
But people have a hard time agreeing on exactly how. | Mas as pessoas têm dificuldade em concordar exatamente como. |
The following are excerpts from an interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense. | A seguir, trechos de uma entrevista em que o renomado professor de ciência da computação e especialista em IA Stuart Russell ajuda a separar o sentido do absurdo. |
There's a big difference between asking a human to do something and giving that as the objective to an AI system. | Há uma grande diferença entre pedir a um humano para fazer algo e dar isso como objetivo a um sistema de IA. |
When you ask a human to get you a cup of coffee, you don't mean this should be their life's mission, and nothing else in the universe matters. | Quando você pede a um humano para lhe trazer uma xícara de café, não quer dizer que essa deva ser a missão de sua vida, e nada mais importa no universo. |
Even if they have to kill everybody else in Starbucks to get you the coffee before it closes | Mesmo que eles tenham que matar todo mundo na Starbucks para pegar o café antes de fechar |
They should do that. | É o que deveriam fazer. |
No, that's not what you mean. | Não, não é isso que você quer dizer. |
All the other things that we mutually care about, they should factor into your behavior as well. | Todas as outras coisas com as quais nos preocupamos mutuamente também devem ser consideradas em seu comportamento. |
And the problem with the way we build AI systems now is we give them a fixed objective. | E o problema com a forma como construímos sistemas de IA agora é que damos a eles um objetivo fixo. |
The algorithms require us to specify everything in the objective. | Os algoritmos exigem que especifiquemos tudo no objetivo. |
And if you say, can we fix the acidification of the oceans? | E se você disser, podemos consertar a acidificação dos oceanos? |
Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours. | Sim, você poderia ter uma reação catalítica que faz isso de forma extremamente eficiente, mas consome um quarto do oxigênio na atmosfera, o que aparentemente nos faria morrer lentamente e de forma desagradável ao longo de várias horas. |
So, how do we avoid this problem? | Então, como evitamos esse problema? |
You might say, okay, well, just be more careful about specifying the objective? | Você pode dizer, ok, bem, apenas tenha mais cuidado ao especificar o objetivo? |
Don't forget the atmospheric oxygen. | Não se esqueça do oxigênio atmosférico. |
And then, of course, some side effect of the reaction in the ocean poisons all the fish. | E então, é claro, algum efeito colateral da reação no oceano envenena todos os peixes. |
Okay, well I meant don't kill the fish either. | Ok, bem, eu quis dizer não mate o peixe também. |
And then, well, what about the seaweed? | E então, bem, e as algas? |
Don't do anything that's going to cause all the seaweed to die. | Não faça nada que faça com que todas as algas morram. |
And on and on and on. | E assim por diante. |
And the reason that we don't have to do that with humans is that humans often know that they don't know all the things that we care about. | E a razão pela qual não temos que fazer isso com os humanos é que os humanos geralmente sabem que não sabem todas as coisas com as quais nos importamos. |
If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it's entirely reasonable to come back and say, well, it's 13 euros, are you sure you want it, or I could go next door and get one? | Se você pedir a um humano para lhe trazer uma xícara de café, e por acaso estiver no Hotel George Sand em Paris, onde o café custa 13 euros a xícara, é totalmente razoável voltar e dizer, bem, são 13 euros, você tem certeza que quer, ou eu poderia ir na porta ao lado e pegar um? |
And it's a perfectly normal thing for a person to do. | E é uma coisa perfeitamente normal para uma pessoa fazer. |
To ask, I'm going to repaint your house? | Para perguntar, eu vou repintar sua casa? |
Is it okay if I take off the drainpipes and then put them back? | Tudo bem se eu tirar os canos de esgoto e depois colocá-los de volta? |
We don't think of this as a terribly sophisticated capability, but AI systems don't have it because the way we build them now, they have to know the full objective. | Não pensamos nisso como um recurso extremamente sofisticado, mas os sistemas de IA não o possuem porque, da maneira como os construímos agora, eles precisam conhecer o objetivo completo. |
If we build systems that know that they don't know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere. | Se construímos sistemas que sabem que não sabem qual é o objetivo, eles começam a exibir esses comportamentos, como pedir permissão antes de se livrar de todo o oxigênio da atmosfera. |
In all these senses, control over the AI system comes from the machine's uncertainty about what the true objective is. | Em todos esses sentidos, o controle sobre o sistema de IA vem da incerteza da máquina sobre qual é o verdadeiro objetivo. |
And it's when you build machines that believe with certainty that they have the objective, that's when you get this sort of psychopathic behavior. | E é quando você constrói máquinas que acreditam com certeza que elas têm o objetivo, é quando você tem esse tipo de comportamento psicopático. |
And I think we see the same thing in humans. | E acho que vemos a mesma coisa nos humanos. |
What happens when general purpose AI hits the real economy? | O que acontece quando a IA de uso geral atinge a economia real? |
How do things change? | Como as coisas mudam? |
Can we adapt? | Podemos nos adaptar? |
This is a very old point. | Este é um ponto muito antigo. |
Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn't need any workers. | Surpreendentemente, Aristóteles realmente tem uma passagem onde ele diz, veja, se tivéssemos máquinas de tecer totalmente automatizadas e palhetas que pudessem dedilhar a lira e produzir música sem humanos, então não precisaríamos de trabalhadores. |
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. | Essa ideia, que acho que foi Keynes quem chamou de desemprego tecnológico em 1930, é muito óbvia para as pessoas. |
They think, yeah, of course, if the machine does the work, then I'm going to be unemployed. | Elas pensam, sim, claro, se a máquina fizer o trabalho, ficarei desempregado. |
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. | Você pode pensar nos armazéns que as empresas estão operando atualmente para e-commerce, eles são meio automatizados. |
The way it works is that an old warehouse? | Eles funcionam como armazéns antigos? |
Where you've got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off? | Onde você tem toneladas de coisas empilhadas em todo lugar e os humanos vão e vasculham e depois trazem de volta e despacham? |
There's a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that's still too difficult. | Tem um robô que vai buscar a estante que contém a coisa que você precisa, mas o humano tem que pegar o objeto na caixa ou na estante, porque ainda é muito difícil. |
But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? | Mas, ao mesmo tempo, você faria um robô preciso o suficiente para ser capaz de escolher praticamente qualquer objeto dentro de uma ampla variedade de objetos que você pode comprar? |
That would, at a stroke, eliminate 3 or 4 million jobs? | Isso eliminaria, de uma só vez, 3 ou 4 milhões de empregos? |
There's an interesting story that E. M. Forster wrote, where everyone is entirely machine dependent. | Há uma história interessante que EM Forster escreveu, onde todos são totalmente dependentes da máquina. |
The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. | A história é realmente sobre o fato de que, se você entregar o gerenciamento de sua civilização às máquinas, perderá o incentivo para entendê-la sozinho ou para ensinar a próxima geração a entendê-la. |
You can see "WALL-E" actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn't been possible up to now. | Você pode ver "WALL-E" na verdade como uma versão moderna, onde todos são enfraquecidos e infantilizados pela máquina, e isso não foi possível até agora. |
We put a lot of our civilization into books, but the books can't run it for us. | Colocamos muito de nossa civilização nos livros, mas os livros não podem administrá-la para nós. |
And so we always have to teach the next generation. | E assim sempre temos que ensinar a próxima geração. |
If you work it out, it's about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. | Se você pensar, é cerca de um trilhão de anos-pessoa ensinando e aprendendo e uma cadeia ininterrupta que remonta a dezenas de milhares de gerações. |
What happens if that chain breaks? | O que acontece se essa corrente quebrar? |
I think that's something we have to understand as AI moves forward. | Acho que é algo que temos que entender conforme a IA avança. |
The actual date of arrival of general purpose AI? | Quando que a IA chegará a ser de uso geral? |
You're not going to be able to pinpoint, it isn't a single day. | Você não vai conseguir identificar, não é um único dia. |
It's also not the case that it's all or nothing. | Também não é o caso de ser tudo ou nada. |
The impact is going to be increasing. | O impacto vai aumentar. |
So with every advance in AI, it significantly expands the range of tasks. | Assim, com cada avanço na IA, ela expande significativamente o leque de tarefas. |
So in that sense, I think most experts say by the end of the century, we're very, very likely to have general purpose AI. | Então, nesse sentido, acho que a maioria dos especialistas diz que, até o final do século, é muito, muito provável que tenhamos IA de uso geral. |
The median is something around 2045. | A mediana é algo em torno de 2045. |
I'm a little more on the conservative side. | Sou um pouco mais do lado conservador. |
I think the problem is harder than we think. | Acho que o problema é mais difícil do que pensamos. |
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. | Eu gosto do que John McAfee disse, ele foi um dos fundadores da IA, quando fizeram a ele essa pergunta, ele respondeu, algo entre cinco e 500 anos. |
And we're going to need, I think, several Einsteins to make it happen. | E vamos precisar, creio eu, de vários Einsteins para que isso aconteça. |
Contagem de palavras
A tabela abaixo exibe as palavras encontradas neste vídeo, bem como o número de vezes em que aparecem.
Veja também: Para que serve esta tabela?
Freq. | Palavra | Freq. | Palavra | Freq. | Palavra |
---|---|---|---|---|---|
73 | the | 37 | to | 35 | that |
34 | and | 33 | is | 25 | you |
25 | of | 25 | a | 24 | it |
20 | we | 16 | do | 15 | not |
14 | in | 13 | I | 11 | have |
11 | ai | 10 | think | 10 | they |
10 | if | 8 | then | 8 | objective |
8 | all | 8 | about | 7 | what |
7 | going | 7 | be | 7 | are |
6 | where | 6 | this | 6 | but |
5 | when | 5 | well | 5 | very |
5 | or | 5 | on | 5 | know |
5 | humans | 5 | get | 5 | can |
5 | as | 5 | an | 4 | your |
4 | would | 4 | with | 4 | so |
4 | say | 4 | over | 4 | human |
4 | how | 4 | he | 4 | coffee |
4 | build | 4 | back | 3 | years |
3 | way | 3 | was | 3 | us |
3 | understand | 3 | things | 3 | thing |
3 | there | 3 | them | 3 | systems |
3 | something | 3 | should | 3 | purpose |
3 | problem | 3 | oxygen | 3 | okay |
3 | off | 3 | now | 3 | next |
3 | need | 3 | machines | 3 | machine |
3 | has | 3 | general | 3 | from |
3 | for | 3 | e | 3 | cup |
3 | course | 3 | could | 3 | ask |
3 | any | 3 | am | 2 | yeah |
2 | work | 2 | who | 2 | which |
2 | up | 2 | time | 2 | these |
2 | teach | 2 | system | 2 | story |
2 | side | 2 | several | 2 | sense |
2 | see | 2 | seaweed | 2 | same |
2 | robot | 2 | reaction | 2 | put |
2 | pick | 2 | person | 2 | people |
2 | out | 2 | one | 2 | old |
2 | object | 2 | nothing | 2 | more |
2 | mean | 2 | make | 2 | likely |
2 | like | 2 | kill | 2 | into |
2 | happens | 2 | happen | 2 | goes |
2 | go | 2 | generation | 2 | fish |
2 | everyone | 2 | euros | 2 | entirely |
2 | else | 2 | does | 2 | die |
2 | civilization | 2 | change | 2 | chain |
2 | cause | 2 | care | 2 | by |
2 | books | 2 | between | 2 | behavior |
2 | before | 2 | because | 2 | automated |
2 | atmosphere | 2 | at | 2 | asking |
2 | around | 2 | actually | 2 | able |
1 | yourself | 1 | wrote | 1 | world |
1 | works | 1 | workers | 1 | without |
1 | within | 1 | wide | 1 | weaving |
1 | warehouses | 1 | warehouse | 1 | want |
1 | wall | 1 | version | 1 | variety |
1 | unpleasantly | 1 | universe | 1 | unit |
1 | unemployment | 1 | unemployed | 1 | uncertainty |
1 | unbroken | 1 | true | 1 | trillion |
1 | too | 1 | tons | 1 | thousands |
1 | their | 1 | than | 1 | terribly |
1 | tens | 1 | technological | 1 | teaching |
1 | tasks | 1 | take | 1 | sure |
1 | stuff | 1 | stuart | 1 | stroke |
1 | still | 1 | start | 1 | starbucks |
1 | specifying | 1 | specify | 1 | sort |
1 | sophisticated | 1 | somewhere | 1 | some |
1 | slowly | 1 | single | 1 | significantly |
1 | shelving | 1 | shelf | 1 | separate |
1 | senses | 1 | send | 1 | science |
1 | says | 1 | sand | 1 | said |
1 | russell | 1 | run | 1 | rummage |
1 | rid | 1 | require | 1 | repaint |
1 | renowned | 1 | reasonable | 1 | reason |
1 | really | 1 | real | 1 | range |
1 | question | 1 | quarter | 1 | psychopathic |
1 | professor | 1 | produce | 1 | probably |
1 | pretty | 1 | possible | 1 | poisons |
1 | point | 1 | pluck | 1 | plectrums |
1 | place | 1 | pinpoint | 1 | piled |
1 | permission | 1 | perfectly | 1 | passage |
1 | paris | 1 | our | 1 | other |
1 | operating | 1 | often | 1 | oceans |
1 | ocean | 1 | obvious | 1 | objects |
1 | normal | 1 | nonsense | 1 | no |
1 | mutually | 1 | music | 1 | much |
1 | moves | 1 | most | 1 | modern |
1 | mission | 1 | million | 1 | might |
1 | median | 1 | meant | 1 | mcafee |
1 | matters | 1 | management | 1 | machine's |
1 | m | 1 | lyre | 1 | lot |
1 | lose | 1 | look | 1 | little |
1 | life's | 1 | life | 1 | learning |
1 | keynes | 1 | just | 1 | john |
1 | jobs | 1 | interview | 1 | interesting |
1 | intelligence | 1 | infantilized | 1 | increasing |
1 | incentive | 1 | impact | 1 | idea |
1 | house | 1 | hours | 1 | hotel |
1 | hits | 1 | helps | 1 | harder |
1 | hard | 1 | hand | 1 | half |
1 | had | 1 | got | 1 | giving |
1 | give | 1 | getting | 1 | gets |
1 | george | 1 | generations | 1 | fully |
1 | full | 1 | founders | 1 | forward |
1 | forster | 1 | forget | 1 | following |
1 | fixed | 1 | fix | 1 | five |
1 | fairly | 1 | factor | 1 | fact |
1 | extremely | 1 | experts | 1 | expert |
1 | expands | 1 | exhibit | 1 | excerpts |
1 | exactly | 1 | everything | 1 | everybody |
1 | every | 1 | even | 1 | entire |
1 | enough | 1 | enfeebled | 1 | end |
1 | eliminate | 1 | either | 1 | einsteins |
1 | efficiently | 1 | effect | 1 | economy |
1 | drainpipes | 1 | door | 1 | difficult |
1 | difference | 1 | dependent | 1 | day |
1 | date | 1 | currently | 1 | control |
1 | contains | 1 | consumes | 1 | conservative |
1 | computer | 1 | companies | 1 | commerce |
1 | coming | 1 | comes | 1 | come |
1 | closes | 1 | certainty | 1 | century |
1 | catalytic | 1 | case | 1 | careful |
1 | capability | 1 | cannot | 1 | called |
1 | buy | 1 | bring | 1 | breaks |
1 | bin | 1 | big | 1 | believe |
1 | behaviors | 1 | been | 1 | avoid |
1 | atmospheric | 1 | asked | 1 | artificial |
1 | arrival | 1 | aristotle | 1 | apparently |
1 | anything | 1 | amazingly | 1 | always |
1 | also | 1 | algorithms | 1 | agreeing |
1 | advance | 1 | adapt | 1 | actual |
1 | acidification | 1 | accurate |
Excelente!