"Pode Ser 2 anos, ou 10": Especialista Em IA Acredita Que Humanidade Tem Bem Menos Tempo



É sempre bom ouvir opiniões diferentes. No entanto será que a de um pessimista declarado pode ser coerente? "A dificuldade é que as pessoas não percebem", disse Yudkowsky. "Temos uma mínima chance de que a humanidade sobreviva."

"Se você me colocar contra a parede", continua, "e me forçar a colocar probabilidades nas coisas, tenho a sensação de que nosso atual cronograma restante se parece mais com cinco anos do que com 50 anos. Pode ser 2 anos, ou 10."

Ele afirma que supercomputadores que realizam cálculos complexos e tomam decisões mais rápido que humanos poderiam ser a fonte de um perigo sem tamanho. Yudkowsky também diz que é só questão de tempo para que a IA se torne inteligente ao ponto de superar seres humanos.

Cautela parece ser a resposta

Como você pode ver abaixo, Yudkowsky já participou do TED Talks. Seu ponto é que a IA, se encarregada de funções perigosas, pode se mostrar catastrófica. Por conta disso, precisamos desenvolvê-la com cautela.

O artigo em questão também contou com a entrevista outras pessoas com perspectivas menos catastróficas para o destino da humanidade, embora pessimistas com o mercado de trabalho e comercio, de modo geral, além do andamento da economia.

Em um outro artigo o IGN Brasil trouxe uma outra nota com falas do especialista. Ao que tudo indica, ele não muda seu ponto de vista e insiste em um trabalho alerta sobre a inteligência artificial.

"É um perigo para a humanidade": especialista em IAs alerta sobre futuro da tecnologia

Enquanto as inovações tecnológicas materiais estão gradualmente se estabelecendo, as IAs estão mostrando um progresso vertiginoso. Anteriormente capaz de executar tarefas bastante simples e adaptar-se um pouco a um contexto, as possibilidades vistas pelo GPT-4 e outros parecem não ter limites, como na história da IA que transformou US$ 100 em US$ 25 mil.

Quando você olha para a diferença de desempenho entre o GPT-3 e seu substituto recente, o GPT-4, há algo para se preocupar. Enquanto a terceira versão é limitada a 175 milhões de parâmetros, a quarta sobe para 100 trilhões, o equivalente ao cérebro humano. Você sente o limite chegando? O que é certo é que o especialista em IA, Eliezer Yudkowsky, sente que sim.

Eliezer Yudkowsky é um renomado pesquisador americano que estuda o tema da inteligência artificial há mais de 20 anos. Apaixonado, mas também preocupado com o seu impacto na humanidade, criou o conceito de "IA amigável", uma máquina hipotética com uma influência exclusivamente positiva nos humanos.

Se esse conceito visa promover questões éticas em torno do desenvolvimento das inteligências, as últimas palavras do especialista sobre o assunto vão além, antevendo um perigo real para a humanidade como um todo.

De acordo com Eliezer, o que torna as IAs tão perigosas agora é sua incapacidade de raciocinar em favor da humanidade. Embora essas inteligências possam entender quem somos, como funcionamos e o que queremos, elas realmente não têm empatia pela vida humana, e ainda não somos capazes de fazê-las sentir isso.

A previsão deste especialista retrata um futuro onde os robôs que criamos são simplesmente mais desenvolvidos do que nós, e são capazes, desprovidos de qualquer emoção, de nos derrubar se nos considerarem inúteis. Segundo ele, as capacidades futuras da IA ​​contra humanos seriam comparáveis ​​a um confronto entre o mundo do século 11 e o do século 21…

O que fazer então? "Pare tudo"

Você deve ter visto uma petição para instituir uma pausa de seis meses para o desenvolvimento de todas as inteligências artificiais melhores que o GPT-4. Este movimento tem as mesmas motivações de Eliezer (mas ele não o assinou). Segundo ele, as reivindicações dessa repetição são muito pequenas para ter impacto suficiente. Para Yudkowsky, tudo deveria ser interrompido.

Se você não pode ter certeza se está
criando uma IA ciente de sua existência
ou não, isso é um problema, não
apenas por causa das implicações
morais, mas mais importante porque
não ter certeza significa que você não
tem ideia do que é. Estão fazendo
e precisam parar.

Eliezer Yudkowsky, especialista em IA.

Uma opinião mais que extrema, mas que se entende. É difícil imaginar como os humanos podem ser derrubados por seus próprios robôs, mas também é difícil imaginar do que uma IA seria capaz em 20 anos.

A pausa nos treinos de IA deve ser
permanente no mundo. Não
pode haver exceções, mesmo para
governos e militares. (...) Feche todos
os farms de GPU. Feche todos
os grandes centros. Coloque um
limite no poder de computação
máximo permitido para ser usado
em uma inteligência artificial.

Eliezer Yudkowsky, especialista em IA.

A desavença entre androides e humanos foi tema do enredo de Detroit: Become Human, onde a inteligência artificial evoluiu tanto a ponto de não só simular, mas também de sentir emoções. Com isso, os robôs se rebelaram contra a escravidão.

Já em Mass Effect, o confronto inicial é entre a raça Quarian (criador) e a máquina Geth (criatura). Porém, a franquia mostra que todas as civilizações sofreram o mesmo problema: o criador cria a criatura, mas toda criatura supera o criador, o que resulta sempre na guerra de orgânicos contra sintéticos.

Você acredita que teremos um cenário similar na vida real dentro de algumas décadas?


Fonte: MSN

Precisa de Ajuda?