Ameaça existencial

Jacques Wainer

mitos da dominação pela IA

Matrix, Terminator, etc

A ideia ameaça existencial depende de

Explosão de inteligencia

Superinteligência conflita conosco

Assumindo uma superinteligência (SAGI)

AI agent vs AI tool

as AI até agora só funcionam com “perguntas” - tool AI

Agent AI tem objetivos, e tenta atingi-los

modelo de agente

Se as preferencias são consistentes, então isso equivale a ter uma valor de utilidade em cada estado

e o agente busca maximizar a utilidade (esperada, descontada, etc)

Conceitos relevantes:

Objetivos instrumentais

Não importa muito os objetivos (de longo termo) da SAGI. Provavelmente ela precisa:

e é ai que ela interfere conosco: captura recursos, dinheiro, e se protege de desligar e de ser modificada.

tese da ortogonalidade

inteligencia é ortogonal a qualidade/virtude/bondade dos objetivos de um agente inteligente

os objetivos da SAGI não necessariamente trarão benefícios a humanidade apenas porque ela é super inteligente

Alignment - como colocar objetivos bons na SAGI

O objetivo da SAGI poderia ser - aumente a felicidade e prosperidade humana

Monitoramento de AGI

ficamos monitorando a SAGI e desligamos a eletricidade quando ela agir mal

enganar não precisa ser um ato explicito, planejado. A SAGI percebe que em um conjunto de situações vale mais a pena (recebe recompensa) fazer coisas que agradam os humanos, mas que em outras situações (sem monitoração) vale mais a pena fazer outras coisas.

O que especialistas acham

https://www.alignmentforum.org/posts/kygEPBDrGGoM8rz9a/conjecture-internal-survey-agi-timelines-and-probability-of#:~:text=The%20median%20estimation%20is%2070,AGI%20is%20higher%20than%2080%25.

vai acontecer?: mediana da prob de extinção 59%

AGI quando?: mediana 2031

outro: https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/

o que eu acho?

porque criar AGI?

Não sei!

não estou convencido de afirmações do tipo “IA vai resolver os problemas do mundo” (cancer, doenças, mudanças climáticas, poluição por plástico, etc).

Eu acho que a furos em vários aspectos dos argumentos

Referencias

livros

Videos

Robert Miles https://www.youtube.com/c/RobertMilesAI/vídeos

sites

AI safety https://aisafety.info (mais simples)

https://www.alignmentforum.org (mais complexo)

https://www.lesswrong.com/tag/ai (super complexo)