Ameaça existencial

Jacques Wainer

IA causando a morte(?) de uma boa proporção da humanidade

https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence

mitos da dominação pela IA

Matrix, Terminator, etc

A ideia ameaça existencial depende de

Explosão de inteligencia

Superinteligência conflita conosco

Assumindo uma superinteligência (SAGI)

Humanos e formigas, humanos e macacos: não temos nada contra eles, ótimo que eles estejam felizes e prósperos, mas não são levados em consideração na hora de construir uma casa, um estacionamento, uma represa.

Não é necessário que seja a relação como a de humanos em relação a bovinos, galinhas (exploração)

AI agent vs AI tool

as AI até agora só funcionam com “perguntas” - tool AI

Agent AI tem objetivos, e tenta atingi-los

modelo de agente

Se as preferencias são consistentes, então isso equivale a ter uma valor de utilidade em cada estado

e portanto o agente busca maximizar a utilidade (esperada, descontada, etc)

Conceitos relevantes:

Objetivos instrumentais

Não importa muito os objetivos (de longo termo) da SAGI. Provavelmente ela precisa:

e é ai que ela interfere conosco: captura recursos, dinheiro, e se protege de desligar e de ser modificada.

tese da ortogonalidade

inteligencia é ortogonal a qualidade/virtude/bondade dos objetivos de um agente inteligente

os objetivos da SAGI não necessariamente trarão benefícios a humanidade apenas porque ela é super inteligente

Alignment - como colocar objetivos bons na SAGI

O objetivo da SAGI poderia ser - aumente a felicidade e prosperidade humana

Monitoramento de AGI

ficamos monitorando a SAGI e desligamos a eletricidade quando ela agir mal

enganar não precisa ser um ato explicito, planejado. A SAGI percebe que em um conjunto de situações vale mais a pena (recebe recompensa) fazer coisas que agradam os humanos, mas que em outras situações (sem monitoração) vale mais a pena fazer outras coisas.

O que especialistas acham

https://www.alignmentforum.org/posts/kygEPBDrGGoM8rz9a/conjecture-internal-survey-agi-timelines-and-probability-of#:~:text=The%20median%20estimation%20is%2070,AGI%20is%20higher%20than%2080%25.

vai acontecer?: mediana da prob de extinção 59%

AGI quando?: mediana 2031

outro:https://wiki.aiimpacts.org/doku.php?id=ai_timelines:predictions_of_human-level_ai_timelines:ai_timeline_surveys:2022_expert_survey_on_progress_in_ai

o que eu acho?

porque criar AGI?

Não sei!

estou pouco convencido de afirmações do tipo “IA vai resolver os problemas do mundo” (cancer, doenças, mudanças climáticas, poluição por plástico, etc).

Eu acho que a furos em vários aspectos dos argumentos

Referencias

livros

Videos

Robert Miles https://www.youtube.com/c/RobertMilesAI/vídeos

sites

AI safety https://aisafety.info (mais simples)

AI impacts wiki https://wiki.aiimpacts.org/start

https://www.alignmentforum.org (mais complexo)

https://www.lesswrong.com/tag/ai (super complexo)