domingo, 10 de janeiro de 2016

"Kalashnikovs de amanhã ': Hawking, Musk, Wozniak alertar sobre corrida armamentista AI mundial

"Kalashnikovs de amanhã ': Hawking, Musk, Wozniak alertar sobre corrida armamentista AI mundial

Modular Avançado Armed Robotic Sistema mostrado na Expo marinho militar ocidental em Camp Pendleton, Califórnia.  © Mike Blake
Inteligência artificial, especialmente como arma, é um erro enorme, gurus da tecnologia e gênios científicos avisar em uma carta aberta recém-lançado. Professor Stephen Hawking, co-fundador da Apple Steve Wozniak e Tesla CEO Elon Musk estão entre 1.000 signatários.
Os luminares acreditam que nos últimos 20 anos, temos sido perigosamente preocupado com a dar passos na direção da AI autônomo que tem poder de decisão.
"A tecnologia de Inteligência Artificial (AI) chegou a um ponto onde a implantação de sistemas [autónomas] é - praticamente se não for legalmente - viável dentro de anos, não décadas, e as apostas são altas: armas autónomas têm sido descritas como a terceira revolução na guerra , depois de pólvora e armas nucleares ", eles escrevem em uma carta apresentada na Conferência Internacional Conjunta de Inteligência Artificial em Buenos Aries. 
(LR) Stephen Hawking (© Neil Hall), Steve Wozniak (© Robert Galbraith) e Elon Musk (© Patrick T. Fallon)
O perigo tem a ver com uma combinação de habilidades e melhorias as máquinas foram ganhando ao longo dos anos, incluindo vários integração, aprendizagem, poder de processamento e uma série de tarefas que o compõem, como evidenciado na sua carta anterior, publicada pela Future of Life Institute.
Os pesquisadores reconhecem que o envio de robôs em guerra poderia produzir o resultado positivo da redução de acidentes. O outro lado, eles escrevem, é que ele "[abaixa] o limiar para ir para a batalha."
Os autores não tenho nenhuma dúvida de que o desenvolvimento AI armas por nenhuma nação irá resultar em uma "virtualmente inevitável corrida armamentista global" com armas autônomas tornando-se "o Kalashnikovs de amanhã."
"Ao contrário de armas nucleares, eles não requerem caro ou difícil de obter matérias-primas, de modo que eles vão se tornar onipresente e barato para todos os poderes militares significativos para produzir em massa", escrevem eles.
Nada vai parar, em seguida, tudo isso a partir de atingir o mercado negro, os pesquisadores argumentam. "Armas Autónomas são ideais para tarefas como assassinatos, nações desestabilizadores, subjugando as populações e matar seletivamente um grupo étnico particular," eles continuam.
A mensagem não é que AI é ruim em si, mas que há um perigo de usá-lo de uma forma que é diametralmente oposta à forma como ele deve ser usado - que é para o bem, para a cura e para aliviar o sofrimento humano.
O grupo fala mal de um seleto poucos que seria "manchar" um campo que, como biologia ou química, não é de todo preocupado com usar esse conhecimento para fazer armas. Qualquer uso negativo deste conhecimento só poderia levar o público a ficar para sempre contra o campo, portanto, negando-lhe a oportunidade de realmente ser um benefício no futuro, os visionários escrever.
Nada disso vem como uma surpresa para quem segue suas carreiras ou mantém-se atualizado com notícias AI. Wozniak, co-fundador da Apple com Steve Jobs, é conhecido por ser muito vocal sobre o assunto. Mas Em junho, ele postulou que a AI inteligente gostaria de controlar a própria natureza - e, portanto, os seres humanos. Como "animais de estimação". Ele até brincou sobre a alimentação de seu bife lombo do cão, porque "fazer aos outros ..."
"Eles vão ser tão inteligente, então, que eles sabem que têm de manter a natureza e os seres humanos são parte da natureza. Então, eu tenho sobre o meu medo de que nós seríamos substituídos por computadores. Eles vão nos ajudar. Estamos, pelo menos, os deuses originalmente ", disse ele a uma platéia Austin no Fórum de Tecnologia Freescale 2015.
Musk é outro cético. Uma biografia recém-autorizada descreve como ele se preocupa que seu amigo e CEO do Google, Larry Page poderia "produzir algo mal por acidente" (a empresa tem vindo a fazer grandes avanços em robótica e AI, incluindo a recente aquisição de Boston Dynamics - a empresa que assustou a todos com seus robôs de quatro patas animal-like).
"O risco de algo muito perigoso acontecendo é no de cinco anos prazo. Dez anos no máximo", Musk escreveu em um comentário privado vazou para uma publicação internet sobre os perigos da AI, há alguns meses atrás. "Por favor, note que eu sou normalmente de super pró-tecnologia e nunca levantou esta questão até os últimos meses. Este não é um caso de lobo chorando sobre algo que eu não entendo, "Muskescreveu.
Como Wozniak, Musk foi doar milhões para a causa da direção AI em uma direção benéfica para a humanidade.
Físico mundialmente famoso Stephen Hawking, que se baseia em uma forma de inteligência artificial para se comunicar, disse à BBC que se a tecnologia poderia coincidir com as capacidades humanas, "ele iria decolar por conta própria, ea própria re-design, a um ritmo cada vez maior."
Ele também disse que devido às limitações biológicas, não haveria nenhuma maneira que os seres humanos poderiam corresponder à velocidade do desenvolvimento da tecnologia.
"Os seres humanos, que são limitados pela evolução biológica lento, não poderia competir e seria substituído", disse ele. "O desenvolvimento da inteligência artificial completa pode significar o fim da raça humana", disse o gênio da física.
Anterior Proxima Inicio

0 comentários:

Postar um comentário