A inteligência artificial controla armas, tudo bem?
- Pesquisa e desenvolvimento da Coréia do Sul de Armas Independentes causou profundas preocupações na indústria
Nosso repórter Zhang Yan
Recentemente, a Universidade de Ciência e Tecnologia da Ciência e a Companhia da Indústria Militar "Hanhua Systems" cooperou com a pesquisa e o desenvolvimento de armas independentes da Universidade de Nanjing foi o único estudioso do continente na China continental.
Zhou Zhihua acredita que o perigo é que ele permite que a máquina decida se destruir os seres humanos.
Nos últimos anos, a tecnologia de inteligência artificial fez um rápido progresso e a indústria está entusiasmada.No entanto, da perspectiva de muitos incidentes de opinião pública que foram expostos, a tecnologia de inteligência artificial está sendo seqüestrada por interesses, e as normas éticas e restrições legais são pálidas, o que despertou profundas preocupações na indústria. dono bet365
Armas autônomas devem aumentar um butter simples de regra
O dispositivo ameaçador, o dispositivo do não -gentleman, deve ser usado como último recurso.O bem conhecido pensador chinês Lao Tzu tem uma explicação adequada do uso de armas.
"Como um" mal "necessário, as armas são muito maiores em especificações éticas". Uma regra simples. em uma regra simples.
As armas inteligentes gerais estão disponíveis há muito tempo, mas todas elas são humanas.A arma independente é dar essa "decisão correta" à máquina para deixar a máquina decidir se deve matar os seres humanos.
"Se essas armas forem desenvolvidas, armas independentes levarão à Terceira Revolução na guerra, e a guerra terá maior probabilidade de ocorrer e cruel do que nunca".Tirano e terroristas podem usá -los para lidar com pessoas inocentes, e não ignoram nenhuma restrição moral.Se você abrir esta caixa Pandora, será difícil fechar.
Há algo que não deve ser tocado em nenhum campo de pesquisa científica.Por exemplo, as pessoas de clonagem são proibidas pela comunidade de ciências da vida convencional.Esta é a área restrita da ética científica e tecnológica, e também é o consenso dos valores convencionais e da moralidade humana.
"Ao usar armas, os seres humanos são dominados pelo livre arbítrio e pela responsabilidade moral, enquanto as armas automáticas são julgadas com base em procedimentos fixos. Não existe o assunto responsável nem a reflexão moral sobre a matança. Isso é terrível".
Duas especificações éticas são indispensáveis
Imagine: quando um carro auto -dirigido está dirigindo em alta velocidade, uma pessoa de repente corre na pista na frente. é a decisão do computador?
Esta é uma questão ética amplamente discutida na indústria de inteligência artificial.
“人工智能面对的伦理问题 , 其实都是传统伦理学讨论过的。只是问题形式变了 , 从而引起公众关注。” 程国斌告诉记者 , 把这个案例中的驾驶者换成人类 , 就不会引起Uma grande variedade de atenção.
A comunidade acadêmica divide a ética da inteligência artificial em dois aspectos.Os dois são indispensáveis.
Zhou Zhihua acredita que a forte inteligência artificial "não pode ser feita ou não deve ser feita!"Hawking, Musk, etc. Preocupa -se com "inteligência artificial que ameaçam os seres humanos", que se refere a uma forte inteligência artificial.Até agora, a pesquisa convencional não apoiou máquinas para ter consciência autônoma.
Para a ética e os regulamentos dos usuários técnicos, ainda é fragmentado e fraco.Por exemplo, nos últimos dias, Alipay não está pelo menos de acordo com os princípios mínimos e necessários, e o uso de informações não é multado por 50.000 yuans.Alguns internautas brincavam: "Este castigo é uma xícara de vinho".
"No campo das informações da rede, a tecnologia foi rápida demais, mas a ética não tem consenso. Por exemplo, a tecnologia de coleta de dados é muito eficiente, mas quase não há maneiras eficazes de controlar e avaliar. Quando isso acontece?" Cheng Guobin disse.
Ética não é um obstáculo para a inovação tecnológica
No passado, a ética parecia não estar relacionada à ciência da computação.O software escrito por "Code Farmers" parece ser improvável que cause danos físicos, dor ou morte.
No entanto, nos últimos anos, questões éticas aumentaram acentuadamente.Os incidentes de opinião pública de Big Data Killing não diminuíram, e os países estrangeiros revelaram que o vazamento de dados do Facebook é um escândalo para os serviços de campanha política.Os problemas negativos trazidos pela tecnologia aumentaram bastante a ansiedade e a desconfiança do público.
No novo semestre de 2018, Harvard, Cornell, MIT, Stanford e outras universidades americanas têm um novo curso sobre o currículo, chamado ética em inteligência artificial, ética em ciência de dados, ética técnica, ética robótica etc. dono bet365
Ao mesmo tempo, mais e mais empresas de inteligência artificial e mais artificiais, como Google, Amazon, Facebook, começaram a adotar ética científica e tecnológica e até estabelecer centros de ética especiais ou comitês de ética para recrutar políticas de inteligência artificial e pesquisadores éticos. dono bet365
Em nosso país, apenas começou a implementar sistematicamente a educação ética científica e tecnológica para pesquisas científicas.
"Isso ocorre porque a sociedade ocidental é influenciada pela cultura religiosa e sempre foi vigilante sobre o desenvolvimento do desenvolvimento científico e tecnológico e é mais sensível a questões éticas". Otimismo em tecnologia.
Em março de 2016, o "Alpha Dog" varreu o campeonato mundial do Go, fazendo reputação de inteligência artificial."A indústria, os círculos financeiros e tecnológicos são de uma só vez, mas a ética e as leis não acompanham". Depende de quem está usando.
O desenvolvimento tecnológico é diferente da exploração científica e aponta para uma meta mais específica.O sociólogo alemão moderno Max Weber propôs o conceito acadêmico da distinção entre a racionalidade racional e o valor das ferramentas. Para os seres humanos, o valor do bem -estar e do desenvolvimento social deve ser unificado.
"Quando os problemas éticos ocorrem, não basta confiar em dezenas de estudiosos para exigir.
No entanto, hoje, com a perspectiva moral cada vez mais diversificada, está se tornando cada vez mais difícil formar um consenso social.Mesmo assim, os especialistas ainda exigem que os desenvolvedores de inteligência artificial e os tomadores de decisão sejam mais auto -disciplinados; que os alunos podem sair do portão da escola para fazer isso para fazer o portão da escola para fazer isso para fazer isso. .
Fale conosco. Envie dúvidas, críticas ou sugestões para a nossa equipe através dos contatos abaixo:
Telefone: 0086-10-8805-0795
Email: portuguese@9099.com