人工知能:エルロン・ムスクとビル・ゲイツのように恐れるべきか?

Elon Musk(左)とBill Gates(右)は両方とも人工知能に関する懸念を提起している; Images:

特殊機能

暗号化と監視:インターネット時代の止まらない力と不動産; FTCはGoogleがAndroidの大いに必要とする制御を妨げることができるだろうか?この革命の死は大きく誇張されている; AppleのiPhone:過去と現在を見て将来の予測インテルの次なるフロンティア:パワーロボット、OEMのための冬の長い冬、ロボットが雇用をなくすと、人間はより良いことを見つけるだろう、マイクロソフトとモバイル:将来の道を探る、将来を築く勇気を持つ人再び?

Elon MuskとBill Gatesは過去半世紀の起業家や革新者ほど勇敢ではありませんでした。彼らは朝食のために大きなリスクを食べ、その後数十億ドルを払ってしまった。

しかし今日、どちらも同じことを恐れています:人工知能。

Appleは、それが好きか否かにかかわらず、陳腐化した技術を捨てるために必要な「勇気」を持っている;革新; Appleの失敗ファッションギャンブル

ゲイツ氏は、2015年2月のReddit AMAで、「まず、マシンが多くの仕事をして、インテリジェントではないことを覚えておいてください」と述べています。懸念される…そして[私は]理解していないなぜ人々は心配していない。

機械学習、タスク自動化、ロボティクスはすでにビジネスで広く使用されています。これらのAI技術と他のAI技術は倍増しようとしており、組織がそれらを最大限に活用できる方法を見ていきます。

2015年9月のCNNインタビューでは、Muskはさらに進んだ。彼は、「AIは人よりもはるかに進歩している。ロボットが人のように話をしたり行動したりするのを見るとかなり明らかだろう。どこか知性のある巨大なサーバーバンクが、人間の心ができることよりもはるかに大きくなる可能性があります。それは目と耳がどこにでもあり、あらゆるカメラ、ネットワークにアクセス可能なすべてのデバイス…この惑星の人類の地位は情報に依存しているので、諜報が超過すれば私たちは惑星を担当していきます」

ゲイツ氏とムスク氏は、人類の最も信頼できる思想家の2人であり、技術が人類にどのように恩恵をもたらすかについての強力な新しいアイデアを提出しただけでなく、物事をより良くする製品でも実践しています。

それでも、AIに関する彼らのコメントは、少し不思議で恐ろしいものに聞こえる傾向があります。

彼らは先にカーブしていて、私たちの残りの部分がまだ追いつかなかったことを理解することができますか?あるいは、彼らは単に年を取って、新しい技術革新を彼らが育った古い技術パラダイムに適合させることができないのだろうか?

公正であるために、スティーブンホーキングやスティーブウォズニアックといった他の人たちも、ゲイツ氏とムスク氏が立場を立証したという信頼感を与える同様の懸念を表明している。

これが本当に沸騰しているのは、ハイテク産業がAIの開発を支配するためのガイドラインを設定する時が来たことです。その理由は、技術が利他的意図で開発される可能性がありますが、最終的には、原子力技術が武器化され、適切にチェックされる前に急速に普及するのと同じように、最終的に破壊的な目的のために選択される可能性があるからです。

実際、Muskはそこで直接的な相関関係を作っています。 2014年に、彼は「AIを慎重に扱う必要があります。核兵器よりも潜在的に危険です」

AIは既に武装した無人機の登場により軍事用途に忍び込んでいる。もはや人間によって操縦されず、敵の標的に対する攻撃を行っている。今のところ、彼らは兵士によって遠隔操作されています。しかし、機械に特定の人間や人間のグループ(制服の敵)が与えられ、標的を獲得するときに殺すための自律性が与えられるまで、どれくらいの時間がかかるかという疑問が生じている。人間の生命を奪うために機械が判断を下すことが倫理的であるべきか?

これらは、AI技術が急速な発展を続ける前に、より幅広く起こらなければならない種類の会話です。確かに各国政府は法律や規制に関わりたいと思っているが、ハイテク業界自体は、国家や規制機関に先んじて独自の行動規範と倫理ガイドラインを組み込むことによって、それを先取りして形作ることができる。

最近リリースされた映画Ex Machinaが人工知能の対象を再現したことで、映画のAIの象徴的な描写を振り返る。

カリフォルニア大学バークレー校のコンピュータ科学教授であるスチュアート・ラッセルも、AIの開発を核兵器と比較しています。ラッセルは4月にジュネーブでこれらの懸念について国連に話しました。ラッセルは、「基本的なシナリオは明示的または暗示的な値の不一致である – AIシステムは人間が気にかけているすべての要素を考慮しない目標を与えられています。敵の前に[AIシステム]を構築しようとしている国々のことです。

ラッセルは、学生や研究者がすべてのAI研究の中心に人間の価値を保つためのガイドラインを置くことを推奨しました。

2014年にDeepMindを買収して、AIを長らく探検し、さらに深く掘り下げてきた民間部門の大手Googleは、AIで開発する技術の安全性を監督する倫理審査委員会を設置している。

このすべては、これらの会話の量を増やし、十分に考察された枠組みを整えるための官民パートナーシップを求めています。

AIがその広島を持つ前にそれをやろう。

企業がどのようにAIを使用するかについて詳しくは、ウェブサイト-elaptopcomputer.comの特集AIおよび未来のビジネスをご覧ください。

以前は月曜日の午前のオープニングに参加しました

ビクトリア州は、地元の技術才能の夢のフィールドを目指しています

今日のデジタルワークプレイスの構成原理は何ですか?

そうであってもなくても、Appleは本当に時代遅れの技術を排除するために必要な「勇気」を持っている

アップルのファッションギャンブル失敗