私達と接続

EU

人工知能:脅威と機会

SHARE:

公開済み

on

私たちはあなたのサインアップを使用して、あなたが同意した方法でコンテンツを提供し、あなたの理解を深めます。 いつでも退会できます。

Artificial intelligence (AI) affects our lives more and more.人工知能(AI)は私たちの生活にますます影響を与えています。 Learn about the opportunities and threats for security, democracy, businesses and jobs.セキュリティ、民主主義、ビジネス、仕事の機会と脅威について学びましょう。

AIは私たちの生活に大きな違いをもたらすことができます 社会 –良くも悪くも-そして欧州議会は 委員会 to examine the impact of the technology.テクノロジーの影響を調べるため。 Below are some key opportunities and threats connected to future applications of AI.以下は、AIの将来のアプリケーションに関連するいくつかの重要な機会と脅威です。

人工知能とは何か、そしてそれがどのように使われるかについてもっと読む.

175ゼタバイト世界で生成されるデータの量は、33年の2018ゼタバイトから175年には2025ゼタバイトに増加すると予想されています(XNUMXゼタバイトはXNUMX億ギガバイトです)

AIの利点

EU諸国は、すでにデジタル業界と企業間アプリケーションに強いです。 With a high-quality digital infrastructure and a regulatory framework that protects privacy and freedom of speech, the EU could高品質のデジタルインフラストラクチャと、プライバシーと言論の自由を保護する規制の枠組みにより、EUは データエコノミーとそのアプリケーションのグローバルリーダーになる.

人々にとってのAIの利点

AIは、ヘルスケアの改善、より安全な車やその他の輸送システム、カスタマイズされた、より安価で長持ちする製品やサービスを提供する人々を支援する可能性があります。 また、情報、教育、トレーニングへのアクセスを容易にすることもできます。 遠隔教育の必要性は、 COVID-19パンデミック。 AIはまた、ロボットが仕事の危険な部分に使用できるため、職場をより安全にし、AI主導の産業が成長し変化するにつれて新しい仕事のポジションを開くことができます。

広告

ビジネスのための人工知能の機会

企業にとって、AIは、ヨーロッパの企業がすでに強力な地位を占めているセクター(グリーンおよび循環経済、機械、農業、ヘルスケア、ファッション、観光)を含め、新世代の製品およびサービスの開発を可能にします。 売上を伸ばし、機械のメンテナンスを改善し、生産量と品質を向上させ、顧客サービスを改善し、エネルギーを節約することができます。

11年までにAIに関連する労働生産性の37-2035%の推定増加(議会のシンクタンク2020)

公共サービスにおけるAIの機会

公共サービスで使用されるAIは、コストを削減し、公共交通機関、教育、エネルギー、廃棄物管理に新しい可能性を提供し、製品の持続可能性を向上させることもできます。 このようにして、AIは目標の達成に貢献することができます EUグリーンディール.

1.5〜4%AIが2030年までに世界の温室効果ガス排出量を削減するのにどの程度役立つかを推定(議会のシンクタンク2020)

民主主義の強化

データベースの精査を使用することで民主主義を強化し、防止することができます 偽情報とサイバー攻撃 AIは、たとえば、採用決定における偏見の可能性を軽減し、代わりに分析データを使用することによって、多様性と開放性をサポートすることもできます。

AI、セキュリティ、安全性

AIは、大量のデータセットをより高速に処理でき、囚人の飛行リスクをより正確に評価し、犯罪やテロ攻撃を予測して防止できるため、犯罪防止や刑事司法システムでより多く使用されると予測されています。 これは、違法で不適切なオンライン行動を検出して対応するために、オンラインプラットフォームですでに使用されています。

軍事問題では、AIはハッキングやフィッシングの防御および攻撃戦略、またはサイバー戦争の主要システムを標的にするために使用できますが、自律型兵器システムの主な利点は、物理的危害のリスクを低減して武力紛争に巻き込まれる可能性があることです。

AIの脅威と課題

AIシステムへの依存度の高まりも、潜在的なリスクをもたらします。

AIの過少使用と過剰使用

AIの活用不足は、主要な脅威と見なされています。EUの機会を逃すと、EUグリーンディールなどの主要なプログラムの実施が不十分になり、世界の他の地域に対する競争上の優位性が失われ、経済の停滞と人々の可能性が低下する可能性があります。 Underuse could derive from public and business' mistrust in AI, poor infrastructure, lack of initiative, low investments, or, since AI's machine learning is dependent on data, from fragmented digital markets.十分に活用されていないのは、AIに対する一般市民や企業の不信、不十分なインフラストラクチャ、イニシアチブの欠如、低投資、またはAIの機械学習はデータに依存しているため、断片化されたデジタル市場に起因する可能性があります。

使いすぎも問題になる可能性があります。たとえば、複雑な社会問題を説明するためにAIを使用するなど、役に立たないことが判明したAIアプリケーションに投資したり、AIが適していないタスクにAIを適用したりします。

責任:AIによって引き起こされた損害の責任者は誰ですか?

An important challenge is to determine who is responsible for damage caused by an AI-operated device or service: in an accident involving a self-driving car.重要な課題は、自動運転車が関係する事故の場合に、AIが操作するデバイスまたはサービスによって引き起こされた損害の責任者を特定することです。 Should the damage be covered by the owner, the car manufacturer or the programmer?損傷は所有者、自動車メーカー、またはプログラマーがカバーする必要がありますか?

If the producer was absolutely free of accountability, there might be no incentive to provide good product or service and it could damage people's trust in the technology;生産者に説明責任がまったくない場合、優れた製品やサービスを提供するインセンティブがない可能性があり、テクノロジーに対する人々の信頼を損なう可能性があります。 but regulations could also be too strict and stifle innovation.しかし、規制が厳しすぎてイノベーションを阻害する可能性もあります。

基本的権利と民主主義に対するAIの脅威

AIが生成する結果は、AIの設計方法と使用するデータによって異なります。 Both design and data can be intentionally or unintentionally biased.設計とデータの両方に、意図的または意図せずにバイアスをかけることができます。 For example, some important aspects of an issue might not be programmed into the algorithm or might be programmed to reflect and replicate structural biases.たとえば、問題のいくつかの重要な側面がアルゴリズムにプログラムされていない場合や、構造的なバイアスを反映および複製するようにプログラムされている場合があります。 In adcition, the use of numbers to represent complex social reality could make the AI seem factual and precise when it isn't .複雑な社会的現実を表すために数字を使用すると、そうでない場合でもAIが事実に基づいて正確に見える可能性があります。 This is sometimes referred to as mathwashing.これは、数学洗浄と呼ばれることもあります。

適切に行われなかった場合、AIは、民族、性別、雇用または解雇の年齢、ローンの提供、さらには刑事手続きに関するデータに影響される決定につながる可能性があります。

AIは、プライバシーとデータ保護の権利に深刻な影響を与える可能性があります。 It can be for example used in face recognition equipment or for online tracking and profiling of individuals.たとえば、顔認識装置で使用したり、個人のオンライン追跡やプロファイリングに使用したりできます。 In addition, AI enables merging pieces of information a person has given into new data, which can lead to results the person would not expect.さらに、AIを使用すると、人が提供した情報を新しいデータにマージできるため、人が予期しない結果につながる可能性があります。

AIは、人の以前のオンライン行動に基づいてオンラインエコーチェンバーを作成し、複数の、等しくアクセス可能で包括的な公開討論のための環境を作成するのではなく、人が望むコンテンツのみを表示することですでに非難されています。 It can even be used to create extremely realistic fake video, audio and images, known as deepfakes, which can present financial risks, harm reputation, and challenge decision making.ディープフェイクと呼ばれる非常にリアルな偽のビデオ、オーディオ、画像を作成するためにも使用できます。これは、経済的リスクをもたらし、評判を傷つけ、意思決定に挑戦する可能性があります。 All of this could lead to separation and polarization in the public sphere and manipulate elections.これらすべてが、公共圏の分離と二極化につながり、選挙を操作する可能性があります。

AIは、特定の信念や行動に関連する個人を追跡およびプロファイルできるため、集会と抗議の自由を害する役割を果たす可能性もあります。

AIが仕事に与える影響

AIはまた、より良い仕事を生み出し、生み出すことが期待されていますが、教育と訓練は、長期的な失業を防ぎ、熟練した労働力を確保する上で重要な役割を果たします。

OECD諸国の仕事の14%は高度に自動化可能であり、さらに32%は大幅な変更に直面する可能性があります(議会のシンクタンク2020による推定)。

 競技

より多くの情報を持つ企業が優位に立ち、競合他社を効果的に排除する可能性があるため、情報を収集することは競争の歪みにもつながる可能性があります。

安全とセキュリティのリスク

AI applications that are in physical contact with humans or integrated into the human body could pose safety risks as they may be poorly designed, misused or hacked.人間と物理的に接触している、または人体に統合されているAIアプリケーションは、設計が不十分、誤用、またはハッキングされる可能性があるため、安全上のリスクをもたらす可能性があります。 Poorly regulated use of AI in weapons could lead to loss of human control over dangerous weapons.武器でのAIの使用が適切に規制されていないと、危険な武器に対する人間の制御が失われる可能性があります。

透明性の課題

Imbalances of access to information could be exploited.情報へのアクセスの不均衡が悪用される可能性があります。 For example, based on a person's online behaviour or other data and without their knowledge, an online vendor can use AI to predict someone is willing to pay, or a political campaign can adapt their message.たとえば、個人のオンライン行動やその他のデータに基づいて、彼らの知らないうちに、オンラインベンダーは、AIを使用して、誰かが喜んで支払うことを予測したり、政治キャンペーンでメッセージを適応させたりできます。 Another transparency issue is that sometimes it can be unclear to people whether they are interacting with AI or a person.もうXNUMXつの透明性の問題は、AIとやり取りしているのか、人とやり取りしているのかがはっきりしない場合があることです。

この記事を共有する:

EU Reporterは、さまざまな外部ソースから幅広い視点を表現した記事を公開しています。 これらの記事での立場は、必ずしもEUレポーターの立場ではありません。

トレンド