サークルで活動するには参加が必要です。
「サークルに参加する」ボタンをクリックしてください。
※参加を制限しているサークルもあります。
-
from: ぽっぽさん
4時間前
icon
AIに関する新聞記事!
皆さん、こんにちはァ~!(´∀`)
今日4月1日から「令和8年度」ですネ!
皆さん、今年度・今月も「たんぽぽ」をよろしくお願いします(´∀`)
さてさて、今年度もまずはお耳でございますゥ~!
昨夜~今(午前10時15分)の「虫の音・ジー音」とも割と元気(今日も低気圧の影響でしょうか?)でございます。
◆ AIに関する新聞記事! ◆ 1月下旬の2記事でございます。
言い訳でございますが、2月は確定申告で3月は娘からの「調べもの」がありまして、登山リーダーから頂いています新聞記事のアップが出来ませんでした。
今日は「予定なし」でございますので1月下旬の2つの記事のアップを。。。
(今日の出来事などは別のトピックに・・・)
【AIにメディアはどう向かう】 「メディアと倫理委員会」より
登山リーダーが取っている新聞の新聞社による「メディアと倫理委員会」の記事より
委員は、「宍戸常寿委員(東大大学院教授:憲法学・情報法が専門)」「高部眞規子委員(弁護士、元裁判官で知財高裁所長・高松高裁所長を歴任)」「鎌田靖委員(ジャーナリスト:元NHK解説副委員長)」「森亮二委員(弁護士:プライバシー保護・個人情報ほごほうが専門)」「二子石謙輔委員(セブン銀行特別顧問:同銀行社長・会長を歴任)」の5名です。
= <新聞>記事が届く過程で =
宍戸委員
・今、人力でやているメモ取りをAIにさせたり、事前に想定問題を壁打ちしたりすることで「質問力」といった人間にしか持っていないスキルをみがけるのではないか。
高部委員
・あくまでAIは「道具」であり、すべての責任を負うのは人間だということを外してはならない。
・AIによる成果物も最後は必ず人間が目を通し、人間の手で記事にしていく必要がある。
鎌田委員
・AIで業務を効率化することで、記者が成長する機会を奪ってしまわないだろうか。
= 新たな権力と捉え =
森委員
・AIはプラットホーム企業、そしてデータとセットで考えなければならない。
膨大なデータを学習させてつくるAIは、そのためのデータを持つプラットフォームと不可分だからだ。
・プラットフォームがユーザーの一挙一投足を追求し、センサーも高度化させる中で使われるAIにどんな問題があるのか。
学習データの収集やAIを利用したプロファイリングなどのビジネスモデルとともに報道・監視していく必要がある。
二子石委員
・ある地方の小中学校で「将来の夢を語ろう」というテーマで講話をしたことがあるが、そのときに子どもたちが口にしたのは、厳しい山を登った先にあるような夢ではなくて、ごく簡単に表現できそうなものばかりだった。
・先生に理由を聞くと、「今の子どもたちは、難しい仕事はAIに取って代わられて、なくなるんだと、みんな知っている」と言う。
チャレンジできない人間が急増しているのではないだろうか。
= 事業者との提携は =
森委員
・真偽不明の情報や、どこかで見たようなコンテンツが氾濫する世界で「ここだけは間違いない」と言えるのは、新聞だけになるだろう。
トラストアンカーであることを示すためには、AI絶縁宣言が必要だと考えている。
・・・とあります。
AIでは「フェイクニュース」や「フェイク画像」が簡単に作れるようですが、「新聞などの活字」では作成した責任が問われますよね・・・!
【AIの安全性を守るには】 村上明子氏(AIセーフティ・インスティチュート所長)
= 急激な進化と普及 リスク情報の共有 政府機関の役目に =
▼AISIの役割は?▲
・<AISI:エイシーは>日本におけるAIの安全性のハブとして、2024年2月に設立された「AIの安全・安心な活用を促す」ため、官民の取り組みを支援する政府機関だ。
・AIはこれまでの技術進歩と比べると20倍、30倍の速度で進展している。
リスクを最小限に抑えるための手段も刻々と変化するなか、AIを開発・活用しようとする組織が自力で最新情報をアップデートするのは難しくなっている。
・そこで「AISIが情報のハブ」となり、企業などがAI技術の基盤となるモデルを開発したり、AIを使ったサービスを提供したりする際に、安全性を担保するために注意すべき点や、踏むべき手順などの情報を共有しいる。
▲政府が昨年<2025年>12月にはじめてまとめたAIの国家戦略「AI基本計画」では、AISIの抜本的強化が盛り込まれたが?▼
・まず、昨年<2025年>5月に成立したAI法に、AIの研究開発・活用における「適正性の確保」が明記されました。
・生成AIは判断や推測の過程がブラックボックスだ。
開発者は自分がつくったAIモデルの振る舞いを完全に制御することが難しくなってきた。
そこで、生成AI時代の安全性の議論が必要になり、リスクを最小限に抑えるためのAIガバナンスも求められる。
▲生成AIのリスクにはどのようなものがあるのか?▼
・技術的リスクとして、誤回答やデータによるバイアス、AIシステムへの攻撃やAIを使ったサイバー攻撃がある。
また、ディープフェイクは偽情報の拡散、著作権の侵害、AIへの過度な心理的依存といった社会的リスクもある。
AISIに期待されるのは、主に技術的リスクへの対応だ。
= お墨付きを待たず企業自らの判断が技術革新を生む =
▲AIの開発競争は世界的に過熱しているが、日本政府のAI基本計画には「反転攻撃」「勝ち筋」といった言葉が並び、焦りがちがにじむが日本は負けているのか?▼
・少なくとも大勝ちはしていない。
私見だが、日本の強みは「品質」だと思う。
自動車や精密機械、家電製品でも、世界を席巻した理由は「品質」だった。
AIでも、日本の強みにできる部分に集中投資するべきだ。
「安全性は品質に直結する重要な要素」になる。
▲いま最も懸念しているAIのリスクは何か?▼
・日本国内に限ると、AIを使うことが目的になってしまったら怖い。
あくまでも、その先にある効率化やイノベーションの創出が目的であることを忘れてはならない。
▲グローバルのリスクは?▼
・世界でみたときに最も懸念するリスクは人間の悪用だ。 <その通りだと思います!>
・技術そのものには良いも悪いもなく、人として何にAIを使っていいのかは世界的に議論を進めなければならない。
技術だけを能天気に追いかけることはリスクになる。
「AIの暴走」というのも考えにくく、AGIと呼ばれる「汎用人工知能」が実現したとしても人間が制御できると思っているが、一番恐ろしいのは人間。
AIを悪用する人がいない世の中を作らないといけない。
<私は「AI利用規定」のような「国際ルール」が必要かと愚考いたしますが?>
・・・ということでこの新聞記事も難しい内容ですよね。
でも「AI」はすでに我々の身近に存在するものでございますゥ! フッ!
(上記の活字で目がショボショボですか?
気分転換に今朝パチリしました、我が家の庭の花の芽を・・・
左から「ハナズオウ」「すずらん」「ローズマリー」です)
-
サークルで活動するには参加が必要です。
「サークルに参加する」ボタンをクリックしてください。
※参加を制限しているサークルもあります。 - 0
-
サークルで活動するには参加が必要です。
「サークルに参加する」ボタンをクリックしてください。
※参加を制限しているサークルもあります。 - 0
icon拍手者リスト

-
コメント: 全0件


