GDPR

Italy Bans Use of ChatGPT, Slaps 20 Million Euro Fine on OpenAI For Violating GDPR

For Quick Alerts Subscribe Now Stay updated with all the happenings around the globe. Click here View Sample For Quick Alerts ALLOW NOTIFICATIONS For Daily Alerts Just In 33 min ago Samsung Galaxy A54 5G Review: A Phone That Could Have Been Perfect 1 hr ago Xiaomi Mix Fold 3 foldable smartphone to feature waterproof

Must Watch

Italy Bans Use of ChatGPT, Slaps 20 Million Euro Fine on OpenAI For Violating GDPR

By Ritesh Singh

|

Italy’s data privacy regulator has put a temporary ban on ChatGPT on Friday, opening an investigation against OpenAI, the company behind the popular chatbot.

 

The Italian Data Protection Authority, through a press release, announced an immediate ban on using the AI chatbot in the country, listing various concerns about the generative AI chatbot. The primary objection is that there is no legal basis justifying the collection and mass storage of the data which is used to train OpenAI’s GPT model.

Italy Bans Use of ChatGPT

Additionally, the regulator said OpenAI does not reveal too much information about whose data it collects to train its generative AI model. The regulator alleged that OpenAI is violating Europe’s data privacy laws, including the General Data Protection Regulation, or GDPR.

However, the ban will not be permanent. It will only be in place till the regulator is able to determine whether the chatbot complies with GDPR.

The Italian data regulator also pointed out the fact that ChatGPT does not always provide accurate information to users. Some facts generated by the chatbot are not real, violating GDPR’s tenet against incorrect processing of personal data.

 

OpenAI too has acknowledged the inaccuracy in ChatGPT’s responses, stating in its FAQ section, that ChatGPT “will occasionally make up facts or ‘hallucinate’ outputs.”will occasionally make up facts or ‘hallucinate’ outputs.”

The regulator also alleged ChatGPT does not have any age verification mechanism, even though it is meant to be used by users above 13 years of age. The regulator alleged the chatbot exposes minors to unsuitable content for their age.

The regulator has given OpenAI 20 days to respond to the allegations, and provide measures it has taken to assuage the regulator’s concerns. Failure to do so may result in a fine of up to 20 million euros, or up to 4% of its annual global revenues.

Comments
More CHATGPT News
  • Elon Musk Threatens To Sue Microsoft: Alleges Illegal Use Of Twitter Data To Train ChatGPT?
    Elon Musk Threatens To Sue Microsoft: Alleges Illegal Use Of Twitter Data To Train ChatGPT?
  • Alphabet Loses $57 Billion As Samsung Replaces Google Search with Microsoft BingChat
    Alphabet Loses $57 Billion As Samsung Replaces Google Search with Microsoft BingChat
  • OpenAI To Improve Safety Standards On ChatGPT-4 By Sacrificing ChatGPT-5 Development?
    OpenAI To Improve Safety Standards On ChatGPT-4 By Sacrificing ChatGPT-5 Development?
  • OpenAI Launches Bug Bounty Program Offering Rewards of up to $2src,srcsrcsrc to Users
    OpenAI Launches Bug Bounty Program Offering Rewards of up to $20,000 to Users
  • Samsung Restricting Use of ChatGPT for its Employees: Report
    Samsung Restricting Use of ChatGPT for its Employees: Report
  • Use ChatGPT On Any Website And Webpage: Google Chrome Extensions For Generative AI Chatbot
    Use ChatGPT On Any Website And Webpage: Google Chrome Extensions For Generative AI Chatbot
  • Bard Is Not Trained On ChatGPT: Google Denies It Relied On Microsoft’s AI For
    Bard Is Not Trained On ChatGPT: Google Denies It Relied On Microsoft’s AI For “Training Purposes”
  • ChatGPT Used by Punjab and Haryana High Courts to Write Bail Order
    ChatGPT Used by Punjab and Haryana High Courts to Write Bail Order
  • OpenAI Releases GPT-4 With Image Input, Larger Word Count and Higher Accuracy
    OpenAI Releases GPT-4 With Image Input, Larger Word Count and Higher Accuracy
  • WatchGPT on Apple Watch Brings ChatGPT Directly to User’s Wrists
    WatchGPT on Apple Watch Brings ChatGPT Directly to User’s Wrists
  • Apple Blocks BlueMail App With ChatGPT API Citing Potential Harm to Minors
    Apple Blocks BlueMail App With ChatGPT API Citing Potential Harm to Minors
  • OpenAI Offers ChatGPT Integration In Third-Party Apps To Start Earning From Generative AI
    OpenAI Offers ChatGPT Integration In Third-Party Apps To Start Earning From Generative AI

Best Mobiles in India
  • Best Cameras
  • Best Selling
  • Upcoming
  • Samsung Galaxy S23 Ultra
    Samsung Galaxy S23 Ultra
    1,24,999
  • Xiaomi 13 Pro
    Xiaomi 13 Pro
    79,999
  • Apple iPhone 14 Pro Max
    Apple iPhone 14 Pro Max
    1,39,900
  • Apple iPhone 14 Plus
    Apple iPhone 14 Plus
    89,900
  • Apple iPhone 13 Pro Max
    Apple iPhone 13 Pro Max
    1,29,900
  • Google Pixel 7 Pro
    Google Pixel 7 Pro
    82,999
  • Google Pixel 7
    Google Pixel 7
    59,400
  • Samsung Galaxy S23
    Samsung Galaxy S23
    74,999
  • Samsung Galaxy S23 Plus
    Samsung Galaxy S23 Plus
    94,999
  • Vivo X8src Pro 5G
    Vivo X80 Pro 5G
    79,999
  • Apple iPhone 13
    Apple iPhone 13
    65,900
  • Samsung Galaxy M13 5G
    Samsung Galaxy M13 5G
    13,999
  • Redmi A1
    Redmi A1
    6,499
  • Samsung Galaxy Asrc4s
    Samsung Galaxy A04s
    13,499
  • Realme C35
    Realme C35
    11,999
  • Apple iPhone 14 Pro
    Apple iPhone 14 Pro
    1,29,900
  • OPPO A74 5G
    OPPO A74 5G
    17,990
  • Redmi Note 11 4G
    Redmi Note 11 4G
    12,999
  • Redmi 9A
    Redmi 9A
    7,332
  • iQOO Z6 5G
    iQOO Z6 5G
    13,999
  • Infinix SMART 7 HD
    Infinix SMART 7 HD

    6,999
  • HTC Wildfire E2 Play
    HTC Wildfire E2 Play

    10,999
  • Asus ROG Phone 7 Ultimate
    Asus ROG Phone 7 Ultimate

    99,999
  • ZTE Axon 5src Ultra
    ZTE Axon 50 Ultra

    34,999
  • Vivo Y1srcsrcA 5G
    Vivo Y100A 5G

    24,999
  • HTC Wildfire E3 Lite
    HTC Wildfire E3 Lite

    7,999
  • Motorola Moto G Power 5G
    Motorola Moto G Power 5G

    24,580
  • Infinix Hot 3src
    Infinix Hot 30

    9,999
  • Oppo A1 5G
    Oppo A1 5G

    23,840
  • Vivo Y11 (2src23)
    Vivo Y11 (2023)

    10,753
Read More About: chatgpt internet news

Read More

Be the first to write a comment.

Leave a Reply

Your email address will not be published. Required fields are marked *

GDPR

AIを「評価する」新しい職種が台頭——企業が気づき始めた安全網の必要性

評価は「ゲート」ではなく「継続的な実践」だ AIパイロットを通過したはずのエージェントが、本番環境で想定外の挙動を見せる——そんな事例が増えている。そこで、企業の中には「AI評価チーム」という新たな職種を設ける動きが出てきている。 Google CloudでプロダクトマネジメントとデータAIクラウドを統括するマネージングディレクター、Yasmeen Ahmad氏はこう語る。 「自律型の複雑なエージェントはこれまで存在しなかったものだ。実際に現場で動くエージェントを見た顧客は、評価は一度やれば終わりではなく、継続的に行うものだと気がつき始めている」 Googleでは、AI評価チームをエージェント開発グループに組み込み、開発と評価を並行して進める体制を取っている。「エージェントの構築と同時に評価が走っている。そうすることで、速い反復サイクルが生まれる」とAhmad氏は言う。 ソフトウェア開発会社Innowise のCIO、Maksim Hodar氏によれば、他の企業でも大規模なAI・IT部門の中にAI評価タスクフォースを設ける動きが始まっているという。新たに採用するのではなく、データアーキテクト、セキュリティ担当、コンプライアンス責任者を組み合わせてチームを編成するケースも多いという。 「あれば良い」から「なければならない」へ AI評価チームのメンバーは、コーディングとビジネス倫理の間に立つハイブリッドな役割を担う。Hodar氏はこう断言する。「AI評価チームは『あれば良い』から『不可欠』へと進化しつつある。企業が盲目的なAI導入から脱却し、いわゆる『安全網』に対してより慎重なアプローチを取り始めている」 オブザバビリティやガバナンス製品など、AIの質の低い出力を防ぐためのツールが登場しているが、テクノロジーだけでは不十分だとHodar氏は言う。そのITツールが会社の価値観やGDPR(EUの一般データ保護規制)などの規制に沿っているかどうかを判断するのは、人間の役割だ。 「テクノロジーは技術的なエラーを検出できても、文脈を評価することはできない。テクノロジーは情報を提供するが、最終的にゴーサインを出すのは評価チームだ。説明責任は自動化できない」 テスト環境を通過したエージェントが、現場で失敗する理由 GoogleのAhmad氏も同じ見解を示す。オブザバビリティツールが提供するデータは評価チームに不可欠だが、テクノロジーだけではAIモデルやエージェントの不良な出力を修正するために必要な文脈を提供できない。AIエージェントはテスト環境では優秀な成績を収める。しかし、現実の状況での挙動を追跡するには人間の評価チームが必要だ。 「エージェント型アプリケーションは、想定したシナリオの単体テストは通過するかもしれない。しかしエージェントシステムは非決定論的な意思決定者だ。現実の世界でどのような挙動をとりうるか、そのすべてをテストしているわけではない」とAhmad氏は言う。 トークンの使用量、ツールの使用状況、ツールの障害、推論エラーといったデータはオブザバビリティツールで把握できる。しかし、問題の多くを修正するには人間の評価者が必要だ。評価チームは、エージェントが頻繁に犯す推論エラーに文脈を与えることができる。 「評価チームがエージェントの検証に費やす時間の大半は、『なぜここで推論が失敗したのか』を突き止めることに使われる」とAhmad氏、「エージェントが十分なコンテキストにアクセスできていないからだ。解決策は、エージェントが適切な推論判断を下せるよう、適切なレイヤーに適切なコンテキストを与えることだ」と続けた。 最大の障壁は技術ではなく、人間だ 契約ライフサイクル管理ベンダーAgiloftでAIオペレーション担当バイスプレジデントを務めるNoe Ramos氏は、優れた評価チームがカバーすべき課題として、ガバナンス、組織の文化的な準備状況、業務フローとの整合、そしてAIツールのビジネスへの測定可能なインパクトを挙げる。 「最大の障壁は技術的なものではなく、人間だ。強力なツールを導入しても、人々がそれを信頼せず、理解せず、自分の仕事にどう役立つかが見えなければ、うまくいかない」 Ramos氏はこう強調する。「AIは勢いだけで展開できるものではない」。AIを本格的にスケールさせるには、体系的な評価の仕組みが不可欠だ。 「AI評価とは安全のためだけではない。AIがノイズを増やすのではなく、明確さと行動をもたらすことを確かめるためのものだ」とRamos氏は言う。 Ramos氏は最近、ITバイスプレジデントからAIオペレーション担当バイスプレジデントに昇格した。評価をAgiloftのAI運用モデルに組み込むことが、チームのミッションだ。 評価チームが機能するための条件 「AI開発の優先順位は、聞こえてくる要望の大きさではなく、組織への貢献度で決めるべきだ」とRamos氏は言う。AI施策が声の大きい部門に引きずられるリスクを、氏は常に意識している。 評価チームをどこに置くかも重要だ。ITやセキュリティ、データ部門だけでなく、現場の業務部門も巻き込んだ場所に置くべきだとRamos氏は主張する。評価リーダーには、自社の業務フローへの深い理解が求められる。 「AI評価が失敗するのは、企業が自社のワークフローを把握できていないからだ。業務フローを整理せず、ボトルネックを特定せず、優先順位を揃えないまま——そんな状態でAIを評価しても意味がない」…

評価は「ゲート」ではなく「継続的な実践」だ

AIパイロットを通過したはずのエージェントが、本番環境で想定外の挙動を見せる——そんな事例が増えている。そこで、企業の中には「AI評価チーム」という新たな職種を設ける動きが出てきている。

Google CloudでプロダクトマネジメントとデータAIクラウドを統括するマネージングディレクター、Yasmeen Ahmad氏はこう語る。

「自律型の複雑なエージェントはこれまで存在しなかったものだ。実際に現場で動くエージェントを見た顧客は、評価は一度やれば終わりではなく、継続的に行うものだと気がつき始めている」

Googleでは、AI評価チームをエージェント開発グループに組み込み、開発と評価を並行して進める体制を取っている。「エージェントの構築と同時に評価が走っている。そうすることで、速い反復サイクルが生まれる」とAhmad氏は言う。

ソフトウェア開発会社Innowise のCIO、Maksim Hodar氏によれば、他の企業でも大規模なAI・IT部門の中にAI評価タスクフォースを設ける動きが始まっているという。新たに採用するのではなく、データアーキテクト、セキュリティ担当、コンプライアンス責任者を組み合わせてチームを編成するケースも多いという。

「あれば良い」から「なければならない」へ

AI評価チームのメンバーは、コーディングとビジネス倫理の間に立つハイブリッドな役割を担う。Hodar氏はこう断言する。「AI評価チームは『あれば良い』から『不可欠』へと進化しつつある。企業が盲目的なAI導入から脱却し、いわゆる『安全網』に対してより慎重なアプローチを取り始めている」

オブザバビリティやガバナンス製品など、AIの質の低い出力を防ぐためのツールが登場しているが、テクノロジーだけでは不十分だとHodar氏は言う。そのITツールが会社の価値観やGDPR(EUの一般データ保護規制)などの規制に沿っているかどうかを判断するのは、人間の役割だ。

「テクノロジーは技術的なエラーを検出できても、文脈を評価することはできない。テクノロジーは情報を提供するが、最終的にゴーサインを出すのは評価チームだ。説明責任は自動化できない」

テスト環境を通過したエージェントが、現場で失敗する理由

GoogleのAhmad氏も同じ見解を示す。オブザバビリティツールが提供するデータは評価チームに不可欠だが、テクノロジーだけではAIモデルやエージェントの不良な出力を修正するために必要な文脈を提供できない。AIエージェントはテスト環境では優秀な成績を収める。しかし、現実の状況での挙動を追跡するには人間の評価チームが必要だ。

「エージェント型アプリケーションは、想定したシナリオの単体テストは通過するかもしれない。しかしエージェントシステムは非決定論的な意思決定者だ。現実の世界でどのような挙動をとりうるか、そのすべてをテストしているわけではない」とAhmad氏は言う。

トークンの使用量、ツールの使用状況、ツールの障害、推論エラーといったデータはオブザバビリティツールで把握できる。しかし、問題の多くを修正するには人間の評価者が必要だ。評価チームは、エージェントが頻繁に犯す推論エラーに文脈を与えることができる。

「評価チームがエージェントの検証に費やす時間の大半は、『なぜここで推論が失敗したのか』を突き止めることに使われる」とAhmad氏、「エージェントが十分なコンテキストにアクセスできていないからだ。解決策は、エージェントが適切な推論判断を下せるよう、適切なレイヤーに適切なコンテキストを与えることだ」と続けた。

最大の障壁は技術ではなく、人間だ

契約ライフサイクル管理ベンダーAgiloftでAIオペレーション担当バイスプレジデントを務めるNoe Ramos氏は、優れた評価チームがカバーすべき課題として、ガバナンス、組織の文化的な準備状況、業務フローとの整合、そしてAIツールのビジネスへの測定可能なインパクトを挙げる。

「最大の障壁は技術的なものではなく、人間だ。強力なツールを導入しても、人々がそれを信頼せず、理解せず、自分の仕事にどう役立つかが見えなければ、うまくいかない」

Ramos氏はこう強調する。「AIは勢いだけで展開できるものではない」。AIを本格的にスケールさせるには、体系的な評価の仕組みが不可欠だ。

「AI評価とは安全のためだけではない。AIがノイズを増やすのではなく、明確さと行動をもたらすことを確かめるためのものだ」とRamos氏は言う。

Ramos氏は最近、ITバイスプレジデントからAIオペレーション担当バイスプレジデントに昇格した。評価をAgiloftのAI運用モデルに組み込むことが、チームのミッションだ。

評価チームが機能するための条件

「AI開発の優先順位は、聞こえてくる要望の大きさではなく、組織への貢献度で決めるべきだ」とRamos氏は言う。AI施策が声の大きい部門に引きずられるリスクを、氏は常に意識している。

評価チームをどこに置くかも重要だ。ITやセキュリティ、データ部門だけでなく、現場の業務部門も巻き込んだ場所に置くべきだとRamos氏は主張する。評価リーダーには、自社の業務フローへの深い理解が求められる。

「AI評価が失敗するのは、企業が自社のワークフローを把握できていないからだ。業務フローを整理せず、ボトルネックを特定せず、優先順位を揃えないまま——そんな状態でAIを評価しても意味がない」…
Read More

Continue Reading
GDPR

Crisis Communications for Data Breaches & Product Recalls

When customer data spills or a recalled product stays on shelves, you face two immediate fires: legal deadlines and public panic.  The law doesn’t wait. Europe’s GDPR gives you three days to report a serious breach.  In the U.S., coordinating a recall means navigating agencies like the FDA (for food/drugs) or CPSC (for consumer products).&#160…

When customer data spills or a recalled product stays on shelves, you face two immediate fires: legal deadlines and public panic.  The law doesn’t wait. Europe’s GDPR gives you three days to report a serious breach.  In the U.S., coordinating a recall means navigating agencies like the FDA (for food/drugs) or CPSC (for consumer products). …
Read More

Continue Reading
GDPR

Global Manager Group Launches ISO 27701 PIMS with GDPR Documentation Kits

Global Manager Group launched an ISO 27701:2025 PIMS kit with 155+ editable GDPR-aligned templates, audit tools, and a compliance matrix to speed certification and privacy compliance…

Global Manager Group launched an ISO 27701:2025 PIMS kit with 155+ editable GDPR-aligned templates, audit tools, and a compliance matrix to speed certification and privacy compliance…
Read More

Continue Reading
GDPR

Fospha as TikTok’s New Measurement Partner

Understanding media performance in digital marketing is like navigating a maze that constantly changes. The emergence of platforms like TikTok has revolutionized how brands connect with their audience, adding layers of complexity and opportunity. However, with regulatory changes such as GDPR and iOS 14.5 updates, eCommerce brands are now facing a growing challenge: gaining clear

Understanding media performance in digital marketing is like navigating a maze that constantly changes. The emergence of platforms like TikTok has revolutionized how brands connect with their audience, adding layers of complexity and opportunity. However, with regulatory changes such as GDPR and iOS 14.5 updates, eCommerce brands are now facing a growing challenge: gaining clear [……
Read More

Continue Reading