GDPR

The 10 data privacy fails of the decade – and what we learnt from them

Today marks one of the most important days in the calendar for professionals in data  – Data Privacy Day! As we enter the 2020s, let’s take a look back over the data privacy fails that shaped the previous decade – and what we learnt from them –  so we can ensure the next 10 years are…

Today marks one of the most important days in the calendar for professionals in data  – Data Privacy Day! 

As we enter the 2020s, let’s take a look back over the data privacy fails that shaped the previous decade – and what we learnt from them –  so we can ensure the next 10 years are remembered for championing greatness in data privacy, and produce a decade of privacy wins.

1. Data privacy fails happened in the most unexpected of places…

Imagine buying an app-controlled, Bluetooth connected vibrator to spice up your love life for when your partner isn’t in town. It’s all fun and games until you discover your partner hasn’t been controlling it…it’s actually been hacked by a total stranger. 

Believe it or not, this actually happened in 2016, when it was discovered that anyone with a Bluetooth connection could hijack certain sex toys and control them because of their total lack of security protection. 

And if that’s not off-putting enough, it turned out the company was collecting and storing personal data gathered by the vibrator’s app – without their users’ consent. The app tracked the toys’ temperature and vibration intensity when paired with it – so essentially, the company ended up with large data files that detailed the exact sexual stimulation requirements of their customers. 

There is definitely such a thing as too much information…

Vibrators are not the only unusual objects that were hacked over this past decade. In 2017, cybercriminals managed to hack into a casino in North America through its internet-connected fish tank!

The aquarium in the lobby was fitted with a smart thermometer to regulate the tank’s temperate. It was through this device that the hackers were able to exploit a vulnerability and get a foothold in the network. Once there, they managed to access the high-roller database of gamblers and pull it back across the network, out the thermostat, and up into the cloud. You could say, they went fishing…

What have we learnt?

People should be able to buy things as personal as vibrators and as innocuous as fish tanks in safety. It’s simply astonishing that a vibrator was left so insecure when the risk of assault was so obvious. And it was even worse that the company was behaving so invasively as to capture such personal data without consent. While you could argue that the casino should have known better than to put a smart fish tank inside its security perimeter, the risk of exploiting a vulnerability to gain access to other systems has been well known for years, and the fish tank manufacturer simply should not have put its clients at such risk.

As the Internet of Things continues to grow, more devices will begin to come online, and these devices will come in many shapes and sizes. It’s crucial that the manufacturers of these devices follow a Privacy by Design model, and ensure that privacy and security are baked into products right from the start of the development lifecycle – not tacked on at the end. It’s far less hassle to think about data privacy at the beginning, and work it into a product, than to fix security flaws later down the line – if that’s even possible.

The adoption of IoT technology means cybercriminals can be more imaginative with their cybersecurity attacks, and these incidents are compelling reminders that the IoT devices are vulnerable to being hacked or compromised. The problem often occurs when manufacturers focus solely on the performance and usability of IoT devices, and ignore security measures and encryption mechanisms. Simple cybersecurity protocols such as authentication through OAuth, secure storage, penetration tests, and regular audits should be standard for internet-connected devices.

It’s also important for consumers to remember that any object, no matter how innocuous, that can connect to the internet has the potential to get hacked. Be vigilant, keep your operating systems and software up-to-date, use strong passwords, and if at all possible keep internet of things devices separated from important data..

2. The data privacy fail that stopped Harry from having his surname on his schoolbook…  

No-one wants to lose their identity, but an overenthusiastic reading of the GDPR in 2019 nearly led to just that. A primary school banned the use of children’s surnames on textbooks, in order to comply with (their perception of) GDPR regulations.

The bizarre situation led to a young boy, known as Harry Szlatoszlavek, being labelled as ‘Harry2’ by his classmates. ‘Harry2’ even received a Christmas card from another boy which read: ‘To Harry2 from Jack2.’,

Read More

Be the first to write a comment.

Leave a Reply

Your email address will not be published. Required fields are marked *

GDPR

AIを「評価する」新しい職種が台頭——企業が気づき始めた安全網の必要性

評価は「ゲート」ではなく「継続的な実践」だ AIパイロットを通過したはずのエージェントが、本番環境で想定外の挙動を見せる——そんな事例が増えている。そこで、企業の中には「AI評価チーム」という新たな職種を設ける動きが出てきている。 Google CloudでプロダクトマネジメントとデータAIクラウドを統括するマネージングディレクター、Yasmeen Ahmad氏はこう語る。 「自律型の複雑なエージェントはこれまで存在しなかったものだ。実際に現場で動くエージェントを見た顧客は、評価は一度やれば終わりではなく、継続的に行うものだと気がつき始めている」 Googleでは、AI評価チームをエージェント開発グループに組み込み、開発と評価を並行して進める体制を取っている。「エージェントの構築と同時に評価が走っている。そうすることで、速い反復サイクルが生まれる」とAhmad氏は言う。 ソフトウェア開発会社Innowise のCIO、Maksim Hodar氏によれば、他の企業でも大規模なAI・IT部門の中にAI評価タスクフォースを設ける動きが始まっているという。新たに採用するのではなく、データアーキテクト、セキュリティ担当、コンプライアンス責任者を組み合わせてチームを編成するケースも多いという。 「あれば良い」から「なければならない」へ AI評価チームのメンバーは、コーディングとビジネス倫理の間に立つハイブリッドな役割を担う。Hodar氏はこう断言する。「AI評価チームは『あれば良い』から『不可欠』へと進化しつつある。企業が盲目的なAI導入から脱却し、いわゆる『安全網』に対してより慎重なアプローチを取り始めている」 オブザバビリティやガバナンス製品など、AIの質の低い出力を防ぐためのツールが登場しているが、テクノロジーだけでは不十分だとHodar氏は言う。そのITツールが会社の価値観やGDPR(EUの一般データ保護規制)などの規制に沿っているかどうかを判断するのは、人間の役割だ。 「テクノロジーは技術的なエラーを検出できても、文脈を評価することはできない。テクノロジーは情報を提供するが、最終的にゴーサインを出すのは評価チームだ。説明責任は自動化できない」 テスト環境を通過したエージェントが、現場で失敗する理由 GoogleのAhmad氏も同じ見解を示す。オブザバビリティツールが提供するデータは評価チームに不可欠だが、テクノロジーだけではAIモデルやエージェントの不良な出力を修正するために必要な文脈を提供できない。AIエージェントはテスト環境では優秀な成績を収める。しかし、現実の状況での挙動を追跡するには人間の評価チームが必要だ。 「エージェント型アプリケーションは、想定したシナリオの単体テストは通過するかもしれない。しかしエージェントシステムは非決定論的な意思決定者だ。現実の世界でどのような挙動をとりうるか、そのすべてをテストしているわけではない」とAhmad氏は言う。 トークンの使用量、ツールの使用状況、ツールの障害、推論エラーといったデータはオブザバビリティツールで把握できる。しかし、問題の多くを修正するには人間の評価者が必要だ。評価チームは、エージェントが頻繁に犯す推論エラーに文脈を与えることができる。 「評価チームがエージェントの検証に費やす時間の大半は、『なぜここで推論が失敗したのか』を突き止めることに使われる」とAhmad氏、「エージェントが十分なコンテキストにアクセスできていないからだ。解決策は、エージェントが適切な推論判断を下せるよう、適切なレイヤーに適切なコンテキストを与えることだ」と続けた。 最大の障壁は技術ではなく、人間だ 契約ライフサイクル管理ベンダーAgiloftでAIオペレーション担当バイスプレジデントを務めるNoe Ramos氏は、優れた評価チームがカバーすべき課題として、ガバナンス、組織の文化的な準備状況、業務フローとの整合、そしてAIツールのビジネスへの測定可能なインパクトを挙げる。 「最大の障壁は技術的なものではなく、人間だ。強力なツールを導入しても、人々がそれを信頼せず、理解せず、自分の仕事にどう役立つかが見えなければ、うまくいかない」 Ramos氏はこう強調する。「AIは勢いだけで展開できるものではない」。AIを本格的にスケールさせるには、体系的な評価の仕組みが不可欠だ。 「AI評価とは安全のためだけではない。AIがノイズを増やすのではなく、明確さと行動をもたらすことを確かめるためのものだ」とRamos氏は言う。 Ramos氏は最近、ITバイスプレジデントからAIオペレーション担当バイスプレジデントに昇格した。評価をAgiloftのAI運用モデルに組み込むことが、チームのミッションだ。 評価チームが機能するための条件 「AI開発の優先順位は、聞こえてくる要望の大きさではなく、組織への貢献度で決めるべきだ」とRamos氏は言う。AI施策が声の大きい部門に引きずられるリスクを、氏は常に意識している。 評価チームをどこに置くかも重要だ。ITやセキュリティ、データ部門だけでなく、現場の業務部門も巻き込んだ場所に置くべきだとRamos氏は主張する。評価リーダーには、自社の業務フローへの深い理解が求められる。 「AI評価が失敗するのは、企業が自社のワークフローを把握できていないからだ。業務フローを整理せず、ボトルネックを特定せず、優先順位を揃えないまま——そんな状態でAIを評価しても意味がない」…

評価は「ゲート」ではなく「継続的な実践」だ

AIパイロットを通過したはずのエージェントが、本番環境で想定外の挙動を見せる——そんな事例が増えている。そこで、企業の中には「AI評価チーム」という新たな職種を設ける動きが出てきている。

Google CloudでプロダクトマネジメントとデータAIクラウドを統括するマネージングディレクター、Yasmeen Ahmad氏はこう語る。

「自律型の複雑なエージェントはこれまで存在しなかったものだ。実際に現場で動くエージェントを見た顧客は、評価は一度やれば終わりではなく、継続的に行うものだと気がつき始めている」

Googleでは、AI評価チームをエージェント開発グループに組み込み、開発と評価を並行して進める体制を取っている。「エージェントの構築と同時に評価が走っている。そうすることで、速い反復サイクルが生まれる」とAhmad氏は言う。

ソフトウェア開発会社Innowise のCIO、Maksim Hodar氏によれば、他の企業でも大規模なAI・IT部門の中にAI評価タスクフォースを設ける動きが始まっているという。新たに採用するのではなく、データアーキテクト、セキュリティ担当、コンプライアンス責任者を組み合わせてチームを編成するケースも多いという。

「あれば良い」から「なければならない」へ

AI評価チームのメンバーは、コーディングとビジネス倫理の間に立つハイブリッドな役割を担う。Hodar氏はこう断言する。「AI評価チームは『あれば良い』から『不可欠』へと進化しつつある。企業が盲目的なAI導入から脱却し、いわゆる『安全網』に対してより慎重なアプローチを取り始めている」

オブザバビリティやガバナンス製品など、AIの質の低い出力を防ぐためのツールが登場しているが、テクノロジーだけでは不十分だとHodar氏は言う。そのITツールが会社の価値観やGDPR(EUの一般データ保護規制)などの規制に沿っているかどうかを判断するのは、人間の役割だ。

「テクノロジーは技術的なエラーを検出できても、文脈を評価することはできない。テクノロジーは情報を提供するが、最終的にゴーサインを出すのは評価チームだ。説明責任は自動化できない」

テスト環境を通過したエージェントが、現場で失敗する理由

GoogleのAhmad氏も同じ見解を示す。オブザバビリティツールが提供するデータは評価チームに不可欠だが、テクノロジーだけではAIモデルやエージェントの不良な出力を修正するために必要な文脈を提供できない。AIエージェントはテスト環境では優秀な成績を収める。しかし、現実の状況での挙動を追跡するには人間の評価チームが必要だ。

「エージェント型アプリケーションは、想定したシナリオの単体テストは通過するかもしれない。しかしエージェントシステムは非決定論的な意思決定者だ。現実の世界でどのような挙動をとりうるか、そのすべてをテストしているわけではない」とAhmad氏は言う。

トークンの使用量、ツールの使用状況、ツールの障害、推論エラーといったデータはオブザバビリティツールで把握できる。しかし、問題の多くを修正するには人間の評価者が必要だ。評価チームは、エージェントが頻繁に犯す推論エラーに文脈を与えることができる。

「評価チームがエージェントの検証に費やす時間の大半は、『なぜここで推論が失敗したのか』を突き止めることに使われる」とAhmad氏、「エージェントが十分なコンテキストにアクセスできていないからだ。解決策は、エージェントが適切な推論判断を下せるよう、適切なレイヤーに適切なコンテキストを与えることだ」と続けた。

最大の障壁は技術ではなく、人間だ

契約ライフサイクル管理ベンダーAgiloftでAIオペレーション担当バイスプレジデントを務めるNoe Ramos氏は、優れた評価チームがカバーすべき課題として、ガバナンス、組織の文化的な準備状況、業務フローとの整合、そしてAIツールのビジネスへの測定可能なインパクトを挙げる。

「最大の障壁は技術的なものではなく、人間だ。強力なツールを導入しても、人々がそれを信頼せず、理解せず、自分の仕事にどう役立つかが見えなければ、うまくいかない」

Ramos氏はこう強調する。「AIは勢いだけで展開できるものではない」。AIを本格的にスケールさせるには、体系的な評価の仕組みが不可欠だ。

「AI評価とは安全のためだけではない。AIがノイズを増やすのではなく、明確さと行動をもたらすことを確かめるためのものだ」とRamos氏は言う。

Ramos氏は最近、ITバイスプレジデントからAIオペレーション担当バイスプレジデントに昇格した。評価をAgiloftのAI運用モデルに組み込むことが、チームのミッションだ。

評価チームが機能するための条件

「AI開発の優先順位は、聞こえてくる要望の大きさではなく、組織への貢献度で決めるべきだ」とRamos氏は言う。AI施策が声の大きい部門に引きずられるリスクを、氏は常に意識している。

評価チームをどこに置くかも重要だ。ITやセキュリティ、データ部門だけでなく、現場の業務部門も巻き込んだ場所に置くべきだとRamos氏は主張する。評価リーダーには、自社の業務フローへの深い理解が求められる。

「AI評価が失敗するのは、企業が自社のワークフローを把握できていないからだ。業務フローを整理せず、ボトルネックを特定せず、優先順位を揃えないまま——そんな状態でAIを評価しても意味がない」…
Read More

Continue Reading
GDPR

Crisis Communications for Data Breaches & Product Recalls

When customer data spills or a recalled product stays on shelves, you face two immediate fires: legal deadlines and public panic.  The law doesn’t wait. Europe’s GDPR gives you three days to report a serious breach.  In the U.S., coordinating a recall means navigating agencies like the FDA (for food/drugs) or CPSC (for consumer products).&#160…

When customer data spills or a recalled product stays on shelves, you face two immediate fires: legal deadlines and public panic.  The law doesn’t wait. Europe’s GDPR gives you three days to report a serious breach.  In the U.S., coordinating a recall means navigating agencies like the FDA (for food/drugs) or CPSC (for consumer products). …
Read More

Continue Reading
GDPR

Global Manager Group Launches ISO 27701 PIMS with GDPR Documentation Kits

Global Manager Group launched an ISO 27701:2025 PIMS kit with 155+ editable GDPR-aligned templates, audit tools, and a compliance matrix to speed certification and privacy compliance…

Global Manager Group launched an ISO 27701:2025 PIMS kit with 155+ editable GDPR-aligned templates, audit tools, and a compliance matrix to speed certification and privacy compliance…
Read More

Continue Reading
GDPR

Fospha as TikTok’s New Measurement Partner

Understanding media performance in digital marketing is like navigating a maze that constantly changes. The emergence of platforms like TikTok has revolutionized how brands connect with their audience, adding layers of complexity and opportunity. However, with regulatory changes such as GDPR and iOS 14.5 updates, eCommerce brands are now facing a growing challenge: gaining clear

Understanding media performance in digital marketing is like navigating a maze that constantly changes. The emergence of platforms like TikTok has revolutionized how brands connect with their audience, adding layers of complexity and opportunity. However, with regulatory changes such as GDPR and iOS 14.5 updates, eCommerce brands are now facing a growing challenge: gaining clear [……
Read More

Continue Reading