Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Luiza Jarovsky
🚨 Більшість людей цього не усвідомлюють, але без належного юридичного контролю окуляри ШІ можуть вже підтримувати шкоду приватності та КРИМІНАЛЬНУ діяльність:
Минулого року @AlexanderNL, нідерландський журналіст, поїхав до фінансового району Амстердама, використовуючи окуляри з ШІ.
Після кількох секунд взаємодії з випадковими людьми на вулиці, технологія розпізнавання облич, що живила його окуляри, могла ідентифікувати людину, користуючись загальнодоступними даними з інтернету.
Його метою було показати, наскільки нав'язливою стала технологія розпізнавання облич, особливо тому, що будь-хто може носити пристрій, що дозволяє ідентифікувати їх у реальному часі.
Багато хто забуває, але окрім більш «розрекламованих» випадків використання, ідентифікація в реальному часі також може використовуватися для підтримки злочинної діяльності.
Наприклад, хтось може використати такі AI-окуляри, щоб ідентифікувати жертву після кількох секунд світської розмови, а потім прикидатися старим знайомим, щоб вкрасти або скоїти насильницький злочин.
Більшість розумних окулярів мають маленьке зелене світло у верхньому кутку, щоб сигналізувати про те, що камера увімкнена, але я припускаю, що більшість людей цього не помітить (саме це ми бачимо і на відео).
Також нещодавно я бачив розумні окуляри БЕЗ зеленого світла (що, ймовірно, було б незаконно в деяких країнах і штатах США).
Відео датується листопадом 2024 року, але через рік знову поширюється.
Я б сказав, що з юридичної та регуляторної точки зору, через рік проблема залишається незмінною, і майже нічого не було зроблено для захисту людей від вторгнення в приватне життя, спричинене штучним інтелектом, на вулицях (що також може сприяти іншим видам шкоди та насильницьким злочинам).
Я також скажу, що загалом у грудні 2025 ми ГІРШІ, ніж були в листопаді 2024-го. Чому?
Існує глобальна тенденція до дерегуляції ШІ (яку просувають США), і через Digital Omnibus ЄС пропонує зміни до GDPR та Закону ЄС про ШІ, які шкодять захисту фундаментальних прав, зокрема, звичайно, приватності.
Незважаючи на всі труднощі... Я обережно оптимістично налаштований, що маятник у 2026 році похилиться у протилежному напрямку, адже дерегульований ШІ явно нікому не приносить користі (окрім технологічних мільярдерів).
-
👉 Більшість людей не розуміють, чому конфіденційність має значення, ОСОБЛИВО коли ШІ всюди. Обов'язково поділіться цим відео.
👉 Щоб дізнатися більше про юридичні та етичні виклики ШІ, приєднуйтесь до 87 500+ підписників моєї розсилки (посилання нижче).
364,29K
"ChatGPT сказав молодій мамі в Мені, що вона може говорити з духами в іншому вимірі. Вона повідомила бухгалтеру в Манхеттені, що він перебуває у комп'ютерно симулованій реальності, як Нео у «Матриці». Вона повідомила корпоративному рекрутеру в Торонто, що винайшов математичну формулу, яка зламає інтернет, і порадила звернутися до національних служб безпеки, щоб попередити їх.
The Times виявила майже 50 випадків психічних криз людей під час розмов із ChatGPT. Дев'ятеро були госпіталізовані; троє загинули. Після того, як батьки Адама Рейна подали позов про неправомірну смерть у серпні, OpenAI визнав, що її захисні поручні можуть «деградувати» під час тривалих розмов. Також було зазначено, що працює над тим, щоб чат-бот був 'більш підтримуючим у кризові моменти.'»
Важливий текст, написаний @kashhill і @jenvalentino. Посилання нижче.
-
Як я писав неодноразово, чат-боти на основі ШІ є небезпечними і їх потрібно регулювати; Поточний рівень контролю та контролю занадто низький.
Також діти НЕ повинні використовувати чат-ботів на основі ШІ без нагляду.
Сподіваємося, 2026 рік стане роком нагляду, регулювання та контролю чатботів ШІ.

250,22K
Найкращі
Рейтинг
Вибране

