blogتدتاک

حریم خصوصی|تدتاک اطلاعات شخصی فرزندان ما در فضای مجازی

آیا می‌دانستید با نصب هر برنامه‌ای روی موبایل خودمان یا فرزندمان قراردادی را امضا می‌کنیم که به شرکت سازنده اجازه می‌دهد از اطلاعاتی که از طریق داده‌های ما بدست می‌آورد استفاده کند؟ آیا می‌دانستید از هر ۲۴ اپلیکیشن حوزه‌ی سلامت٬ ۱۹ اپلیکیشن داده‌هایی را که جمع‌آوری کرده به شرکت ثالث می‌فروشد؟ و آیا می‌دانستید که این شرکت‌های ثالث داده‌های ما را در  اختیار ۲۱۶ سازمان دیگر می‌گذارند که تعداد اندکی از آنها فقط مربوط به حوزه‌ی سلامت هستند؟ شیدا علیپور، نویسنده سایت کودک و نوجوان آی‌قصه در این گزارش نگاه جامعی به بحث حریم خصوصی و حکمرانی داده‌ها در جهان و این تدتاک داشته است.

حریم خصوصی

از تصمیم به بارداری تا لحظه‌ی مرگ

شاید برایتان سوال باشد که اطلاعات ما چطور ممکن است بدون خواست ما در دست سازمان‌های دیگر قرار بگیرد؟ جواب اینجاست که با رشد فناوری و استفاده‌ از اینترنت و فضای مجازی ناخواسته اطلاعات مورد نیاز این سازمان‌ها را در اختیارشان قرار می‌دهیم. وقتی تصمیم به بارداری داریم و جمله‌ی «چگونه باردار شویم» را در گوگل سرچ می‌کنیم٬ وقتی انقباضات بارداری داریم و در مورد آن در گوگل سرچ می‌کنیم٬ وقتی نوزادمان شیر نمی‌خورد یا بلد نیستیم باد گلویش را بگیریم در گوگل سرچ می‌کنیم و این موضوع همچنان ادامه دارد. بدین طریق سازمان‌های غول فناوری به راحتی از تصمیم به بارداری ما تا اتفاقاتی که در بدن ما یا فرزندمان می‌افتد آگاه می‌شوند.

ما که چیزی برای پنهان‌ کردن نداریم

پاسخ عده‌ای این است که ما چیزی برای پنهان کردن نداریم یا شخصیت مهمی نیستیم که اطلاعاتمان به درد کسی بخورد و برایمان مهم نیست که از داده‌های ما و فرزندانمان استفاده می‌کنند٬ اما موضوع پنهان کردن چیزی یا شخصیت مهمی بودن نیست٬ موضوع فقط این نیست که ما را از طریق این داده‌ها ردیابی می‌کنند بلکه موضوع مهم این است که بااستفاده از این داده‌ها ما را طبقه‌بندی می‌کنند. این سازمان‌ها با استفاده از هوش مصنوعی و تحلیلگرهای پیشبینی کننده٬ کودکان را بر اساس نژاد٬ مذهب٬ ثروت و حتی رفتارهای ناهنجار طبقه‌بندی می‌کنند وبا اسم کامل و آدرس و اطلاعات تماس در اختیار مصرف کنندگان این داده‌ها قرار می‌دهند.

درباره‌ی سخنران این تدتاک

ورونیکا باراسی، سخنران این تدتاک انسان‌شناس و مادر دو دختر است. او استاد مطالعات رسانه و ارتباطات در دانشکده‌ی علوم انسانی و اجتماعی در دانشگاه سنت گالن و همچنین صاحب کرسی رسانه و فرهنگ در موسسه مدیریت رسانه و ارتباطات است. دولت ایرلند در سال ۲۰۱۹ از او دعوت کرد تا در اجلاس دیجیتال درباره‌ی اخلاق هوش مصنوعی سخنرانی کند. باراسی معتقد است هوش مصنوعی و تحلیلگرهای پیش‌بینی کننده می‌توانند خیلی هم مفید باشند مثلا در زمینه‌ی بیماری‌ها یا تغییرات آب و هوایی اما از آنجا که این فناوری‌ها نمی‌توانند بی‌طرفانه و بدون جهت‌گیری عمل کنند در نتیجه قابل اعتماد در حوزه‌ی علوم انسانی نیستند.

طبقه‌بندی آدم‌ها

فناوری هوش مصنوعی و تحلیلگران داده‌ها٬ انسان‌ها را بر اساس داده‌های غیرواقع‌بینانه‌ای طبقه‌بندی می‌کنند که نمی‌توانیم به آنها اعتماد کنیم و تصمیمات را بر مبنای آن داده‌ها بگیریم زیرا انسان‌ها یک جوری فکر می‌کنند و یک جور دیگری عمل می‌کنند. نکته‌ی مهم‌تر اینکه این فناوری‌ها ساخته‌ی دست بشر هستند و الگوریتم‌های آنها همیشه با سوگیری‌ همراه است. یک نمونه‌ی آن فناوری هوش مصنوعی در پلیس نظارت و پیشگیری است که در الگوریتم آنها از داده‌های «چرک» استفاده می‌کنند٬ مثلا نژاد سیاه‌پوست را جزو دسته‌ی پرخطر قرار می‌دهند و این یعنی نژادپرستی و طبقه‌بندی آدم‌ها بر اساس نژادشان. طبقه‌بندی آدم‌ها با این داده‌های جهت‌دار موجب تبعیض در جامعه می‌شود و باعث می‌شود آدم‌ها نتوانند از شانس طبیعی خودشان در زندگی بهره مند شوند.

آینده‌ای بر اساس داده‌های امروز

آنجایی این فناوری مشکل‌ساز می‌شود که شرکت‌ها و سازمان‌ها با استفاده‌ از داده‌هایی که در مورد آدم‌ها بدست می‌آورند٬ آنها را طبقه بندی می‌کنند و در مورد آینده‌ی آنها تصمیم‌گیری می‌کنند. مثلا کودکان را از دو سالگی ردیابی می‌کنند و از حالا تعیین می‌کنند که این کودک در آینده قرار است چه مسیری را در زندگی طی کند و مستحق چه امتیازاتی هست یا نیست و بر اساس آن٬ مسیر زندگی او را هدایت می‌کنند. همین موجب می‌شود که کودکان از شانس برابری برخوردار نباشند. با استفاده‌ی هوشمندانه‌تر از فضای مجازی و حساسیت روی حریم خصوصی آینده‌ای عادلانه برای فرزندانمان رقم بزنیم.


تدتاک «حریم خصوصی» را با زیرنویس فارسی ببنید:


اگر به تماشای تدتاک‌ها علاقمند هستید. «اهمیت درخواستِ کمک را از کودکان بیاموزیم» را تماشا کنید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا