مسئولیت در قبال توصیه ها | Patently-O


توسط دنیس کراچ

دادگاه عالی ایالات متحده امروز به استدلال های شفاهی در مورد پرونده حقوقی اینترنتی بزرگ رسیدگی کرد گونزالس v. گوگل، با تمرکز بر بخش 230 (c) قانون ارتباطات از راه دور 1996. این ماده یک بندر امن گسترده برای ارائه دهندگان خدمات اینترنت ایجاد می کند. محافظت از آنها در برابر مسئولیت مرتبط با انتشار محتوای شخص ثالث. بخش 230 مدل ،ب و کار رسانه های اجتماعی غالب را تقویت کرد که در آن تقریباً تمام خدمات اصلی رسانه اینترنتی عمدتاً بر محتوای ارائه شده توسط کاربر متکی هستند. به YouTube، Instagram، Facebook، Twitter، TikTok، LinkedIn و غیره فکر کنید. به همین ترتیب، موتورهای جستجو مانند Google و Bing اساساً یک سرویس توصیه دربان برای محتوا و داده‌های توسعه‌یافته توسط کاربر ارائه می‌کنند. مدل‌های جدید هوش مصنوعی نیز با استفاده از مجموعه بزرگی از داده‌های ایجاد شده توسط کاربر کار می‌کنند. اما، هوش مصنوعی ممکن است متفاوت باشد، زیرا نسبت به بسیاری از رسانه‌های اجتماعی بیشتر محتوا تولید می‌کند.

قانون بندر امن به ویژه بیان می‌کند که با ارائه‌دهنده خدمات به‌،وان «ناشر» محتوای اطلاعاتی ارائه‌شده توسط شخص دیگری («ارائه‌دهنده محتوای اطلاعاتی دیگر») رفتار نمی‌شود. 47 USC 203(c). طبق قانون کامن لا، ناشر می تواند در قبال انتشار و توزیع مطالب افتراآمیز مسئول شناخته شود و بندر امن این مسئولیت بالقوه را از بین می برد. بنابراین، اگر شخصی یک ویدیوی افتراآمیز YouTube را پست کند، YouTube (Google) مسئولیتی در قبال انتشار ویدیو نخواهد داشت. (اگر بتو،د او را پیدا کنید، ممکن است فردی که ویدیو را پست کرده است، مسئول شناخته شود).

مسئولیت توصیه: علاوه بر انتشار ویدئو، همه شرکت‌های رسانه‌های اجتماعی از الگوریتم‌های پیچیده‌ای برای توصیه محتوا به کاربران استفاده می‌کنند. برای یوتیوب، ایده اصلی این است که کاربران را برای مدت طول، تری درگیر خود نگه دارد و در نتیجه درآمد تبلیغاتی را افزایش دهد. پرونده پیش روی دیوان عالی این سوال را مطرح می کند که آیا بندر امن بخش 230 (ج) شرکت های رسانه های اجتماعی را در برابر مسئولیت در زم، که توصیه های آنها باعث آسیب می شود محافظت می کند یا خیر. اگر تا به حال یک ساعت را برای پیمایش مرگ در TikTok هدر داده اید، می تو،د تشخیص دهید که سرویس ارائه شده یک جریان ثابت از محتوای نظارتی است که برای تماشای شما طراحی شده است. هر ویدیوی فردی چیزی است، اما واقعاً شما در جریان بودید. پس سوال این است که آیا قانون بندر امن کل این تعامل را توجیه می کند یا محدود به هر پست فردی است.

برای من، از برخی جهات، این شبیه به مبارزه دادگاه عالی بر سر منافع حریم خصوصی متمم چهارم مربوط به اطلاعات مکان تلفن همراه است. در حالی که ممکن است یک نقطه اطلاعاتی از نظر قانون اساسی محافظت نشود. اطلاعات 127 روزه موضوعی کاملاً متفاوت است. دیدن کارپنتر علیه ایالات متحده آمریکا, 138 S.Ct. 2206 (2018). در اینجا، بندر امن برای یک ویدیو یا پست توسط کاربر اعمال می‌شود، اما سایت‌ها آن‌ها را در جری، ثابت جمع‌آوری و مدیریت می‌کنند که ممکن است به ،وان یک موضوع کاملاً متفاوت دیده شود.

نوهمی گونزالس، فرزند گونزالس، در حملات تروریستی پاریس در سال 2015 که توسط داعش هماهنگ شده بود، کشته شد. در این دادخواست، گونزالس مدعی است که یوتیوب تا حدی مسئول است، زیرا الگوریتم‌های ارائه شده آن، توصیه‌هایی از ویدئوهای حامی داعش را به افراد مستعدی که سپس در حملات تروریستی که منجر به کشته شدن فرزندشان شد، شرکت کرده و از آنها حمایت می‌،د، ارائه می‌کرد. ممکن است فکر کنید که گونزالس ممکن است در اثبات علیت مشکل داشته باشد. من فکر می کنم درست است، اما قبل از اینکه واقعاً به آن موضوع برسد، پرونده بر اساس بخش 230 کوتاه شد.

حوزه نهم به نفع گوگل رای داد، و سپس دادگاه عالی با رسیدگی به این پرونده در مورد سوال زیر موافقت کرد:

آیا بخش 230(c)(1) سرویس‌های رایانه‌ای تعاملی را هنگامی که توصیه‌های هدفمندی از اطلاعات ارائه‌شده توسط ارائه‌دهنده محتوای اطلاعاتی دیگر ارائه می‌کنند، مصونیت می‌دهد، یا فقط مسئولیت سرویس‌های رایانه‌ای تعاملی را زم، که در کارکردهای سردبیری سنتی (مانند تصمیم‌گیری برای نمایش دادن) درگیر هستند، محدود می‌کند. با توجه به چنین اطلاعاتی؟

بیش از 80 پرونده به دیوان عالی با استدلال مواضع مختلف ارسال شد. این رقم برای یک پرونده دیوان عالی کشور بسیار بزرگ است. بسیاری از خلاصه‌ها استدلال می‌کنند که کوچک‌تر ، دامنه بخش 230 به طور اساسی از ت،رگرایی و مولد بودن آن‌لاین می‌کاهد. اگر TikTok را از خانه من خارج کند، ممکن است با آن مشکلی نداشته باشم.

همانطور که در بالا ذکر شد، به نظر می رسد که پرونده شاکیان فاقد برخی پیوندهای سببی است، و به نظر من شانس بسیار خوبی وجود دارد که دادگاه بر این اساس (از طریق پرونده خواهر مربوط به آن) تصمیم بگیرد. توییتر). سوال اولیه قاضی آلیتو از خواهان مشکل را برجسته می کند.

عدالت آلیتو: می ترسم با هر استدلالی که در حال حاضر می کنید کاملاً گیج شده باشم.

من همچنین از تواضع قاضی سوتومایور از طرف دادگاه قدرد، کردم.

قاضی سوتومایور: ما یک دادگاه هستیم. ما واقعاً از این چیزها نمی د،م. این 9 کارشناس بزرگ در اینترنت نیستند.

کنگره یک بندر امن جداگانه در زمینه حق چاپ به ،وان بخشی از DMCA تصویب کرد. یک تفاوت کلیدی این بود که دارندگان حق چاپ می توانستند برای محدودیت های بیشتر در بندر امن لابی کنند. به ،وان مثال، یک شرکت رسانه اجتماعی باید محتوای متخلف را به محض اطلاع از آن حذف کند. اطلاعیه DCMA-and-takedown-provision. بخش 230 هیچ گونه ا،امات حذف را شامل نمی شود. بنابراین، حتی پس از اینکه YouTube از محتوای افتراآمیز یا مضر مطلع شد، می‌تواند محتوا را بدون هیچ گونه مسئولیتی حفظ کند تا زم، که دادگاه به طور خاص دستور حذف آن را صادر کند. بحث‌های شفاهی در مورد اینکه آیا الگوریتم‌ها «خنثی» هستند یا خیر، بحث می‌،د، اما وکیل شاکی بی،ه پای، قانع‌کننده‌ای ارائه کرد: «وقتی متهم بداند الگوریتم‌اش این کار را انجام می‌دهد، نمی‌توان آن را خنثی نامید.»

[Note – I apologize, I s،ed writing this and accidentally hit publish too early.  A garbled post was up for about an ،ur while I was getting my haircut and eating breakfast.]


منبع: https://patentlyo.com/patent/2023/02/liability-for-recommendations.html