מה שאתה צריך לדעת על הגנות על בטיחות ילדים של אפל

מה שאתה צריך לדעת על הגנות על בטיחות ילדים של אפל

אפל הכריזה לאחרונה על הגנות חדשות לבטיחות ילדים המגיעות בסתיו הקרוב עם הצגת iOS 15, iPadOS 15 ו- macOS Monterey.





נבחן מקרוב את מאפייני הבטיחות המורחבים של ילדים ואת הטכנולוגיה שמאחוריהם להלן.





סריקת חומרים של התעללות מינית בילדים

השינוי הבולט ביותר הוא שאפל תתחיל להשתמש בטכנולוגיה חדשה לאיתור תמונות המתארות תמונות של התעללות בילדים המאוחסנות בתמונות iCloud.





תמונות אלו ידועות בשם חומר להתעללות מינית בילדים, או CSAM, ואפל תדווח על מקרים כאלה למרכז הלאומי לילדים נעדרים ומנוצלים. NCMEC הוא מרכז דיווח עבור CSAM ועובד עם רשויות אכיפת חוק.

סריקת ה- CSAM של אפל תוגבל לארה'ב בעת ההשקה.



כיצד אוכל להקטין קובץ jpeg

אפל אומרת שהמערכת משתמשת בהצפנה ותוכננה מתוך מחשבה על פרטיות. תמונות נסרקות במכשיר לפני העלאתן לתמונות iCloud.

לדברי אפל, אין צורך לדאוג שעובדי אפל יראו את התמונות שלך בפועל. במקום זאת, NCMEC מספקת לאפל מספר תמונות של CSAM. חשיש לוקח תמונה ומחזיר שורה ארוכה וייחודית של אותיות ומספרים.





אפל לוקחת את החשיפות האלה והופכת את הנתונים למערך בלתי -קריא של חשיפות המאוחסנות בצורה מאובטחת במכשיר.

קשור: כיצד iOS 15 מגן על פרטיות ה- iPhone שלך ​​טוב יותר מאי פעם





לפני שהתמונה מסונכרנת עם תמונות iCloud, היא נבדקת מול תמונות ה- CSAM. בעזרת טכנולוגיה קריפטוגרפית מיוחדת - צומת קבוצות פרטיות - המערכת קובעת אם יש התאמה מבלי לחשוף תוצאה.

אם יש התאמה, מכשיר יוצר שובר בטיחות הצפנה המקודד את ההתאמה יחד עם נתונים מוצפנים נוספים אודות התמונה. השובר מועלה לתמונות iCloud עם התמונה.

אלא אם כן חשבון iCloud Photos חוצה רף מסוים של תוכן CSAM, המערכת מבטיחה שלא ניתן לקרוא את שוברי הבטיחות על ידי אפל. זאת הודות לטכנולוגיה קריפטוגרפית הנקראת שיתוף סודי.

לדברי אפל, הסף הלא ידוע מספק רמת דיוק גבוהה ומבטיח פחות מאחד טריליון סיכויים לסמן חשבון בצורה לא נכונה.

כאשר הסף חורג, הטכנולוגיה תאפשר לאפל לפרש את השוברים ותמונות CSAM התואמות. לאחר מכן, Apple תבדוק ידנית כל דוח כדי לאשר התאמה. אם יאושר, אפל תשבית את חשבון המשתמש ולאחר מכן תשלח דוח ל- NCMEC.

יהיה הליך ערעור להחזרה מחדש אם משתמש ירגיש שהחשבון שלו סומן בטעות על ידי הטכנולוגיה.

אם יש לך בעיות פרטיות במערכת החדשה, אפל אישרה כי לא יסרקו תמונות באמצעות טכנולוגיית ההצפנה אם תשבית את תמונות iCloud. אתה יכול לעשות זאת על ידי כותרת אל הגדרות> [שמך]> iCloud> תמונות .

ישנם כמה חסרונות בעת כיבוי תמונות iCloud. כל התמונות והסרטונים יאוחסנו במכשיר שלך. זה עלול לגרום לבעיות אם יש לך הרבה תמונות וסרטונים ואייפון ישן יותר עם אחסון מוגבל.

כמו כן, תמונות וסרטונים שצולמו במכשיר לא יהיו נגישים במכשירי אפל אחרים באמצעות חשבון iCloud.

קָשׁוּר: כיצד לגשת לתמונות iCloud

אפל מסבירה יותר על הטכנולוגיה המשמשת לאיתור CSAM ב- נייר לבן PDF . אתה יכול גם לקרוא א שאלות נפוצות על אפל עם מידע נוסף על המערכת.

בשאלות הנפוצות, אפל מציינת כי לא ניתן להשתמש במערכת זיהוי CSAM לזיהוי שום דבר אחר מלבד CSAM. החברה גם אומרת שבארצות הברית, ובמדינות רבות אחרות, החזקת תמונות ה- CSAM היא פשע וכי אפל מחויבת ליידע את הרשויות.

החברה גם אומרת שהיא תסרב לדרישות ממשלתיות להוסיף תמונה שאינה CSAM לרשימת ה- hash. זה גם מסביר מדוע צד שלישי לא יכול להוסיף למערכת תמונות שאינן CSAM.

בגלל הביקורת האנושית והעובדה שהשימוש בשימוש הוא מתמונות CSAM ידועות וקיימות, אפל אומרת שהמערכת נועדה להיות מדויקת ולמנוע בעיות עם תמונות אחרות או שמשתמשים חפים מפשע ידווחו ל- NCMEC.

כיצד לשים סרטון כטפט שלך

פרוטוקול בטיחות תקשורת נוסף בהודעות

תכונה חדשה נוספת תתווסף פרוטוקולי בטיחות באפליקציית ההודעות. זה מציע כלים שיזהירו ילדים והוריהם בעת שליחת או קבלת הודעות עם תמונות בעלות אופי מיני.

כאשר תתקבל אחת מההודעות הללו, התמונה תטשטש והילד יזהר גם הוא. הם יכולים לראות משאבים מועילים ואומרים להם שזה בסדר אם הם לא יראו את התמונה.

התכונה תהיה רק ​​לחשבונות שהוגדרו כמשפחות ב- iCloud. הורים או אפוטרופסים יצטרכו להצטרף כדי לאפשר את תכונת בטיחות התקשורת. הם יכולים גם לבחור לקבל הודעה כאשר ילד בן 12 ומטה שולח או מקבל תמונה מפורשת מינית.

לילדים בגילאי 13 עד 17, ההורים לא מקבלים הודעה. אך הילד יוזהר וישאל אם הוא רוצה לצפות או לשתף תמונה מפורשת מינית.

קשור: כיצד iOS 15 משתמש במודיעין כדי להפוך את האייפון שלך לחכם יותר מאי פעם

Messages משתמש בלמידת מכונה במכשיר כדי לקבוע אם קובץ מצורף או תמונה מפורשים מינית. אפל לא תקבל כל גישה להודעות או לתוכן התמונה.

התכונה תפעל הן להודעות SMS רגילות והן להודעות iMessage ואינה מקושרת לתכונת סריקת CSAM שפירטנו למעלה.

לבסוף, אפל תרחיב את ההנחיות הן לתכונות Siri והן לחיפוש כדי לעזור לילדים ולהורים להישאר בטוחים באינטרנט ולקבל עזרה במצבים לא בטוחים. אפל הצביעה על דוגמה שבה משתמשים אשר ישאלו את סירי כיצד הם יכולים לדווח על CSAM או ניצול ילדים יקבלו משאבים כיצד להגיש דו'ח לרשויות.

עדכונים יגיעו ל- Siri ולחיפוש כאשר מישהו יבצע שאילתות חיפוש הקשורות ל- CSAM. התערבות תסביר למשתמשים שהתעניינות הנושא מזיקה ובעייתית. הם גם יראו משאבים ושותפים שיסייעו בעזרה בנושא.

שינויים נוספים באים עם התוכנה העדכנית ביותר של אפל

שלוש התכונות החדשות של אפל, שפותחו בשיתוף עם מומחי בטיחות, נועדו לסייע לשמור על בטיחות ילדים ברשת. למרות שהתכונות עלולות לגרום לדאגה בחלק מהמעגלים הממוקדים בפרטיות, אפל הגיעה בנוגע לטכנולוגיה וכיצד היא תאזן בין חששות הפרטיות להגנה על ילדים.

לַחֲלוֹק לַחֲלוֹק צִיוּץ אימייל 15 תכונות נסתרות ב- iOS 15 וב- iPadOS 15 שאפל לא ציינה ב- WWDC

כבר שמעתם על השינויים העיקריים ב- iOS 15, אבל הנה כל השינויים הנסתרים שאפל השאירה מחוץ ל- WWDC.

קרא הבא
נושאים קשורים
  • אייפון
  • מק
  • תפוח עץ
  • פרטיות סמארטפון
  • הורות וטכנולוגיה
על הסופר ברנט דירק(193 מאמרים פורסמו)

ברנט נולד וגדל במערב שטקסס, סיים את לימודיו באוניברסיטת טקסס טק עם תואר ראשון בעיתונות. הוא כותב על טכנולוגיה במשך יותר מחמש שנים ונהנה מכל הדברים שאפל, אביזרים ואבטחה.

עוד מאת ברנט דירק

הירשם לניוזלטר שלנו

הצטרף לניוזלטר שלנו לקבלת טיפים, סקירות, ספרים אלקטרוניים בחינם ומבצעים בלעדיים!

לחצו כאן להרשמה