מדוע גלאי AI חושבים שהחוקה האמריקאית נכתבה על ידי AI

Hack-n-Slash אמר:

אני חושב שהשימוש בחוקה כדי לבדוק הוא די פגום.
מתעלם מכך שהוא שימש כקלט מקור... זה לא נכתב על ידי אדם, אלא על ידי ועדה.
נראה לי שזה עשוי לנרמל את הדיבור באותו אופן שבו עיבוד AI היה עושה זאת.

לחץ להרחבה...
זה לא פגום. זה רק מראה שלעשות משהו על ידי ועדה או לעבור תהליך עריכה נרחב יכול לגרום לטקסט בעל אותם מאפיינים שיש לטקסטים שנוצרו בינה מלאכותית.

אבל מעט מאוד תלמידים עושים זאת. אז אם אתה מקבל עבודה מתלמיד, הכלים האלה טובים למדי בהצגת אותו הדבר שתחושת הבטן שלך אומרת: "התלמיד הזה מעולם לא השתמש בשפה כזו קודם לכן, ואל תדבר כך, אז כנראה שהמאמר הזה לא שלו שלה".

AI הוא כלי. גלאי AI הם כלים.
הם לא פתרונות.
השתמש בהם כדי לסמן קומפוזיציה, ואז השתמש בשיקול דעתך. אם אינך יכול לקבוע בעצמך, אין לך עסק לסמוך על AI שיכשיל את התלמידים שלך.

פודג'ינטור אמר:
האם הכלים האלה שימושיים מבחינה הוליסטית היא שיחה אחרת לגמרי. אם שיעור השגיאות הוא 10% בערך, כפי שנראה שהמאמר מציע, אז אני טוען שהם עדיין מספקים ערך מסוים למחנכים.

זו תהיה משימה הרקוליאנית להעביר את מודל החינוך לסגנון מיומן יותר. כשהחינוך אינו ממומן בחסר וגודל הכיתות בצמיחה, הייתי טוען שזה גבולי בלתי אפשרי בקנה מידה מערכתי.

אבל אם זה יכול לזהות שימוש סביר ב-AI, מחנכים יכולים למקד את תשומת הלב שלהם כדי לוודא אם תלמיד מבין את החומר שכתב או לא. אני מעז לומר שמחנכים יצטרכו להתמקד בהבנה יותר ויותר, שכן כתיבת טקסט בפועל היא כעת לכאורה בעיה שנפתרה.

לחץ להרחבה...

אם אני מדבר בתור מישהו ב"קבוצת מדיניות AI" בבית הספר שלי, שיעור חיובי שגוי של 10% הוא גרוע מחסר תועלת. האשמת תלמיד בבגידה היא משימה עצומה שגוזלת כמויות עצומות של אנרגיה הן מהמאשים והן מהמאשים. המאמר המקושר של סטנפורד גם מציין שהשיעור יהיה גבוה יותר עבור דוברי ילידיות, אשר הוא כבר שדה מוקשים בשל הסטנדרטים השונים לציטוטים וגניבת עין במגוון מדינות

עדיף להיות מקדימה עם התלמידים לגבי היכן בדיוק הם יכולים ולא יכולים להשתמש בבינה מלאכותית. לדוגמה, אהיה לי מטלה בכיתה שלי בשנה הבאה במיוחד כדי לציין שלימודי תואר שני לא ניתן לסמוך על כך שיפיק מידע עובדתי - הם לא רק ימציאו מחקרים, הם ימציאו את הציטוטים גַם. (ופרופסורים יכולים לזהות ציטוט מזויף בקלות)

אבל אם הם רוצים להשתמש בו כדי לעזור להם לבנות נייר מדיניות (והם יודיעו לי שהוא בשימוש) אני יכול לחיות עם זה. זה כלי, במיוחד עבור אנשים שאולי חסרים כישורי אנגלית. בהתחשב בכך שעסקים ירצו אנשים שיכולים להשתמש בכלים חדשים ביעילות, זה לא דבר רע שסטודנטים ילמדו להשתמש בהם.

קראתי מאמר של אקונומיסט שהיה לו פתרון אחר לזיהוי בינה מלאכותית: בעצם אתה נותן ל-AI טביעת אצבע דרך בחירת המילים שלהם, ואז מחפש את טביעת האצבע הזו. אתה בוחר צמדי מילים נרדפות, כגון "גדול/גדול". אם לכתיבה טיפוסית יש יחס של 80 גדול ל-20 גדול, אז ה-AI שלך משתמש ב-30:70. על ידי ביצוע זה עם מספיק צמדי מילים, אתה אמור להיות מסוגל לזהות אם משהו ארוך מספיק נכתב על ידי AI.

החיסרון העיקרי הוא שזה דורש את כלי הבינה המלאכותית כדי ליישם זאת, ומכיוון שהגישה הכללית שלהם היא "הכללים מיועדים למפסידים", אני לא רואה את זה קורה.

אני מצטער. למעשה ויתרתי על קריאת המאמר הזה באמצע כי אני פשוט לא יכול להתמודד עם זה. תכנתנו AI לכתוב טקסט. ועכשיו אנחנו משתמשים בבינה מלאכותית כדי לקבוע אם טקסט נכתב על ידי בינה מלאכותית או על ידי בני אדם? מה בעצם קורה כאן ולמה?

AI מתאמן על טקסט. לאחר מכן בינה מלאכותית כותבת טקסט דומה למה שהוא התאמן עליו. כמובן שטקסט דומה למה ש-AI התאמן עליו ולאחר מכן כותב יזוהה על ידי ה-AI.

אני נשבע שאני מזדקן מדי בשביל העולם הזה. תפסיקו עם השטויות האלה בינה מלאכותית. תפסיק להשתמש בבינה מלאכותית כדי לכתוב טקסט והעמיד פנים שזה טקסט אנושי בפועל. למעשה, הפסק להשתמש ב-AI נקודתית.

והכי חשוב: למען אהבת הכל קדוש ולא קדוש תפסיק לגרום ל-AI לשפוט כל דבר. מה לא בסדר איתך? מה אתה מקווה להשיג עם כל זה? ואל תענו "רווח תאגידי", כי זה יגרום לי להקיא.

מאמר טוב מאוד, אני יכול רק להסכים עם המסקנה.

בדקתי את "כלי הזיהוי" האלה לא עם מאמרים של תלמידים, אלא עם שתי צורות כתיבה גנריות אחרות: פוסטים בבלוג ואתרי אינטרנט ארגוניים. בעוד שלאתרים אתה יכול לתאר לעצמך מדוע (דיבור תאגידי סתמי כבר נראה כמו משהו שנוצר על ידי רובוט), התוצאות היו גרועות להחריד -- 50% עד 80% הוכרזו כ"נכתבו על ידי AI", שכן טקסט שידעתי למעשה הוא שנים רבות ישן.

ייתכן שהפוסטים בבלוג יהיו יותר... מביך, עד שמבינים שמאמרים מקוונים רבים לא נועדו להיות ספרות גבוהה, אלא משמשים למשוך תשומת לב לעיר, או לסקור פריט, או ספר סיפור מצחיק שהמחבר מצא מעניין -- כל אלה מסווגים בקלות כ"נכתבים על ידי AI" בגלל שהם נתפסים "בלבול".

כבר ראיתי האשמות של "השתמשת בבינה מלאכותית כדי לכתוב את זה" מושלכות בקהילות מקוונות, אפילו בלי שום צורה של הוכחות או בדיקות, וזה יכול להזיק מאוד לניסיונות המוקדמים של מישהו לעשות ביטוי. תארו לעצמכם שאתם מבלים חודשים ביצירת משהו משלכם, טוב או רע ככל שיהיה, רק כדי להידחות מיד כ"AI"...

אז כן, כלי ה"גילוי" הללו גורמים יותר נזק מתועלת, ויש לאסור אותם במקום ה-LLMs עצמם. אנו יכולים להשתמש בדרכים אחרות כדי לזהות בקלות מחבר בעת הצורך, כגון אינטראקציה ישירה עם המחבר ושאלת אותו שאלות על היצירה - מחבר אמיתי ישמח לענות; מזויף יתחיל למלמל ויברח בפחד.

יש חברת בינה מלאכותית בשם "חיבוק פנים"?!

מה הם חשבו "עם AI, כולם כל כך מרוכזים ב-Skynet שאנחנו הקסנומורפים יכולים פשוט להחליק בדלת האחורית!!!

יש להם אפילו קישור בעמוד הראשון שלהם ל"Allen Institute for AI" על מי הם חושבים שהם צוחקים?

אלא אם כן זו הנקודה "הוא ראה דרך ההונאה המגוחכת שלנו, חיבק את פניו"
צילום מסך 2023-07-14 בשעה 14.49.18.png

למרבה הצער, הם יהיו מספיק טובים כדי שייושמו וינקטו פעולה נגד תוצאות חיוביות כוזבות, כי זה יעלה פחות משימוש במשהו מדויק.

יש ימים שאני חושב שרבות אם לא כל ההחלטות האחרונות של SCOTUS נכתבו על ידי AI ואינן אמיתיות.

מקטורקי אמר:

כדוגמה, פרק ה-AI בעונה האחרונה של Black Mirror, שביתת הכותב, ועכשיו שביתת השחקן (בשתיהן אני מאוד תומך), כולם מראים שזה מתקרב. נכון לעכשיו, סקריפטים שנוצרו בינה מלאכותית עדיין נמצאים בשלב החידוש. זה היה נכון גם לגבי צ'טבוטים של AI לפני כמה שנים, אבל עכשיו הם נעים בין עמק מוזר למעבר אנושי בהתאם להקשר. אמנם התקדמות בכל תחום טכני נתון לעולם אינה מובטחת, אך נראה כי סביר שתהיה טוֹב בעיקר סרטים או תסריט טלוויזיה שנכתב בינה מלאכותית במהלך 10-15 השנים הבאות. אם אדם צריך ללטש, אבל לא לכתוב מחדש חלקים ניכרים, האם זה שונה בהרבה מתהליך העריכה והניסוח שבו כותבים אנושיים משלימים את סיפוריהם?

לחץ להרחבה...

עד שה-AI יבין מה הוא כותב בפועל, אני מתנגד ברעיון שא טוֹב מתרחשים תסריט מפרט טלוויזיה/סרט, עם ערכות נושא, שיחות חוזרות ופיתוח דמויות. ההתקדמות שהייתה לנו בתחום הבינה המלאכותית לא בונה הבנה, וחוקרים רציניים לא מצפים ש-LLM יהיה אי פעם מבין - זה לא מה שמודל הבינה המלאכותית עושה.

אבל כן, זה שונה במיוחד מהמערכת הנוכחית לטלוויזיה. שינויים עצומים בתהליך כתיבת פרק שמתאים למקום ספציפי בעונה, מוחמרים על ידי רגישויות מודרניות כלפי הצגת תוכן בסידרה עם קשתות ארוכות העונה. הוא מבטל את מאמצי שיתוף הפעולה הקיימים כיום, ומטבעו של הבינה המלאכותית הנמצאת כיום בשימוש, יעדיף יותר חוק, חוויה נוסחתית של תוכן עצמאי על פני סיפור סיפורים מורכב לטווח ארוך שהניע את נוף הטלוויזיה לאחרונה שנים.

בנוסף לכך שפשוט נכתב בסגנון שהוא כבר לא דיבור, אני חושב שהחוקה פשוט כתובה בצורה גרועה ומבלבלת לאורך כל הדרך. התיקון השני הוא אולי הדוגמה הטובה (או הגרועה), אבל כל העניין מאופיין בכתיבה קהה ומסובכת כדי לבטא מושגים פשוטים שהיו צריכים להיכתב בצורה ברורה יותר.

חיבורים יצטרכו להיכתב בשידור חי ללא טלפונים. זה בערך כל מה שיש בזה.

אינל אמר:
אני לא מבין איך תמיהה עוזרת כאן כמדד. אם אני קורא נכון את המאמר, ציון תמיהה נמוך מצביע על כך שקטע טקסט נתון הוא דומה לטקסט שנמצא בקורפוס ההדרכה של ה-LLM, ולכן סביר להניח שהוא נכתב על ידי א LLM.

איך זה עוזר, בהתחשב בכך שטקסט קורפוס ההדרכה נכתב על ידי בני אדם מלכתחילה?

לחץ להרחבה...
השימוש שלך בפסיקים הוא אידיוסינקרטי (ללא גוון - 8 מילים בפנים ואני כבר משתמש בסוגריים ומקפים). "טקסט קורפוס הדרכה" הגיוני בהקשר, אבל "טקסט" משתמע מהקורפוס כאן ובדרך כלל הייתי מצפה שהוא יישאר בחוץ. "לכן סביר" מרגיש כמו טיק כתיבה. התמיהה של הכתיבה שלך נראית לי אנושית.

כל הפסקה הזו היא תמיהה גבוהה (מעבר להיותי סופר מוזר): מטא דיון המנתח את התמיהה שבכתיבה של מישהו אינו דבר סביר במיוחד.

אז למרות שבני אדם הם טרופיים עם הכתיבה שלנו, ונושאים גורמים לשימוש בשפה צפויה (למרות שאמרתי תמיהה, היה הרבה יותר סביר שתמשיך להגיד דברים כמו "מטרי" ו"טקסט"); אנחנו גם זורקים סטיות מוזרות לעתים קרובות. בדיוק כמו שאף אחד לא באמת נראה כמו אדם "ממוצע".

אם אתה בוחר את המילה הסבירה ביותר ב-LLM הם נתפסים בלולאות (בלולאות בלולאות בלולאות...). אם אתה בוחר מילים לא סבירות זה מתדרדר לג'יבריש. נראה שגם ריקוד עם הסתברות לא עובד טוב - אין סבירות אחידה לבחור מילה מבולבלת, זה פשוט הגיוני במצבים מסוימים.

בכנות, זה כנראה קשור להיעדר מטרות תקשורת מפורשות אצל סוכני ה-LLM, ואני חושד כחיזוק הלמידה ממשיכה להשתלב יותר במודלים של שפה שונות טבעית תתחיל להתרחש והטקסט יהפוך אנושי יותר מסתכל.

לאחר שעבדתי ב-K12 Edtech במשך 15 השנים האחרונות, אני יכול לומר שכל מי שערך הערכה נכונה של הכלים הקיימים של "יושרה אקדמית" לא מופתע מכל זה. ברגע שהכלים בסגנון TurnItIn עברו מעבר לזיהוי העלאה סיטונאית של תוכן, הם מתקרבים במהירות "טוב במעט ממסווג אקראי". חברות ה-"AI" החדשות הללו הן רק אריזות חדשות עם מילים אלגנטיות יותר סביב אותו שמן נחשים.

למרבה הצער, יש קבוצה גדולה של מורים ומנהלי K12 שאינם מתוחכמים מספיק כדי להבין או להעריך את היעילות של הכלים הללו. כתוצאה מכך נעשה שימוש בכלים וב'המלצות' שלהם בדרכי ענישה נגד התלמידים, אשר מועטות לקדם את השליטה בנושא או במיומנויות למידה לכל החיים. אז שוב, חלק גדול מאמריקה הארגונית נלחם נגד טכנולוגיה ותהליכים מקולקלים ועוינים למשתמש אז אולי הכלים האלה הם מגרש אימונים טוב.

הבעיה של איך להימנע מתוצאות חיוביות כוזבות קודמת לשחרור של LLMs. זה עשוי להיות ישן כמו החיבור האקדמי עצמו.

אבא שלי עדיין מתבלבל כמעט 60 שנה אחרי שקיבל D-מינוס על עבודת מחקר בקולג' הראשון. הוא היה, לפי חשבונו, תלמיד עצלן וחסר עניין, שלפתע עלה באש על פרויקט הגמר והכניס בו את כל מה שהיה לו. הפרופסור שלו, ששפט את המאמר לפי אמות המידה של עבודתו הקודמת, הניח שהוא נדבה. לא הייתה שום הוכחה, אחרת הציון היה ו'.

אני מזדהה עם הפרופסור בסיפור ההוא, גם אם אני לא חושב שמתן ד' לתלמיד על עבודת כוכבים לא אופיינית הייתה הקריאה הנכונה. התלמידים נמצאים בכל מיני מסלולי למידה כאוטיים, ותמיד היה מסובך לברר מי הוא בעצם משקיע את העבודה וסופג את השיעורים ומי מצא דרך לשחק את מערכת.

בשנים הספורות שלימדתי שיעורים במכללה, גיליתי שעבודות ציון היו אחד החלקים הכואבים ביותר העבודה עבורי, והתמיהה והתפרצות הנמוכה של עבודת סטודנטים בממוצע ג' היו כנראה חלק גדול מזה כְּאֵב. יחד עם הנתונים הסטטיסטיים של שיעור השגיאות שצוטט, זה גורם לי לספקנות לגבי הכלים המתוארים במאמר. הם נראים כמו ערך המקבילה למגמורת תחתית - הולכים להיסחף ברשת הרבה חיי ים תמימים. לא כל למידה באה לידי ביטוי באיזו עוצמה מישהו כותב, בכל מקרה.

כמה מגיבים קודמים העלו השערות שאולי שיטות הערכה עתידיות יהיו מובנות בהן יותר מיומנויות הצגה בעל פה ודיאלוג. אני מקווה שזה הכיוון שמערכת החינוך שלנו צועדת.

מעניין אותי שכל דוגמה של "כנראה נכתב על ידי AI" היו שיתופי פעולה, ולא הגשות של מחבר יחיד.

שינויים בניסוח, בסגנון ובהיבטים אחרים של הדקדוק היו נידונים ומוסכם על ידי ועדה, לא על ידי אדם.

בהתחשב בכך שניתן לתאר בינה מלאכותית כ"נוצרת ועדה" בשל מודלי האימון המשמשים, אז זה עושה תחושה שזה יסמן מאמצי שיתוף פעולה כלא באים מאדם אחד, ולכן סביר להניח AI שנוצר.

מצחיק, "הייתי רוצה כוס עכבישים" הוא בדיוק סוג הטירוף שהייתי מצפה מ-AI יצירתי לכתוב, אבל אני מניח שהתחום התקדם מעבר לזה.

בלי קשר, זה מפתיע אותי שאנשים מצפים שיהיה אפשר לזהות באופן אמין טקסט שנוצר בינה מלאכותית. אם מערכת יכולה לזהות 'ספר', מדוע לא ניתן היה להשתמש באותה מערכת כדי להסיר אותו? אם יש לך את המידע כדי לקבוע שמשהו לא בסדר, האם אין לך גם מספיק מידע כדי לתקן אותו?

בטח, יש שגיאות של השמטה כמו גם עמלה, אבל זה נראה לא הגיוני להניח שיש פגמים מטבעם בלתי ניתנים להסרה בבינה מלאכותית.

מורה שהוא גם מומחה לנושאים יכול לבחון את התלמידים על תוכן עבודתם לאחר מכן כדי לראות עד כמה הם מבינים זאת. כתיבה היא לא רק הפגנת ידע אלא השלכה של המוניטין של אדם, ואם המחבר האנושי לא יכול לעמוד בכל עובדה המיוצגת בכתיבה, לא נעשה שימוש בסיוע בינה מלאכותית בצורה מתאימה.

לחץ להרחבה...
אני מכיר מורה למתמטיקה במכללה, והיא גורמת לתלמידים להראות את עבודתם. כשהם לא עושים זאת, וההיסטוריה של אותו תלמיד מטיל ספק בתשובה הנכונה ללא עבודה, היא מסמנת את השאלה לא נכונה, ואומרת להם למה, ואם לא, הם יכולים לבוא להסביר לה את תשובתם. היא עדיין לא ניסה מישהו. אני לא בטוח אם זה נחשב כ-0% חיובי שגוי, או שתלמידים מפוחדים/לחוצים מכדי להגן על עצמם. זו לא ועדת אתיקה, כפי שהוזכר בכתבה, רק היא.

ממשיך כאן, אבל עוד בתיכון בסוף שנות ה-90, כשלמדתי לתכנת TI-BASIC, התוכנית הראשונה שלי הייתה משהו בשיעור כימיה להמרת שומות/גרמים/אטומים של חומר. גרמתי לתוכנית להראות את השלבים כרוכים בהעתקה למבחן, אז אף אחד לא היה חכם יותר. בשנה האחרונה בחשבון, שיתפתי את התוכניות הקטנות והמועילות האלה לחברים לכיתה. אני זוכר שמצאתי באג בתוכנית בזמן שחולקו מבחנים, והייתי צריך ללחוש לכמה אנשים לא לסמוך עליו. ככותבת התוכנית, הכרתי היטב את החומר. האנשים שנתתי להם את התוכנית? אולי פחות.

כמה שנים לאחר מכן, דיברתי עם המורה שלי לחישוב (הכרתי את בנה) והיא אמרה בצחוק שהיא מתגעגעת אליי ולתוכניות שלי. התלמידים לא מצליחים בלעדיהם. אני לא בטוח אם אני צריך להרגיש גאווה על זה או לא. הן היו תוכניות טובות. :)

הלוואי שכמה מעמיתיי לעבודה ישתמשו בבינה מלאכותית כדי לעזור להם לכתוב באנגלית כי כרגע אני לא יכול להבין את האנגלית שלהם, אם כי לפעמים אני לא בטוח מה הבעיה. כאילו אם זה היה איזשהו סוגיית תרגום ישר, הייתי יכול להבין את זה מצוין או אם זה היה רק ​​נושא-אובייקט-פועל, אבל במקום זאת נראה שזה מקבץ כזה של זלזול כתוב גרוע שמתורגם לאחר מכן באמצעות Google Translate (שזה גבולי חסר תועלת במציאות טֶקסט.)

waveterrain אמר:
לאחר שעבדתי ב-K12 Edtech במשך 15 השנים האחרונות, אני יכול לומר שכל מי שערך הערכה נכונה של הכלים הקיימים של "יושרה אקדמית" לא מופתע מכל זה. ברגע שהכלים בסגנון TurnItIn עברו מעבר לזיהוי העלאה סיטונאית של תוכן, הם מתקרבים במהירות "טוב במעט ממסווג אקראי". חברות ה-"AI" החדשות הללו הן רק אריזות חדשות עם מילים אלגנטיות יותר סביב אותו שמן נחשים.

למרבה הצער, יש קבוצה גדולה של מורים ומנהלי K12 שאינם מתוחכמים מספיק כדי להבין או להעריך את היעילות של הכלים הללו. כתוצאה מכך נעשה שימוש בכלים וב'המלצות' שלהם בדרכי ענישה נגד התלמידים, אשר מועטות לקדם את השליטה בנושא או במיומנויות למידה לכל החיים. אז שוב, חלק גדול מאמריקה הארגונית נלחם נגד טכנולוגיה ותהליכים מקולקלים ועוינים למשתמש אז אולי הכלים האלה הם מגרש אימונים טוב.

לחץ להרחבה...
אנחנו בדיוק מסיימים מאבק עם האוניברסיטה של ​​בתי על האשמה בגניבת עין במבחן פיקוח שבו היא וסטודנטית אחרת הואשמו בהעתקה זה מזה. סוף סוף השגנו את הנתונים וזה מובן מאליו בפירוט מעבר להודעה הרחבה על חריגים סטטיסטיים, היא לא העתקה אף אחד.

בסופו של דבר היא הבטיחה את הממצא של גניבת עין, אבל אחרי כמה חילופי דברים חזקים למדי. ייתכן שמישהו עם פחות תמיכה לא השיג אותה תוצאה. חוקר האוניברסיטה נראה כל כך מכור לעובדה שהתוכנית סימנה 'התרחשה העתקה בסבירות גבוהה' שהם ניתח מתוך הנחה למצוא אשמה כי המחשב אמר שמישהו אשם, והתעלם מכל שאר האפשרויות פרשנויות.

הכלים האלה הולכים להיות נוכחים וכפי שמציין המאמר, כולם רוצים שהם יעבדו. כאשר הם לא עושים זאת, או כאשר הם מקבלים סמכות בלתי הולמת, הסיכונים עבור התלמיד החפים מפשע גבוהים עם מעט הקלה אפשרית.

ההודעה האחרונה בבלוג

מיקרוסופט טורחת לטשטש תפקיד תוך 0 ימים שגרם להפרת אימייל
October 11, 2023

... עם העלות הכרוכה... האם מיקרוסופט לא ממש הגנגסטר שמבקשת כספי הגנה?E5 הוא שירות MS365 ה"אמיתי" - כל השאר הוא רק דרגות שונות של טיזר כדי למשוך אות...

מיקרוסופט טורחת לטשטש תפקיד תוך 0 ימים שגרם להפרת אימייל
September 24, 2023

... עם העלות הכרוכה... האם מיקרוסופט לא ממש הגנגסטר שמבקשת כספי הגנה?E5 הוא שירות MS365 ה"אמיתי" - כל השאר הוא רק דרגות שונות של טיזר כדי למשוך אות...

מיקרוסופט טורחת לטשטש תפקיד תוך 0 ימים שגרם להפרת אימייל
October 05, 2023

... עם העלות הכרוכה... האם מיקרוסופט לא ממש הגנגסטר שמבקשת כספי הגנה?E5 הוא שירות MS365 ה"אמיתי" - כל השאר הוא רק דרגות שונות של טיזר כדי למשוך אות...