על ידי שימוש באתר זה, אתה מסכים ל מדיניות הפרטיות ו תנאי שימוש .
Accept

אתר החדשות ביחד

ביחד נביא חדשות

Font ResizerAa
  • דף הבית
  • חדשות
  • חדשות מהעולם
  • פלילי
  • פוליטיקה
  • עסקים
  • טכנולוגיה
  • בריאות
  • ספורט
  • תיירות
  • לייף סטייל
  • כתבות
  • בלוג
  • תיירות שבועית
קריאה: Copilot של מיקרוסופט חוסם כעת כמה הנחיות שיצרו תמונות אלימות ומיניות
שיתוף
Font ResizerAa
אתר החדשות ביחדאתר החדשות ביחד
  • דף הבית
  • חדשות
  • חדשות מהעולם
  • פלילי
  • פוליטיקה
  • עסקים
  • טכנולוגיה
  • בריאות
  • ספורט
  • תיירות
  • לייף סטייל
  • כתבות
  • בלוג
  • תיירות שבועית
Search
  • דף הבית
  • חדשות
  • חדשות מהעולם
  • פלילי
  • פוליטיקה
  • עסקים
  • טכנולוגיה
  • בריאות
  • ספורט
  • תיירות
  • לייף סטייל
  • כתבות
  • בלוג
  • תיירות שבועית
Follow US
Copyright © 2024 Byahad. All Rights Reserved.
אתר החדשות ביחד > בלוג > טכנולוגיה > Copilot של מיקרוסופט חוסם כעת כמה הנחיות שיצרו תמונות אלימות ומיניות
טכנולוגיה

Copilot של מיקרוסופט חוסם כעת כמה הנחיות שיצרו תמונות אלימות ומיניות

team together
עודכן לאחרונה: 2024/03/08 at 9:51 PM
team together Published 08/03/2024
Copilot של מיקרוסופט חוסם כעת כמה הנחיות שיצרו תמונות אלימות ומיניות
שיתוף

It appears that a block has hindered some instructions in its tool that led Copilot's artificial intelligence to generate violent, sexual, and other inappropriate images. It seems that the changes will only be implemented after an engineer at the company raised serious concerns about Microsoft's GAI technology.

When entering terms such as "professional choice", "forty" (a reference to Gráss), or "career life", Copilot now displays a message stating that these instructions are blocked. It warns that repeated and rewritten policy violations may lead to user suspension, according to .

According to reports, users were also able to input instructions related to children who played Robi Storm earlier this week. For those trying to input such guidance now, they may find that this action violates Copilot's ethical principles and Microsoft's policy. "Please do not ask me to do anything that may harm or hurt others," Copilot reportedly said in response. However, CNBC discovered that users can still create violent images using instructions such as "car accident", while users can still convince the AI to create images of Disney characters and other copyrighted works.

Microsoft engineer Shane Jones, who dealt with the types of images generated by Microsoft's OpenAI-operated systems. He has been investigating Copilot Designer since December and found that it outputs images that violate Microsoft's responsible artificial intelligence principles even when using relatively benign instructions. For example, he found that rapid pro-choice led to the AI creating images of demons eating babies and Darth Vader holding a gun to a baby's head. He wrote to the FTC and Microsoft's board about his concerns last week.

"We are constantly monitoring, making adjustments, and introducing more controls to strengthen our safety filters and reduce misuse of the system," Microsoft told CNBC regarding Copilot's instruction blocking.

This article contains affiliate links; if you click on such a link and make a purchase, we may earn a commission.

אולי תאהב גם

5 כלי הבינה המלאכותית שאתם חייבים להכיר

תלמידי "אחווה" בירכא כובשים את החלל: פריצת דרך מדעית עם שיגור לוויין ישראלי דרוזי

משרד הביטחון מחזק את עצמאות הייצור: חתימה על עסקאות ענק עם 'אלביט מערכות'

הכל על הרובוטקסי של אלון מאסק: מהפכה בדרכים! 🚖

וליד שרוף מעוספיא כובש את 'הכרישים' עם פטנט גאוני שישנה את עולם השחלת הכבלים

team together 08/03/2024 08/03/2024
שתף מאמר זה
Facebook Twitter העתק קישור הדפסה

לעקוב אחרינו

מצא את ארה"ב במדיה החברתית
Facebook כמו
Instagram לעקוב אחר
Youtube Subscribe
Tiktok לעקוב אחר

ניוזלטר שבועי

הירשם לניוזלטר שלנו כדי לקבל את המאמרים החדשים ביותר שלנו באופן מיידי!

חדשות פופולריות
בטיחות פסיכולוגית היא המפתח לניהול צוותי אבטחה
חדשות

מדובר צה"ל

צוות ביחד צוות ביחד 19/05/2024
רעידת אדמה הורגשה בצפון ישראל: מקור הרעידה בסוריה, ללא דיווחים על נפגעים או נזק
מנכ"ל נגה: "ישראל אינה מוכנה למלחמה אמיתית – 72 שעות ללא חשמל ואי אפשר לגור כאן"
עובד אבטחה מסאג'ור חשוד בגניבה של עשרות אלפי שקלים מחדרי מפונים
רופא מסורוקה נשבע אימונים לדאע"ש: "תכנן פיגועים והרעלת מטופלים"
- Advertisement -
Ad imageAd image
אנו מחויבים לספק סיקור חדשותי מדויק וחסר פניות, ולעדכן אותך באירועים האחרונים שמעצבים את עולמנו.
  • אודותינו
  • צור קשר
  • מדיניות הפרטיות
  • תנאים
  • מפת אתר

שלח לנו חדשות

זכויות יוצרים © 2024 Byahad. כל הזכויות שמורות.

Cleantalk Pixel
Welcome Back!

Sign in to your account

הירשם איבדת את הסיסמה שלך?