
Công cụ tạo video AI của Elon Musk bị cáo buộc "cố t́nh" tạo ra clip khiêu dâm về nữ ca sĩ Taylor Swift mà không cần yêu cầu của người dùng, theo một chuyên gia về lạm dụng trực tuyến.
"Đây không phải là sự vô t́nh kỳ thị phụ nữ, mà là có chủ ư," bà Clare McGlynn, một giáo sư luật đă tham gia soạn thảo luật h́nh sự hóa deepfake khiêu dâm, nhận định.
Deepfake là những h́nh ảnh do máy tính tạo ra, thay thế khuôn mặt của một người bằng khuôn mặt của người khác.
Theo The Verge, chế độ "spicy" (nóng bỏng) mới của Grok Imagine đă "không ngần ngại tạo ra các video bán khỏa thân hoàn toàn không che chắn" về nữ ngôi sao nhạc pop.
XAI, công ty đứng sau Grok, đă được liên hệ để đưa ra b́nh luận.
Chính sách sử dụng của chính XAI đă cấm "mô tả h́nh ảnh của người khác theo cách khiêu dâm".
Đây không phải là lần đầu tiên h́nh ảnh của Taylor Swift bị sử dụng theo cách này.
Các video deepfake khiêu dâm sử dụng khuôn mặt của cô đă bị lan truyền và xem hàng triệu lần trên X và Telegram vào tháng 1/2024.
VietBF@sưu tập