Phan Ngân tố cáo một nhãn hàng đã cắt ghép hình ảnh do hãng thời trang của cô sản xuất. Ảnh: @phanngan.jpg. |
Ngày 21/9, người mẫu Phan Ngân, nhà sáng lập thương hiệu thời trang nội địa Kisserine Atelier, thu hút sự quan tâm khi lên tiếng tố cáo một nhãn hàng cắt ghép hình ảnh do đội ngũ của cô sản xuất.
Cụ thể, người mẫu trong bộ ảnh bị “thay đầu” thành người khác bằng công nghệ chỉnh sửa. Hành vi cắt ghép được cho là nhằm tiết kiệm chi phí sản xuất hình ảnh, đồng thời có dấu hiệu sao chép ý tưởng và vi phạm bản quyền hình ảnh.
Đáng chú ý, đây không phải là trường hợp cá biệt. Người mẫu Khloé Nguyễn cũng từng là nạn nhân của công nghệ chỉnh sửa hình ảnh hồi đầu tháng này. Nhãn hàng bikini mà cô hợp tác đã ghép mặt người mẫu nước ngoài vào cơ thể của Khloé Nguyễn, không đưa ra phản hồi thoả đáng sau đó.
Một nhãn hàng bị tố đã tách nền và “thay đầu” người mẫu (ảnh trái) dựa trên hình ảnh do Kisserine Atelier sản xuất (ảnh phải). Ảnh: @phanngan.jpg. |
Câu chuyện này không chỉ xảy ra ở Việt Nam, mà còn phản ánh sự gia tăng của việc sử dụng trí tuệ nhân tạo trong ngành công nghiệp người mẫu trị giá 2,5 nghìn tỷ USD trên toàn thế giới.
Vấn đề về bản quyền hình ảnh trở nên nhức nhối khi ứng dụng của AI ngày càng xuất hiện nhiều trong lĩnh vực thời trang, theo Bloomberg.
Sự việc tái diễn
Trên tài khoản cá nhân, người mẫu Phan Ngân tỏ ra bức xúc trước hành vi chỉnh sửa và sử dụng hình ảnh không xin phép của một nhãn hàng thời trang. Đơn vị này tách nền và “thay đầu” người mẫu của Kisserine Atelier, đăng tải lên mạng xã hội để quảng cáo 2 sản phẩm váy lụa.
Theo bài đăng của Phan Ngân, nhãn hàng ăn cắp hình sử dụng khuôn mặt người mẫu khác, mái tóc và đôi bông tai khác. Tuy nhiên, hình thể mẫu nữ và thiết kế váy lụa hoàn toàn giống với ảnh gốc của Kisserine Atelier.
Sau khi đăng tải thông tin này trên mạng xã hội, Phan Ngân cũng thể hiện mong muốn tìm kiếm phương thức liên hệ với chủ sở hữu thương hiệu trên để làm rõ vấn đề.
Phan Ngân thể hiện sự bức xúc trước hành vi sử dụng và chỉnh sửa hình ảnh không xin phép của một thương hiệu thời trang. Ảnh: @phanngan.jpg. |
Đầu tháng 9, người mẫu Khloé Nguyễn cũng gặp sự cố tương tự. Ở trường hợp này, Khloé là người mẫu trong bộ hình bị chính nhãn hàng mời cô chụp can thiệp chỉnh sửa.
Theo chia sẻ trên trang cá nhân, Khloé Nguyễn nhận định rằng thương hiệu đồ bơi nội địa Cacdemode Swim sử dụng hình ảnh cơ thể của cô, ứng dụng công nghệ để thay đầu người mẫu nước ngoài, bổ sung giày cao gót khác.
Khi khiếu nại với nhãn hàng, cô nhận về phản hồi không như ý. Đại diện thương hiệu nói với Khloé Nguyễn rằng đây là bộ hình tính phí và họ có quyền cắt ghép.
Ngoài ra, người mẫu này cũng khẳng định không nhận được sự tôn trọng từ phía hãng đồ bơi. Đây là sự thiếu tôn trọng với Khloé Nguyễn và nghề nghiệp của cô.
Hơn nữa, người mẫu cũng cho rằng sứ mệnh của thương hiệu đồ bơi này là tôn vinh nữ quyền thông qua trang phục. Tuy nhiên, hành động của họ không thể hiện sự trân trọng đối với khuôn mặt và hình thể người phụ nữ.
Cuối cùng, Khloé Nguyễn kết luận rằng đây là sự việc cổ vũ cho hành vi deepfake nguy hiểm và nghiêm trọng. Phía dưới bài viết, cô sử dụng các hashtag như #respectmodels và #tontrongnguoimau.
Khloé Nguyễn từng bị nhãn hàng bikini “thay đầu” trong bộ hình tính phí. Ảnh: Cacdemode Swim. |
Vấn nạn toàn cầu
Trong một cuộc khảo sát do McKinsey công bố vào tháng 11/2023, 75% giám đốc điều hành trong ngành may mặc coi AI là ưu tiên hàng đầu vào năm 2024. Hơn 25% cho biết đã ứng dụng trí tuệ nhân tạo vào khâu sáng tạo và trình diễn.
Sara Ziff, nhà sáng lập Model Alliance, cho rằng công nghệ mới nổi có thể tạo ra nhiều hậu quả khó lường. Tổ chức của Sara Ziff đã thúc đẩy các nhà lập pháp New York (Mỹ) ban hành điều luật bảo vệ lao động trong bối cảnh AI phát triển nhanh chóng.
Nhà sáng lập Model Alliance cho biết các “chân dài” thường ủy quyền ký kết hợp đồng cho công ty quản lý. Vì vậy, họ ít nhìn thấy các thỏa thuận trao đổi với thương hiệu, nhãn hàng.
Bản quyền hình ảnh trở thành vấn đề nhức nhối khi AI được ứng dụng rộng rãi trong thời trang. Ảnh minh hoạ: Clueless Agency. |
Theo một cuộc khảo sát vào tháng 9/2023, nhiều người mẫu bày tỏ sự lo ngại về việc bị lạm dụng hình ảnh khi tính năng quét cơ thể ngày càng tiên tiến. Nỗi lo ngại này đặc biệt chính đáng khi chân dung của họ có khả năng bị sử dụng trong các sản phẩm truyền thông mang tính khiêu dâm.
Theo luật sư Vivek Jayaram, người sáng lập công ty luật Jayaram Law, quá trình xây dựng mô hình AI sử dụng số lượng lớn dữ liệu cóp nhặt trên các nền tảng cung cấp thông tin trực tuyến. Vì vậy, việc dùng hình ảnh của người nổi tiếng được đánh giá là khó tránh khỏi.
Bên cạnh việc chân dung của người mẫu bị sử dụng trái phép, hình ảnh do các nhãn hàng thời trang thực hiện cũng dễ dàng bị đánh cắp, ứng dụng AI để chỉnh sửa.
Hành vi ăn cắp này được đánh giá là tương đối khó kiểm soát, gây thiệt hại cho các thương hiệu chân chính. Bản quyền hình ảnh trở thành vấn đề đáng lo ngại trong bối cảnh hiện nay.