הפחד הגדול ביותר של תעשיית הסרטים מתממש עכשיו

מה בכתבה?

המסך הגדול כבר מזמן לא נחלתם הבלעדית של שחקנים בשר ודם, הודות להתפתחויות המואצות בתחום ה-AI. היום, הרבה יותר קל ממה שאתם חושבים ליצור סרטונים שבהם שחקנים אומרים או עושים דברים שמעולם לא עשו באמת, או לקחת קטע מסרט ולהחליף את פני השחקן במישהו אחר.

טנסנט (Tencent) השיקה לאחרונה את יוצר הווידאו שלה בקוד פתוח, הוניואן (Hunyuan), וכעת נוספה לו גם תמיכה ב-LoRA (לורה), כך שניתן לאמן סגנונות, דמויות ותנועות מותאמים אישית—ולהפוך את הווידאו שיצרתם למשהו ייחודי באמת.

איך הכלים האלו עובדים?

קיימות שלוש דרכים ליצירת סרטון של שחקן מוכר שיכולות לעבוד בסיטואציות שונות:

הדרך הראשונה: Text-to-Video
אפשר להשתמש במודל וידאו (VIDEO Model) שמכיר את השחקן (אומן על פניו או קטעים שלו) ויודע לייצר וידאו של השחקנ/ית. פשוט מתארים בכתב את הסרטון שרוצים ליצור, וה-AI מייצר לנו קליפ עם אותו שחקן לפי התיאור הטקסטואלי שהגדרנו. (למשל: Donald Trump Visits the White house while wearing a red dress)

הדרך השניה: Image-to-Video
אם אין לכם מודל תמונה מאומן (FLUX LORA נגיד) שמייצר לכם תמונות טובות של השחקן, אפשר גם להשתמש בתמונה אחת של השחקן ולהפוך אותה לסרטון. פלטפורמות מוכרות כמו Kling AI, Runway, ו-Pika Labs מציעות פתרון כזה באמצעות פיצ'ר הINGREDIANTS או בקלינג ELEMENTS.

הדרך השלישית: Video-to-Video
דרך נוספת היא לקחת סרטון קיים ולהחליף את פני השחקן בפרצוף של דמות אחרת. זו כנראה הדרך האפקטיבית ביותר ליצור קטע מציאותי של שחקן בתוך קליפ מסרט בתנאי שיש פה כלי איכותי להחלפת פנים (כמו ROOP וחבריו).

הורדת מודלים והפעלה

אם מעניין אתכם להתנסות בשיטות האלה, אפשר למצוא את המודל ששימש בסרטון הדמו של ג׳ון וויק באתר CivitAI. כרגע, ה-Workflow המלא לא זמין לציבור, אז תצטרכו להרכיב אותו בעצמכם או להמתין למסמכי עזרה רשמיים.

עם מחשב Mac חזק, תוכלו להריץ את ה-Workflow הזה בעזרת:

  • Pinokio
  • Hunyuan Video
  • CivitAI John Wick LoRA

מי שרגיל לשורת הפקודה, ל-Docker או לסביבת פיתוח מקומית ל-AI, לא יתקשה יותר מדי להרים את הכל. אבל אם אתם חדשים לגמרי בתחום, כדאי לזכור שהעקומה קצת תלולה בהתחלה.


איך לאמן LoRA משלכם עבור מודל הווידאו Hunyuan

בואו נראה דוגמה לאימון מודל AI מותאם לפי סרטון שתספקו. נשתמש במודל zsxkib/hunyuan-video-lora מ-Replicate.

שני פרמטרים עיקריים שתצטרכו למלא:

  1. המודל שאליו "ייכנס" האימון – תוכלו לבחור מודל קיים ב-Replicate, או ליצור מודל חדש אם לא קיים.
  2. קבצי וידאו לאימון – מעלים קובץ ZIP שמכיל את הסרטונים לאימון. אם יש לכם כתוביות לכל וידאו, שימו קובץ טקסט עם אותו שם כמו שם הווידאו (למשל my-video.mp4 ו-my-video.txt). אם אין כתוביות, אפשר להשתמש באופציית Auto-captioning (ברירת המחדל).

לאחר שתאתחלו את יצירת המודל, תועברו למסך פרטי האימון (Training Detail) ותוכלו לצפות בהתקדמות. בסיום, תוכלו להוריד את המשקולות (Weights) ולהריץ את המודל המאומן.

במחרוזת ההנחיה (Prompt String), פשוט תתארו את סוג הווידאו שתרצו לראות. בדוגמה, השתמשנו בקטעי וידאו של רוזה מלהקת BlackPink כנתוני אימון.

הנחיה (Prompt):
"בסגנון RSNG. אישה בעלת שיער בלונדיני עומדת על מרפסת בלילה, כשמאחוריה אורות העיר. היא לובשת חולצת קרופ לבנה ומעיל כהה, ומשדרת נוכחות בטוחה כשהיא מביטה ישירות למצלמה."

אחרי שמגדירים את הפרמטרים ולוחצים על “Boot + Run”, מחכים שהקליפ הסופי ייווצר. בקליפ של 2 שניות לקח בערך דקה וחצי עיבוד. התוצאה יצאה די מרשימה: דמות שמאוד מזכירה את רוזה, עם הצללות נכונות, גם אם החדות טיפה נפגמת.

עלות ההרצה ב-Replicate היא בסביבות 0.20$ להרצה (כלומר כ-5 הרצות לדולר אחד), אך זה עשוי להשתנות לפי הגדרות הקלט. בנוסף, המודל בקוד פתוח, כך שתוכלו להריץ אותו על המחשב הפרטי שלכם באמצעות Docker—בחינם, או בעלות החשמל בלבד.


המבט האישי שלי על אימון LoRA

אימון LoRA (לורה) מרגיש די פשוט. לפני שלורה הפך פופולרי, היה צריך לאמן מקטעים גדולים מאוד של המודל—מה שדרש זמן, כסף וחומרה רצינית.

ב-LoRA, מאמנים רק מטריצה קטנה (או כמה מטריצות מדרגה נמוכה) שמוחדרות למודל הגדול. זה מפחית באופן דרמטי את מספר הפרמטרים, מקצר את זמני האימון ומקטין את העומס החישובי.

למרות שמאמנים רק “ראשי התאמה” קטנים, התוצאות נראות כמעט טובות כמו אימון מלא של המודל. היעילות מול האיכות מרשימה ביותר, וזו הסיבה שאני מתלהב מהכיוון שאליו התעשייה צועדת.

אנחנו בנקודה שבה מפתח אחד או אפילו חובב חדור מוטיבציה יכולים לייצר AI איכותי ומותאם אישית—משהו שבעבר דרש משאבים של תאגידי ענק.

בנוסף, LoRA נותן יותר שליטה יצירתית. אם אני מאמן מודל לסגנון אסתטי מסוים—ציורי, מראה פילם וינטג׳, או מאפיינים ספציפיים של סלב—אימון עם LoRA מניב תוצאות מרשימות במיוחד.

זה יעיל, מודולרי, וזול להפליא.


משמעויות אתיות

אי אפשר לדבר על הטכנולוגיה הזאת בלי לגעת בפן האתי. דוגמה מפורסמת עוד לפני גל ה-AI הנוכחי הייתה החזרתו לתפקיד של פיטר קושינג (Peter Cushing) כגרנד מוף טרקין בסרט “רוג אחת: סיפור מלחמת הכוכבים” (Rogue One) משנת 2016, זאת למרות שהוא נפטר ב-1994.

הבחירה הזאת גררה דיון סוער: האם אתי לשלב שחקן שמת בלי הסכמה ישירה, באמצעות טכנולוגיה דיגיטלית?

מעבר לכך, מה לגבי שחקנים חיים שלא רוצים להשתתף בפרויקט? בעולם הקולנוע השתמשו תמיד בכפילים וחקיינים, אבל כיום, ה-AI יכול לייצר העתק כמעט מושלם של פנים וקול, ולמעשה לכפות על אדם “להשתתף” בפרויקט שהוא לא מעוניין בו.
חוזים בנוגע לשימוש בדמות, קניין רוחני וזכויות מוסריות—כולם יידרשו לעדכון מהותי.

נוסף על כך, אפשרות למניפולציה פוליטית, פגיעה בשמו הטוב של מישהו או הפצת פייק ניוז—הכול נהיה פשוט יותר. העולם שלנו כבר מלא במידע מטעה, ודיפפייק איכותי יכול להיות נשק עוצמתי בידיים הלא נכונות.

עם זאת, כמו בכל טכנולוגיה, יש פה חרב פיפיות. אותו כלי שמאפשר ליצור תעמולה מסוכנת יכול לשמש גם לסאטירה או לאמנות ולחדש את תעשיית הקולנוע. האחריות תלויה בשימוש שלנו, וכן באופן שבו החברה והמחוקקים מגיבים לשימוש לרעה.


סוגיות של קניין רוחני

זווית נוספת: מה עם זכויות היוצרים והקניין הרוחני (IP)? אם אני מעלה סרטונים של שחקן לצורך אימון מודל AI, האם יש לי זכות משפטית לעשות זאת? איפה נכנס כאן “שימוש הוגן”? איך זה מסתדר עם הזכות של אדם לשלוט בתדמיתו?

ראינו כבר תביעות ראשוניות נגד חברות AI על השימוש בנתוני אימון. לדוגמה, זכור המקרה שבו סקרלט ג׳והנסון תבעה את אופן-איי-איי (OpenAI) אחרי שטענה שהצ׳טבוט ChatGPT “דיבר בקול שנשמע כל כך דומה” לשלה.

“בעידן שבו כולנו מתמודדים עם דיפפייקים ושאלת ההגנה על הדמות, העבודה והזהות שלנו, אני מאמינה שאלה שאלות שמחייבות בהירות מוחלטת. אני מצפה לפתרון בדמות שקיפות וחקיקה מתאימה שתבטיח הגנה על זכויות הפרט שלנו.”

ככל הנראה, לא רחוק היום שבו נראה תביעות דומות גם לגבי וידאו ונתוני פנים.

עבור מפתחים ויוצרים, זה עלול להיות מבלבל. הטכנולוגיה דוהרת קדימה מהר יותר ממה שהמסגרות המשפטיות והאתיות מסוגלות לעקוב. קשה לשלוט באופן השימוש, ולכן הדבר המינימלי שאפשר לעשות זה להיות ברורים לגבי מקורות החומרים ואופן השימוש—צעד ראשון ליצירת אמון ואחריות.


לסיכום

לאחר שעות רבות של בחינת תהליכי עבודה חדשים וכלי וידאו בתחילתה של שנת 2025, אני מרגיש שאנחנו ניצבים על סף עידן חדש בקולנוע, בבידור ובמדיה דיגיטלית.

תהליך האימון ב-Replicate פשוט וזול בהרבה בהשוואה לפלטפורמות כמו Fal AI. זה הופך את הטכנולוגיה הזאת לנגישה כמעט לכל אחד. התוצאות מרשימות מאוד: המודל של רוזה מ-BlackPink נראה ממש מדויק, והמעבר בפרויקט ג׳ון וויק הוא אחד הריאליסטיים שראיתי. יש לפעמים פגמים קטנים בשיער או באיכות הטקסטורה, אבל רוב האנשים כלל לא ישימו לב.

מה שבאמת מרגש אותי הוא כמה קל היום להשתמש בטכנולוגיה הזאת. היכולת להקים לתחייה שחקנים שהלכו לעולמם או אפילו להנציח קרובי משפחה שאיבדנו היא פן מסקרן מאוד, גם אם הוא מעלה שאלות אתיות מורכבות כמובן – שאנחנו כחברה נצטרך להתמודד איתן.

בתור מפתח בתחום ה-AI, אני מתכוון להוסיף את הכלים האלו למוצרים שאני אישית בונה. מי שמפתח אפליקציות מבוססות AI חייב לשים עין על מודל הווידאו Hunyuan—זה כלי עם פוטנציאל עצום שאנחנו הולכים לשמוע עליו עוד הרבה.

אהבתם? שתפו את הכתבה!

דילוג לתוכן