🎬 YouTube Premium 家庭 Plan成員一位 只需
HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
「FUTURE PHASES」展示音樂科技與互動表演新前沿
麻省理工學院(MIT)於2025年國際電腦音樂會議(ICMC)期間,舉辦了一場突破性的音樂會,主打電子音樂及電腦生成音樂,展現音樂科技的最新發展。
這場名為「FUTURE PHASES」的音樂會,由MIT音樂技術與計算研究生課程主辦,於新落成的Edward and Joyce Linde音樂大樓內的Thomas Tull音樂廳舉行。活動與MIT媒體實驗室的「未來歌劇」組別及波士頓的自導室內弦樂團A Far Cry合作,是MIT音樂技術與計算研究生課程在新場地舉辦的首個大型活動。
音樂會演出包括兩首MIT作曲家全新作品:MIT音樂肯安·沙欣傑出教授Evan Ziporyn與實踐教授Eran Egozy的世界首演作品《EV6》,以及MIT媒體實驗室的Tod Machover教授首度於美國公演的《FLOW交響曲》。此外,經過國際公開徵選,由評審團從46份作品中選出三首作品參與演出,分別是Ali Balighi的《The Wind Will Carry Us Away》、Celeste Betancur Gutiérrez與Luna Valentin合寫的《A Blank Page》,以及Peter Lane的《Coastal Portrait: Cycles and Thresholds》。所有作品皆由多次獲葛萊美提名的A Far Cry弦樂團演奏。
Eran Egozy表示,ICMC致力於呈現電子音樂的最新研究、作曲及演出。他認為,這次音樂會是展示MIT在音樂科技領域承諾的絕佳機會,尤其是新設立的音樂技術與計算碩士課程、新音樂大樓內強化的音樂科技設施,以及新聘的跨領域教授陣容,這些教授在MIT音樂與戲劇藝術系及電機工程與電腦科學系間兼任教職。其中包括此次會議的主講嘉賓Anna Huang,她也是推動Google首個AI塗鴉「巴赫塗鴉」背後機器學習模型Coconet的創作者。
Egozy強調,這場音樂會的特殊性在於擁有完整的18人弦樂團A Far Cry演奏結合電子元素的新作品,這在ICMC歷史上非常罕見。通常ICMC的演出要麼完全是電子及電腦生成音樂,要麼是兩至四人的小型樂團。這次能夠呈現這樣規模的現場弦樂團,對音樂科技社群來說意義非凡。
為配合這次機會,主辦方在全球公開徵件,選出三首作品與Ziporyn及Egozy的《EV6》和Machover的《FLOW交響曲》同台演出。評審團成員包括Egozy、Machover及其他知名作曲家和技術專家。Egozy說:「我們收到來自世界各地風格多元的作品,每首作品對電子元素的運用都各不相同,令觀眾體驗到這種音樂形式的豐富多樣性。A Far Cry樂團以充滿熱情和細膩的詮釋將作品串聯起來,特別是Thomas Tull音樂廳的環繞舞台設計,讓觀眾與音樂的連結更加緊密。」
音樂會充分利用了Thomas Tull音樂廳內建的24個環繞音響喇叭系統,讓每個座位的觀眾都能聽到獨特且立體的聲音效果。Egozy提到:「每位觀眾聆聽到的聲音可能略有不同,但都能感受到聲音和音樂多維度的演變。」
五首作品中融合了多種科技手段,包括合成音、預錄或電子處理聲音、即時信號處理麥克風、定制樂譜傳輸給演奏者、利用生成式AI處理並回放現場聲音,以及讓觀眾透過手機作為樂器參與演出。
其中,Ziporyn和Egozy的作品《EV6》特別運用了觀眾手機互動技術。Egozy表示,他們先前合作開發了名為Tutti的系統,允許觀眾用智能手機作為樂器,與樂團共同演奏。此技術首次於2017年MIT「為更美好世界」活動中使用,當時是一段三分鐘的手機獨奏曲。這次則由Ziporyn構思,將手機與現場弦樂團結合創作新曲。
作品名稱《EV6》靈感來自Ziporyn的第一輛電動車EV6,他形容駕駛它的感覺就像駕駛iPhone一樣。這名稱既象徵手機音樂的介入,也呼應David Bowie的歌曲「TVC 15」,講述與機械人墜入愛河的故事。
Egozy說:「我們希望觀眾能體驗在樂團中合奏的感覺。透過這技術,觀眾被分配到不同的樂器組別(木管、銅管、弦樂等),在演奏時能聽到自己組別的聲音,也能感受其他組別在不同位置演奏的差異,體驗現場演出的刺激與責任感。這次《EV6》更特別,因為觀眾是首次真正與現場弦樂團一同演奏。」
音樂會後,還安排了六場音樂科技示範,展示MIT音樂與媒體實驗室本科及研究生的最新研究成果,涵蓋從調音系統、AI協作音樂會、鋼琴演奏數據分析、音訊特徵捕捉到互動節奏學習等多元項目。其中一款名為Senegroove的打擊樂應用,配合即將推出的edX線上課程,教授傳統塞內加爾節奏,並由MIT教授及著名塞內加爾鼓手共同指導。
Egozy最後感慨:「『FUTURE PHASES』證明了擁有合適場地──這裡是新落成的Edward and Joyce Linde音樂大樓──如何成為推動新思維、新計劃與跨界合作的關鍵力量。我希望MIT社群、波士頓地區以至全球的朋友都能認識並體驗我們為音樂和音樂科技打造的這個非凡空間,並見證它持續成長。」
—
評論與啟示
這場「FUTURE PHASES」音樂會不僅是一次科技與藝術的結合,更是音樂表演形式的革新。MIT利用先進的音樂廳設計與互動科技,突破了傳統音樂會「觀眾被動聆聽」的框架,讓觀眾成為音樂創造的一份子。這種多維度、多感官的互動體驗,預示著未來音樂會的可能新常態。
此外,MIT將人工智能、生成模型與現場演奏融合,展現了AI不僅是創作工具,更是即時共演者的角色,拓展了表演藝術的疆界。尤其是手機作為樂器的引入,打破了表演者與觀眾的界線,創造前所未有的社群參與感。
從教育與研究層面看,MIT的新碩士課程及新聘教授陣容,凸顯了跨學科合作的重要性。音樂與電腦科學的結合不僅培養新型音樂人才,也推動音樂產業與科技產業的融合發展,為未來音樂產業帶來更多創新可能。
對香港及其他城市而言,這種結合前沿科技與藝術的模式值得借鏡。隨著數碼科技的普及與硬件成本下降,類似的互動音樂體驗將更易實現,有助推動本地音樂文化的多元發展及觀眾體驗升級。同時,音樂廳設計亦應考慮環繞音響與空間互動,提升現場感與沉浸感。
總括而言,MIT「FUTURE PHASES」音樂會不僅是科技與藝術的結晶,更是一場關於未來音樂生態的實驗與示範,啟發我們重新思考音樂的創作、演出及參與方式,極具前瞻性與啟發價值。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。