Logobild: OpenAI

Mit der "Voice Engine" hat die US-amerikanische ChatGPT-Entwicklerin OpenAI ein Programm zum Klonen von Stimmen vorgestellt, das die Stimme eines Menschen auf Basis eines 15-sekündigen Audiooriginals duplizieren könne, wie OpenAI in einem Blogeintrag bekannt gibt, in dem die Ergebnisse eines Tests mit dem Programm vorgestellt werden.

Experten äussern sich dazu ziemlich kritisch. Sie befürchten einen Missbrauch von Anwendungen, die künstliche Intelligenz (KI) nutzen, speziell im Jahr der EU- und US-Präsidentschaftswahlen. OpenAI entgegnet solchen Vorbehalten damit, dass man sich dieser Problematik durchaus bewusst sei. Dass die Erzeugung von Stimmen, die denen von Menschen ähneln, ernsthafte Risiken berge, die in einem Wahljahr besonders zu beachten seien, sei offenkundig, so das Unternehmen mit Zentrale im kalifornischen San Francisco. Daher arbeite OpenAI mit Partnern unter anderem aus den Bereichen Politik, Medien, Unterhaltung, Bildung und Zivilgesellschaft zusammen. Ihr Feedback werde bei der Entwicklung berücksichtigt, heisst es.

Aufgrund des Potenzials für den Missbrauch synthetischer Stimmen habe sich OpenAi für einen "vorsichtigen“ Ansatz für eine breitere Freigabe entschieden. Partner, die "Voice Engine“ testeten, hätten Regeln zugestimmt. Diese sehen laut Mitteilung zum Beispiel die ausdrückliche Zustimmung jedes Menschen vor, dessen Stimme mit dem Programm dupliziert wird. Außerdem müsse den Hörern klar deutlich gemacht werden, dass die Stimmen, die sie hören, von KI generiert worden sei.



Der Online-Stellenmarkt für ICT Professionals