[TTS] Rule-basedとNeural TTSの違い

TTS(Text-to-Speech)は大きく分けると、Rule-based(ルールベース)TTS と Neural(ニューラル)TTS の2種類に分類される

全体像:TTS技術の進化段階
世代 技術名 代表方式 特徴
第1世代 Rule-based TTS 記号変換・音声ルール合成 機械的・不自然だが制御しやすい
第2世代 Statistical Parametric TTS HMMなど 統計的だが声がややロボット的
第3世代 Neural TTS(Deep Learning TTS) Tacotron, WaveNetなど 人間のように自然な音声

① Rule-based TTS(ルールベース音声合成)
人間が手作業で定義した「発音ルール」「音声単位(音素)」をもとに、
音を組み合わせて音声を作る仕組みです。
テキスト → 発音記号(ルールで変換) → 音声単位をつなげて波形生成

方式 説明
Formant synthesis(フォルマント合成) 声帯や口の共鳴特性を数式モデル化(例:Bell Labsの技術)
Concatenative synthesis(連結合成) 実際の録音音声(単語や音素)を切り貼りして繋ぐ方式(例:初期のナビ音声)

🎙 特徴
✅ メモリ・計算コストが低い
✅ 特定の発音やイントネーションを細かく制御できる
❌ 音のつなぎ目が不自然(滑らかさがない)
❌ 抑揚や感情表現が単調・ロボット的

② Neural TTS(ニューラル音声合成)
🧠 仕組み
深層学習モデル(ディープニューラルネットワーク)が
テキスト→音声波形 の変換を「学習」

主な代表モデル
モデル 内容
Tacotron / Tacotron2 テキスト→メルスペクトログラムをSeq2Seqで生成。自然なイントネーション。
FastSpeech / FastSpeech2 Tacotronを改良し、高速かつ安定。
WaveNet / HiFi-GAN / DiffWave 高品質なボコーダ(波形生成)。人間に近い音質。

🎙 特徴
✅ 自然な抑揚・滑らかさ・感情表現
✅ 大量データを使えば「人の声をそっくり再現」できる
✅ マルチスピーカー・多言語対応が容易
❌ 計算コストが高く、学習に大規模データが必要
❌ 「声のなりすまし」などの倫理リスクがある

🎯 Rule-based vs Neural TTS 比較表
比較項目 Rule-based TTS Neural TTS
生成方法 手作りルール・辞書ベース ディープラーニングによる学習ベース
音声の自然さ 機械的・単調 滑らかで人間的
柔軟性(声質・感情) 制御しやすいが不自然 データ次第で柔軟・感情表現可
開発コスト 小規模でも可能 大量データとGPUが必要
リアルタイム性 軽量・高速 モデルによる(最近はリアルタイム可能)
代表的技術 Formant, Concatenative Tacotron, FastSpeech, WaveNet
応用例 初期のカーナビ、読み上げ機器 音声アシスタント、AIナレーション、音声翻訳

[LLM] 会話ログの分析

LLMの「会話ログ分析(chat log analysis)」は、AIの品質改善・ユーザー理解・安全性検証などに直結する重要な工程

LLMの会話ログ分析は、次の3段階で行うのが一般的
1️⃣ データ収集・整形
2️⃣ 定量分析(メトリクス)
3️⃣ 定性分析(内容・品質)

1️⃣ データ収集・整形
ログは通常、以下のような形式で保存される:
JSONL(1行ごとに1チャット)
PostgreSQL / BigQuery(大規模ログ)
ログ収集基盤(例:Datadog, ElasticSearch)

2️⃣ 定量分析(メトリクス)
数値的に「モデルがどのくらい良かったか」を分析
品質 BLEU / ROUGE / BERTScore 生成文と理想解の一致度
自然さ perplexity / fluency 文章の滑らかさ
応答速度 latency 応答にかかった時間
満足度 thumbs up/down, rating ユーザーのフィードバック
業務指標 解決率 / 再質問率 実務上の有効性

Pythonの分析例

import pandas as pd

df = pd.read_csv("chat_logs.csv")

# 応答時間の平均
print("平均応答時間:", df["latency"].mean())

# 再質問率(ユーザーが同じ質問を繰り返した回数)
repeat_rate = df[df["input_text"].duplicated()].shape[0] / len(df)
print("再質問率:", repeat_rate)

# フィードバックスコア
positive_rate = (df["feedback"] == "👍").mean()
print("満足度:", positive_rate)

3️⃣ 定性分析(内容・品質)
数値だけでは分からない「中身の良し悪し」を人が確認します。
分析方法:
要約分析:どんなテーマの質問が多いか(例:経費、勤怠、福利厚生)
回答品質の分類:正確・不正確・曖昧など
トーン分析:丁寧/フレンドリー/冷たいなど
ハルシネーション(幻覚)検出:根拠のない出力があるか

from openai import OpenAI
client = OpenAI()

log = "ユーザー: 経費申請の期限は?\nAI: 翌月15日までに提出してください。"
prompt = f"次のAI回答は正確ですか? Yes/Noで答えてください。\n\n{log}"

resp = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": prompt}]
)

print(resp.choices[0].message.content)

モデル品質評価 BLEU, ROUGE, GPT-based eval
カスタマーサポート分析 意図分類、トピッククラスタリング
改善ポイント抽出 ネガティブフィードバック解析
安全性検証 不適切発言検出、機密情報流出検出
運用指標 応答時間、利用回数、解決率

[TTS] Text Normalization → Acoustic Model → Vocoder

[全体像]
テキスト(文字列)

① Text Normalization(前処理)

② Acoustic Model(音響モデル)

③ Vocoder(ボコーダ)

音声波形(実際に聞こえる音)

① Text Normalization(テキスト正規化・前処理)
🔍 目的:
文字データを「読み上げ可能な形」に整えること。
人間が“読む”ときに自然になるよう、TTSに理解できる形式へ変換します。

数字の読み方変換 「2025年」 「にせんにじゅうごねん」
記号・略語展開 「Dr.」 「ドクター」
文の区切り付け 「こんにちは。元気?」 (文境界を明示)
発音表記への変換(G2P: Grapheme→Phoneme) 「東京」 /toːkjoː/

② Acoustic Model(音響モデル)
🔍 目的:
「この文をどう発音するか(音の特徴)」を予測する。
つまり、テキスト(音素列)→メルスペクトログラム を生成します。
📘 メルスペクトログラムとは?
時間 × 周波数の2次元表現で、音の「強さ」「高さ」「声質」を可視化したもの。

音声波形を直接作る代わりに、この中間表現を生成することで、
音の自然さや安定性を確保できます。
💡 Acoustic Modelの役割
要素 内容
発音タイミング 各音素の長さや間(Duration)を決定
抑揚(イントネーション) ピッチ(F0)の変化を予測
音量・エネルギー 声の強弱を再現
声質・感情 声のトーンや感情表現を生成

⚙️ 代表的なモデル構造
モデル名 特徴
Tacotron / Tacotron2 Seq2Seqでメルスペクトログラムを直接生成。自然な抑揚。
FastSpeech / FastSpeech2 Duration情報を明示的に予測し、高速かつ安定。
Glow-TTS / Grad-TTS 正規化フローや拡散モデルで高品質生成。

③ Vocoder(ボコーダ)
🔍 目的:
メルスペクトログラムなどの中間表現を、
実際の波形(音声)に変換 する。
🎧 どうやって波形を作るの?

スペクトログラムを入力として、時間ドメインの音波をサンプル単位で生成。
深層学習モデルが「周波数特性」を復元し、自然な音を再構成します。
💡 代表的なニューラルボコーダ
モデル名 特徴
WaveNet (Google) 最初の高品質ニューラルボコーダ。非常に自然だが遅い。
WaveRNN 軽量・高速でリアルタイム合成可能。
Parallel WaveGAN / HiFi-GAN GANベースで高音質&超高速。現行主流。
DiffWave / WaveGrad 拡散モデルを応用。高品質で滑らか。

補足:3ステップの関係性
ステップ 入力 出力 技術の主役
Text Normalization 文字列 発音記号 or 音素列 言語処理(NLP)
Acoustic Model 音素列 メルスペクトログラム 深層学習(Seq2Seq, Transformerなど)
Vocoder メルスペクトログラム 波形データ 深層生成モデル(WaveNet, GAN, Diffusionなど)

[LLM] 社内データを活用したQAシステム

AIが社内データから答えを探して答える —
というのが「社内QAシステム」です。

⚙️ 仕組み(RAG:検索拡張生成)
1️⃣ 社内データを集める
 例:マニュアル、議事録、FAQ、Slackログ、PDF資料などを収集
2️⃣ ベクトル化(Embedding)
 → テキストを「意味の近さ」で比較できる数値ベクトルに変換します
 (例: OpenAI の text-embedding-3-small など)
3️⃣ 検索(Retrieval)
 → ユーザーの質問も同じようにベクトル化し、
 「最も意味が近い文書」を検索します
 (例: FAISS, Chroma, Weaviate などを利用)
4️⃣ 生成(Generation)
 → 検索した文書をLLM(GPTなど)に渡し、
 「この情報に基づいて答えて」と指示して回答を生成

🏢 実際の構成イメージ
[社員の質問]

[Embedding検索]

[社内ナレッジDB(PDF, Word, Wiki…)]

[関連情報を抽出]

[LLM(GPTやGeminiなど)が回答生成]

[自然な日本語で答えを返す]

✅ メリット
メリット 内容
情報探索の効率化 社員がFAQや文書を探さずに即回答を得られる
ナレッジの再利用 社内に散らばった文書を有効活用できる
属人化の解消 ベテラン社員の知識もシステムに蓄積可能
社内チャット連携 Slack / Teamsボットとして導入しやすい
⚠️ 注意点
課題 対策
機密情報の扱い オンプレ・プライベートクラウドで構築する
検索精度の低下 文書構造化・適切な分割(chunking)が重要
更新管理 ナレッジDBを定期的に再インデックス化する

Rag

import os
import numpy as np
import faiss
from openai import OpenAI

# === APIキー ===
client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))

# === 社内文書(例) ===
docs = [
    "有給休暇の申請は人事システムから行います。",
    "出張申請は上長の承認を経て経理部に提出してください。",
    "経費精算は翌月10日までにシステムへ登録してください。",
    "社内Wi-Fiは社員IDとパスワードで接続できます。",
]

# === 文書を埋め込み(ベクトル化) ===
print("🔹 Generating embeddings...")
embs = [client.embeddings.create(model="text-embedding-3-small", input=d).data[0].embedding for d in docs]
dim = len(embs[0])

# === ベクトルDB(FAISS)を作成 ===
index = faiss.IndexFlatL2(dim)
index.add(np.array(embs).astype("float32"))

# === 質問 ===
query = "経費はいつまでに提出する必要がありますか?"
q_emb = client.embeddings.create(model="text-embedding-3-small", input=query).data[0].embedding

# === 類似文書を検索 ===
k = 1  # 上位1件を取得
D, I = index.search(np.array([q_emb]).astype("float32"), k)
context = docs[I[0][0]]

print(f"\n📝 検索された文書: {context}")

# === LLMで回答生成 ===
prompt = f"次の社内資料を参考に質問に答えてください。\n\n資料:\n{context}\n\n質問:\n{query}"
response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": prompt}],
)

print("\n💬 回答:")
print(response.choices[0].message.content)

[TTS] TTSとは何か?

TTSとは 「Text-To-Speech(テキスト読み上げ)」 の略で、
簡単に言うと 文字を音声に変換する技術 のことです。

たとえば…
スマホの読み上げ機能で、メッセージやニュースを声で聞ける
カーナビが目的地までの案内を音声で話す
Siri や Google アシスタントが話して答える
これらはすべて TTS(音声合成) の仕組みを使っている。

仕組みのざっくりイメージ
テキスト入力:「こんにちは、今日はいい天気ですね」
音声合成エンジンが文字を読み方に変換
人工的な声で読み上げる音声を生成(自然な抑揚をつける)

最近のTTSはAI技術(特に深層学習)によって、
まるで人間のように自然な話し方ができるようになっている。

「深層学習を使ったTTS」は、文字列→音声の処理を学習ベースで行い、人間らしい抑揚・リズム・声質を自動で作れるようになった技術です。従来より滑らかで自然な発話が可能になり、少ない手作業で多様な話し方や声を生成できるようになった。

仕組み(高レベルのパイプライン)
一般的な現代TTSは大きく3つのステップに分かれる

– テキスト前処理(Frontend)
文字列を音素(発音単位)に変換(G2P = Grapheme→Phoneme)したり、句読点や数字を正しい読みへ変換したりする。

– アコースティックモデル(Acoustic / Spectrogram Generator)
テキスト(音素や言語特徴)を入力に取り、音の時間周波数表現(例:メルスペクトログラム)を生成する。
ここで抑揚(ピッチ)、長さ(音の持続)、強弱などの「話し方」が決まる。

– ボコーダ(Vocoder)
メルスペクトログラムなどの中間表現を受け取り、実際の波形(聞ける音声)を生成する。
深層学習は主に(2)と(3)で活躍

なるほど〜 かなり勉強になりますね。少しずつでも毎日勉強したほうが良さそう…

[LLM] BLEU, ROUGE, 人手評価, ガイドラインベース評価

1. BLEU(Bilingual Evaluation Understudy)
主に「機械翻訳」や「文章生成の精度」を自動で測る指標。

生成文 と 正解文(リファレンス) の間で、
単語やフレーズ(n-gram) の一致率を計算
「どれだけ同じ単語列が出てきたか」を重視する手法です。
正解文: 私はリンゴを食べました
生成文: 私はリンゴを食べた

共通の n-gram が多いため、
BLEUスコアは高くなる(例: 0.8 など)。

「食べた」 vs 「食事した」 は同じ意味でも評価されない

2.ROUGE(Recall-Oriented Understudy for Gisting Evaluation)
目的:主に「要約タスク」の自動評価に使われます。
BLEUが「生成文にどれだけ正解単語が含まれるか(Precision)」を重視するのに対し、
ROUGEは正解文の情報をどれだけ拾えているか(Recall) を重視します。
特に有名なのは ROUGE-1(単語)、ROUGE-2(2-gram)、ROUGE-L(最長共通部分列)。

正解要約: 富士山は日本で最も高い山である。
生成要約: 富士山は日本一高い山。
→ 多くの重要単語(富士山、日本、高い山)が共通
→ ROUGEスコア高め

3.人手評価(Human Evaluation)
目的:
AIが出力した文章を人間が直接見て判断する方法。
一番信頼できるが、一番コストが高い。
正確性(Accuracy) 事実・情報が正しいか
一貫性(Consistency) 文全体に矛盾がないか
流暢性(Fluency) 日本語として自然か
関連性(Relevance) 質問や文脈に合っているか
創造性(Creativity) 独自性・表現力があるか

4. ガイドラインベース評価(Guideline-based Evaluation)
人手評価の主観を抑え、一貫性のある基準で評価する方法。
💡 概念
OpenAIやAnthropicが内部で使用しているように、
評価者に「詳細な採点基準(ガイドライン)」を与えることで、
人手評価を半構造化・定量化します
指標 種類 評価対象 特徴 長所 短所
BLEU 自動 翻訳・生成 単語の一致率 定量的で高速 意味を理解できない
ROUGE 自動 要約 単語の網羅性 要約に適する 言い換えに弱い
人手評価 手動 全般 主観ベース 正確・柔軟 高コスト・主観的
ガイドライン評価 手動+基準化 全般 定義ベース 再現性が高い 準備が必要

[django] models

INSTALLED_APPS = [
    'django.contrib.admin',
    'django.contrib.auth',
    'django.contrib.contenttypes',
    'django.contrib.sessions',
    'django.contrib.messages',
    'django.contrib.staticfiles',
    'book.apps.BookConfig',
]
from django.db import models

# Create your models here.
class SampleModel(models.Model):
    title = models.CharField(max_length=100)
    number = models.IntegerField()

$ python3 manage.py makemigrations
Migrations for ‘book’:
book/migrations/0001_initial.py
– Create model SampleModel

    operations = [
        migrations.CreateModel(
            name='SampleModel',
            fields=[
                ('id', models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
                ('title', models.CharField(max_length=100)),
                ('number', models.IntegerField()),
            ],
        ),
    ]

$ python3 manage.py migrate

[Figma]列グリッドと制約

多少慣れてきました。

grid, constraint, autolayoutはcssやbootstrapでもよく出てくる概念ですね。
colorとかそういうのをもう少し勉強したい気がするが、まぁいいか。

[iOS] CoreData

アプリを閉じても Core Data に保存される(永続化)

Xcode で新しいプロジェクトを作るときに
「Use Core Data」にチェックを入れます ☑️
これで自動的に以下が追加されます:
YourAppName.xcdatamodeld(データモデル)
Persistence.swift

ステップ 2:データモデルを定義
YourAppName.xcdatamodeld を開いて「+」を押し、
新しい Entity を作成します:

Entity 名:Memo
Attribute:
text(String)
timestamp(Date)

import SwiftUI
import CoreData

struct ContentView: View {
    // Core Data の管理オブジェクトコンテキスト
    @Environment(\.managedObjectContext) private var viewContext

    // 保存済みメモを取得して監視
    @FetchRequest(
        sortDescriptors: [NSSortDescriptor(keyPath: \Memo.timestamp, ascending: false)],
        animation: .default)
    private var memos: FetchedResults<Memo>

    @State private var newMemo: String = ""

    var body: some View {
        NavigationView {
            VStack(spacing: 20) {
                // メモ入力欄
                TextField("メモを入力", text: $newMemo)
                    .textFieldStyle(RoundedBorderTextFieldStyle())
                    .padding(.horizontal)

                // 保存ボタン
                Button(action: addMemo) {
                    Label("保存", systemImage: "square.and.arrow.down")
                }
                .buttonStyle(.borderedProminent)

                Divider()

                // メモ一覧
                List {
                    ForEach(memos) { memo in
                        VStack(alignment: .leading, spacing: 4) {
                            Text(memo.text ?? "")
                                .font(.headline)
                            if let date = memo.timestamp {
                                Text(date, style: .date)
                                    .font(.caption)
                                    .foregroundColor(.gray)
                            }
                        }
                    }
                    .onDelete(perform: deleteMemos)
                }
                .listStyle(.inset)

                Spacer()
            }
            .navigationTitle("メモ帳")
            .toolbar {
                EditButton()
            }
        }
    }

    // MARK: - Core Data 操作

    /// メモを追加
    private func addMemo() {
        guard !newMemo.isEmpty else { return }
        let memo = Memo(context: viewContext)
        memo.text = newMemo
        memo.timestamp = Date()

        do {
            try viewContext.save()
            newMemo = ""
        } catch {
            print("💥 保存エラー: \(error.localizedDescription)")
        }
    }

    /// メモを削除
    private func deleteMemos(at offsets: IndexSet) {
        for index in offsets {
            let memo = memos[index]
            viewContext.delete(memo)
        }

        do {
            try viewContext.save()
        } catch {
            print("💥 削除エラー: \(error.localizedDescription)")
        }
    }
}

// MARK: - プレビュー用

struct ContentView_Previews: PreviewProvider {
    static var previews: some View {
        // プレビューでも Core Data のコンテキストを注入
        let context = PersistenceController.preview.container.viewContext
        ContentView()
            .environment(\.managedObjectContext, context)
    }
}

CoreDataの概念はわかったが、ソースの実行がうまくいかん..

[LLM] LoRA / PEFT(軽量ファインチューニング)

### ファインチューニング(fine-tuning) とは?
すでに学習済みのLLM(例:LLaMA, GPT, Mistralなど)を
自分のデータで「再訓練」して、特定の用途に特化させること。

e.g.
ChatGPTを「医療専門AI」にしたい
LLaMAを「企業マニュアルの質問回答AI」にしたい
Mistralを「社内チャットボット」に最適化したい

### why it need fine tuning
LLMは汎用的なので、例えば次のような弱点があります。

通常のLLM チューニング後
「契約書の条文っぽい文章」を知らない 法律文体で出力できる
「企業内の独自用語」を知らない 社内専門語で答える
指定フォーマットを守らない JSON形式で必ず回答する

### LoRA / PEFTとは?(軽量ファインチューニング)
通常のファインチューニングは、
巨大モデル全体を再学習するため、
GPU・時間・コストが非常に高くつきます(数十GB〜数百GB)。
→ そこで登場したのが LoRA や PEFT。

🔹 LoRA(Low-Rank Adaptation)
LoRAは、「モデル全体ではなく一部の重みだけを微調整」する仕組みです。
📘 ざっくり言うと:
「LLM本体は凍結(変更しない)」
「一部の行列(重み)だけを低次元(rank低い)で学習」

これにより👇
項目 通常ファインチューニング LoRA
学習パラメータ数 数百億 数百万(1〜3%)
必要GPUメモリ 数百GB 数GB
コスト 非常に高い 低コスト
再利用 不可(モデルごと) 可能(LoRA層だけ切り替え可)

元の重み W に、小さな変化 ΔW を足してチューニングする。
ΔW = A × B (A,Bは小さい行列=低ランク)

🔹 PEFT(Parameter-Efficient Fine-Tuning)
LoRAを含む「軽量ファインチューニング技術の総称」です。
PEFTには以下のような手法があります:

手法 概要
LoRA 一部の重みを低ランクで更新
Prefix Tuning プロンプトに「学習したベクトル」を前置
Prompt Tuning 入力部分だけ学習(モデル本体は凍結)
Adapter Tuning モデルの中間層に追加ネットワークを挿入
➡️ Hugging Face の peft ライブラリ はこれらを統一的に扱えます。

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import LoraConfig, get_peft_model

# ベースモデル
model_name = "meta-llama/Llama-2-7b-hf"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# LoRA設定
lora_config = LoraConfig(
    r=8,               # rank(低次元のサイズ)
    lora_alpha=16,     # 学習率スケーリング
    target_modules=["q_proj", "v_proj"],  # attention層だけチューニング
    lora_dropout=0.05,
)

# LoRAモデルを作成
model = get_peft_model(model, lora_config)

# 学習用データ(例)
texts = [
    {"input": "会社の理念を説明してください。", "output": "私たちは顧客の信頼を第一とします。"},
]

# トークナイズと学習処理(実際はTrainerを使用)
# model.fit(...)

# 学習済みLoRAを保存(ベースモデルと分離)
model.save_pretrained("my_lora_adapter/")