Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

Photo by Pixabay on Pexels.com

映画、渇水をネットフリックスで観ました.

2024.10.17

Logging

おはようございます.映画、渇水をネットフリックスで観ました.この映画、ちょっと落ちが微妙だけど現実的な着地地点かなって思います.実際、こういう環境下で生活している人々がいる、そういう環境下でいるひとの処遇を変えるって難しいことだと思います.

普通に生活していたら、そんな環境下でいるひとの事を知り得ることがないと.そういう意味ではこの映画を観ることで少し世界が広がるのではないかな.

映画『渇水』60秒本予告【6月2日(金)公開】

映画っていろいろな側面があるものの、大体の映画は人々に希望をもたらす物だと思います、それはこの映画のように世界が少し変わる作用を持っている気がするのです.何かを変えようとするとき、自分としては最大限のことをしても変わるのはほんの少しです.でも、それが大事なことだとも思います.

まとめ.
世の中を大きく変えるのは難しいけど、少しの変化の蓄積が大きな変化をもたらす可能性を秘めていると思えるようなそんな思いになる映画でした.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

ネットフリックス, ひと, まとめ.世, 人々, 作用, 側面, 処遇, 変化, 実際, 少し, 少し世界, 希望, 意味, 映画, 最大限, 渇水, , 環境下, 着地地点, 蓄積,

Photo by Emiliano Arano on Pexels.com

映画、パレードを観ました。

2024.03.23

Logging

おはようございます、映画、パレードを観ましたので感想を残しときます。Xにも書いたのですが震災を思い出すような内容があるので、見たくない方もいるかとは思います。観て思ったのが繋がっているということ、いなくなってもいるだよって言うことを示している映画だと感じました。

希望を描いたそんな作品でした、感動する人は感動する話だと思います。ただ余命10年には程遠いなって思います。あれはほぼ実話ベースなので心が揺さぶられますがパレードはそこまでグッと来るものは自分にはなかったです。

映画『余命10年』本予告 2022年3月4日(金)公開

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

X, パレード, , 余命10年, 作品, 内容, 実話ベース, 希望, , 感想, 映画, 自分, , 震災,

何故、気づかない。宇宙の成り立ち、始まりの始まりは無限ループですよねぇ。

2021.09.12

Logging

先日、派遣の面接に行ってきましたがお断りしようと思っています。そして何より派遣という働き方には希望をあまり見いだせないのかなと思っています。

さて、映画「マトリックス レザレクションズ」の予告が解禁されましたよね。もうマトリックスファンなら歓喜しかないと思います。ですが…自分がこの予告からオチを考えると、この世界は永遠に終わらない世界に人は生きているというオチになると思いますよ。仮に機械に電力として摂取されている世界もマトリックスだったら・・・。どこからが現実なのか、さっぱり分からなくなります。そして救世主が見ているものは単なる幻覚だとしたら・・・。とても悲しいオチになりますが・・・そういうオチもあるかもしれないと思って新たなマトリックスは見に行ったほうが良さそうです。

宇宙の成り立ちをコンピューターが導き出そうとしても人が始まりを導き出そうとしても・・・答えは無限ループなんですよ。始まりが終わりであって終わりが始まりだろうと思うのですが・・・ね。もし創造主がいたとしてもじゃその創造主はどうやって生まれたの?っていうのを考えていくと無限ループなんですよ。

だから無であり有であるというのが正しい気がします。無から有になると本当に思ってますか?そんな事できたら、それこそ魔法使いですよ。

その答え合わせが出来そうな気がします。今から12月が待ちどうしいですね。

映画『マトリックス レザレクションズ』予告 2021年12月17日(金)公開

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

オチ, お断り, コンピューター, どこ, ファン, マトリックス, もの, ループ, レザレクションズ, 世界, 予告, , 働き方, 先日, 宇宙, 希望, 幻覚, 摂取, 救世主, 映画, 機械, 歓喜, 永遠, 派遣, 無限, 現実, 答え, 自分, 解禁, 電力, 面接,

2040年の未来予測の感想2

2021.03.29

Logging

2040年の未来予測をキンドルで購入してアレクサに朗読してもらって読了しました。ちなみに成毛さんがNewsPicksの動画で語っていることは実は本の中でも語られていることなんですけど・・・。

成毛眞が語る「2040年の未来予測」【中田敦彦のYouTube大学でも話題】

本で読むともっと深く知ることが出来ると思います。前半は希望ある未来が書かれており後半(ラスト)は現実的に今後、起こるであろうことが書かれています。今、日本株が買われているけど米国株を買ったり中国に投資したりアジアなどに投資したほうが良いじゃないのかと本を読んで感じました。いやホントに南海トラフ巨大地震とか来たら恐ろしいですよね。いったい日本どうなるだろう?そう思う方は読んでみて損はない本だと思います。
本を読む前にNewsPicksの動画と中田さんの動画を見るとこの本の内容が何となくわかるかと思います。

【2040年の未来予測①】次の時代の成功者になるには(Predictions for 2040)
https://twitter.com/zip358com/status/1348367630667710465

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

2, 2040, newspicks, アジア, アレクサ, キンドル, こと, トラフ, ホント, ラスト, , 中国, 中田, 予測, , 今後, 内容, , 前半, 動画, 南海, 地震, 希望, 後半, 感想, 成毛, 投資, , , 日本, 日本株, 朗読, 未来, , , 米国, 読了, 購入,

今より未来が好きですね。

2020.03.01

Logging

今より未来が好きですね。
未来は変わる未来は良くなると思って生きていくと本当に
良くなるだってさ。まぁそうだよなと思ってないと面白くないしょ!
まぁ下記の歌詞にあるように自分は『明日が大好き』なんですよ。
だから希望を思って生きていけば良いことあるですよ。
それが早いか遅いかわからないですがね。良いことも見えていないなら
それは心が疲れているです。情報社会で生きていると心が疲れてくる。
そこらさっと抜け出す方法を手にすることは大事です。
『それでもいいや』という考え方は大事だと思います、受けとめるのに時間のかかることも世の中には有るですけどね。

Mrs. GREEN APPLE – 春愁

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, 5, Ci-, com, https, lr-DA, watch, www, youtube, こと, しょ, そこら, それ, 下記, , , , 大事, 希望, , 情報, , 方法, 明日, 時間, 未来, 本当, 歌詞, 社会, 考え方, 自分,

ファイナルファンタジー7リメイクのオープニングが!

2020.02.15

Logging

FINAL FANTASY VII REMAKE オープニングムービートレーラー

ファイナルファンタジー7リメイクのオープニングを見ました。FF7にかなり忠実に作られたリメイク版だなと感じました。いや、ほんとスクウェア・エニックスさんの技術力には圧巻ですね。これが2020年の4月10日にプレイできるというのはとても嬉しい限りです。どこまでプレイできるのだろうかという所が一番気になるところなんですが、ミッドガル脱出までだそうです。

ファイナルファンタジー7の時のミッドガル脱出までの時間は3時間から10時間ぐらいだそうです。じゃリメイク版も同じぐらいの時間になるのかと考えるのはあまりよろしく無いと思います。ソフト1本分のお値段で10時間というのはやはり高い気がします。次々とFF7Rをシリーズを発売できるかと言えば疑問です。

FINAL FANTASY VII REMAKE バトルプレイ動画<アプス戦>

なので、ミッドガル脱出までにかかる時間は、意外にも30時間ぐらいかかるのでは無いかなとか、観測的希望を自分は抱いているのですが皆さんはどうでしょう。プレイ時間が10時間でそれに9000?8000円も支払うのは結構痛いと思うので、もう支払っているけれど。

FINAL FANTASY VII REMAKE テーマソング発表記念トレーラー

次々と続編だしてくれれば別だけど。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, 10, 2020, , 30, 4, 7, FF, エニックス, オープニング, かなり, ガル, これ, シリーズ, スクウェア, ソフト, どこ, ところ, ファイナルファンタジー, プレイ, ほんと, ミッド, リメイク, 値段, 圧巻, 希望, 忠実, , 技術力, , 時間, , 疑問, 発売, 皆さん, 脱出, 自分, 観測, 限り,

魂の叫びのような歌を歌う人。

2017.09.09

Logging


魂の叫びのような歌を歌う人はあまりいない中のひとりにamazarashi氏がいる、歌詞は別の人が作ってたりするのだけどamazarashi氏が歌うモノには、強烈なインパクトがある。
最初は歌詞が強烈でダークだなと思ったのがYOUTUBEで聴いた印象なんです、このヒトの歌っているのは歌詞には負の要素が多いのだけど実は希望を歌っているように思えます。
こういう魂を削って歌っている人は少ないような気がします。

amazarashi 誦読『つじつま合わせに生まれた僕等 (2017)』 Music Video


なかなかこういう人はレアですね。
歌っているamazarashi氏、歌詞を書いている秋田ひろむ氏、すごく成り立っているように思えます。
たぶん、いままで誰も言わない事実を歌詞にしてそれを歌っているから、共感する人がいるだろうなと感じます。

amazarashi『空に歌えば』“Singin' to the Sky” Music Video|「僕のヒーローアカデミア」OP曲

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

amazarashi, youtube, インパクト, それ, ダーク, ひと, ひとり, ひろむ, もの, レア, , 事実, , 共感, , 印象, 希望, 最初, , 歌詞, , , 秋田, 要素, , , ,

@夢

2017.08.28

Logging


「いつまで夢みたいなことを言っているだ」と嘆かられることだろう。
ただ、夢無くしては人生つまらなくなるのではないかと「夢」があるから
生きていけるし希望も持てるのだと「夢」がなくなると
一気に人生つまらなくなるのではないかと。
ただ毎日を生きているよりも「夢」に向かって生きている方が
若干、こころの持ちようは違うような気がするし
気持ちが若くなるような気もする。
この気持が若いとかいうのは
すごく大事な要素で、大体「夢」を持っていない人は老け込むのが速い気がする。
とくに顔を見るとわかりやすく「夢」を持っている人と持っていない人では
全然違う。ただ「夢」を持っていなくても「目標」があれば
それなり「顔」にでてくる。
歳を重ねるにつれて「顔」が物語ってくる。
若々しく生きたいのならばアンチエイジングなどより「夢」や「じぶんより若いひと」の
意見を聞き「そうだな」と思える感覚を持ち続けることが大事になると思う。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

アンチエイジング, こころ, じぶん, 世界一, 人生, 叶え方, , 実践, 希望, 意見, 感覚, 気持, 目標, 若干, 要素, 速い気, ,

何かを辞める時。決断力。

2017.08.15

Logging


何かを辞める時。辞めてよかったと思うことが多い気がする。
会社などを辞めると次の仕事を探すのは難しい場合がある、
かと言って、辞めるなとは言わない。
じぶんは無職になり次の仕事を得るまで半年ほど仕事をしていない
時も有ったから、お金はなくなっていくけど何とか成るですよ。
無理に嫌々働いているとか、仕事に充実感を獲れないなど、何だかモヤモヤするのなら
長期休暇を取って「ぼけぇー」っとしていると自分がどうしたいのか見えてくる。
例えば夏季休暇とか冬期休暇などは
やはり退職率が高くなるらしく、それから一ヶ月後ぐらいに
希望の求人が出てきたりするから世の中うまくまわっている。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

お金, こと, じぶん, それ, ぼけ, , , , 仕事, 休暇, 会社, 何か, 充実感, 冬期休暇, 半年, 場合, 夏季休暇, 希望, , , , 求人, 決断力, 無理, 無職, 自分, 退職, 長期,

高知のソフトウェア会社、デジトップが破産したで思うこと。

2017.08.14

Logging


高知のソフトウェア会社、デジトップが破産したで思うこと。
こういうの見て、いまの会社は大丈夫だろうか?
デジトップさんのソースコードを見たことがあるので
ソースコードはしっかりとしたコードを書いているし、いまの会社みたいな
突貫工事みたいなので運用していない。ちゃんと契約の流や制作の流れもある
のにもかかわらず倒産した。この契約の流や制作の流れ通り行えていて
自分たちの技量の上で動いていたならば、倒産することは無かったのではないだろうか?

デジトップ資料引用:

ただ、従業員数がここ数年見ていても変化がないというのは
それなりに問題があったのかもしれない。経営がうまくいっていない会社は
求人が絶えず出ているし、そして自分たちが希望している人が来ないと
却下している。それでは新しい風も入っては来ないしマンネリ気味になり
最終的に「なぁなぁ」の世界になることは間違いない。
経営がうまくいっている会社は、ハローワークにもう求人を出さなくなっている
リクルートや学内の求人などを見て学生さんが就職活動を行うように仕掛けている。
ハローワークで就職活動するというのは、この頃はないに等しい。
ハローワークへ行くと時間帯によるけれども、若い人がソフトウェアやWEB開発などの
求人を探している姿はないに等しい、有ったとしても別業種が多い。
話し戻して、倒産すると全責任は経営者に伸し掛かってくるのだから
経営は大事なんだということ・・・。
何だか・・・他人事ではない感じがします。
健全な仕事が出来ていなかったら、最終的に経営者に伸し掛かってくる。
何でもかんでも仕事を取ってきたらやはり信用はあっという間に崩れていきます。
信用が第一なんだと思います。
信用は評判を生むのだから、悪い評判はあっという間に広がります。

2021/03/31:追記
社長さんの顔をフェイスブックで見たけど良い人そうな感じの人だった。なんかやるせないなと…。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

いま, コード, ここ, こと, ソース, ソフトウェア, それなり, デジ, ドップ, ハローワーク, マンネリ, リクルー, , 世界, , 会社, 倒産, 制作, 却下, 員数, 問題, 変化, 契約, 工事, 希望, 引用, 従業, 技量, , 求人, , 破産, 突貫, 経営, 自分, 資料, 運用, , 高知,

映画、ローグワン・スター・ウォーズを観てきました。 #映画レビュー

2016.12.16

Logging


仕事帰りに映画、ローグワン・スター・ウォーズを観てきました。
結構期待していたので、期待よりはやや不満足気味なのですが
スター・ウォーズとしては間違いなく成立していた映画です。
自分としてはスター・ウォーズの枠を壊してほしいような
気がするのですね。昔ながらスター・ウォーズという伝統が
在るのも分かるのだけど、SFとしては何だか昭和ぽっい、
そこが良いという人もいると思うのですが
そのSFさを新たに平成バージョンに進化してほしいです。
ラストは言えない言ったら面白くないので言いませんが
ラストのラストは凄いなと・・ハリウッド・・・役者さんいらないな・・・。
もう・・・そんなレベルなのか。
https://www.youtube.com/watch?v=3lf_Bf3SAsU
 
今回のテーマは希望だったと思いますが
もっというと希望をつなぐというのが今回のテーマだったと思います。
そういう意味でも、もう一味欲しかった内容でした。
クドいようですが
良かったところもあるのですけど全体的に
ワンパが目立ったなって感じです、仕方がないと言えば
仕方がないですけどね。シリーズモノはそういう展開ですからね。
ちなみにローグとはゴロツキ、ならず者とか言う意味です。
 

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, bf, com, https, lf, nbsp, SAsU, SF, watch, www, youtube, ウォーズ, スター, そこ, テーマ, バージョン, ハリウッド, ラスト, レビュー, レベル, ローグ, ワン, 一味, 不満足, , 今回, 仕事, 伝統, 内容, 希望, 平成, 役者, 意味, 成立, 映画, 昭和, 期待, , , 自分, 進化,

映画、海賊とよばれた男を観に行ったのですが #映画レビュー

2016.12.10

Logging


映画、海賊とよばれた男を観に行ったのですが
どうしても感情移入出来なかった。
「いっちょやってやろうやないかい」「熱が足りん熱が!!」などの予告を見て
見てみたいなぁと思って観に行ったんだけど、
どうしても感情移入出来なかったのです、VFXの技術は
上がっているので、そこはかなり評価出来ると思います、
映像的には全然、違和感がないレベルに達していると思います。
そこは凄く今後の日本映画に希望とチャンスを与えてくれる作品に
なっていると思います。どうして感情移入が出来なかったのか、
一番の理由は戦争の描写です。何故か戦争を美化しているように思えて
仕方なかったのが原因かなと思います。
「永遠の0」の監督だからかな原作読んでいないので何とも言えない。
https://www.youtube.com/watch?v=03va5qDFyzY

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

VFX, かなり, チャンス, ちょ, 予告, 作品, 原作, 原因, 始末, 希望, 感情移入, 戦争, 技術, 日本映画, 映画レビュー, 海賊, , 理由, , , 違和感,

windows10の初期化にできなかったので購入した。

2016.10.01

Logging


windows10の初期化にできなかったので購入した。
9月30日の夜からごとごと10月1日の朝までパソコンと格闘してました。
壮絶に眠いですが、昼から仕事です。
最近のアップデートでパソコンが異常に遅くなり
イライラするぐらいの処理だったのが今ではまぁサクサク動くように
なりました。本当は初期状態にしたかったのですが
できなかったため、マイクロソフト社からWIN10のISOファイルを
ダウンロードしてきて、クリーンインストールしました。
その後、シリアル認証キーを購入して
今はまぁサクサク動くようになりました^_^。
そこまでは良いのですが、2万7千円ちょっとお金が・・・・。
クリーンインストールする時点でダメだなと思っていたのです、
かすかな希望もあったりしたんだけど、結局、WIN7から
クリーンインストールするとお金が発生するだと言うことです。
ちなみに今月、馬鹿みたいに10万ほど
お金が吹っ飛びました・・・・。
節制しないと・・・・。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

2万7千円ちょっとお金, ISOファイル, WIN10, WIN7, Windows10, アップデート, お金, シリアル認証キー, パソコン, マイクロソフト社, ムダづかい, 初期化, 初期状態, 希望, , 時点, 結局,

10年先の未来はどうなっているか?

2016.07.05

Logging


10年先の未来はどうなっているか?
考えたことありますか?
例えばiPhoneは何世代になっているのか?
最新機種はiPhone6S(2016年)だから一年に
二回新機種が発売されるのだから、順調に行けば10年後のiPhoneは
iPhone16SかiPhone17になるってことになるわけです。
一体、どんな形になっているのだろう?
一体、どんな機能が付いているのだろうか、想像できない。
先日、BMWが5年以内 自動運転車の量産化をすると発表した。
おそらくトヨタも追随するだろうから、10年後の未来では
当たり前のように自動運転車が公道を走っているのだろう。
10年後の人工知能はどうなっているのか?
人の気持ちを理解し対話できるまで賢くなっているかもしれない。
https://www.youtube.com/watch?v=paTza7BdlAc
10年先の未来の医療は?
今よりも病を克服した人が多くなるのではないだろうか。
こんな様に
どうなっているのか、少し想像するだけでも
何だか面白いですし、未来には希望があるだなと感じます。
その希望というモノを作っているのは
日々、努力している人達が作っているのだと
思います。そういう人達が新たな選択肢や新たな道を
作っているのだろうと。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

10年先, B01EA5HYVI, iPhone16S, iPhone17, iPhone6S, トヨタ, ハーパーコリンズ, パラダイムシフト, 一体, 人工知能, 何世代, 公道, 希望, 未来, 自動運転車, 選択肢, 量産化,

超一流の二流をめざせ! って本を立ち読み。

2015.10.02

Logging


超一流の二流をめざせ! って本を立ち読みしてきました。
この頃、こういう本が多いなと思います。
無駄な努力するなとか、天才には勝てないとか
そういう身も蓋もないような感じの言葉が並んでいます。
自己啓発本の逆を行く本なのかなと
思っています。確かに
みんな一流にはなれないし
みんな頂点目指して生きていないだとも
思いますし感じますが・・・。
若干、パラパラめくっていて
夢がないなという気がしました、生きていく中で
結構、夢や希望、目標っていうのは
大事なものだと思います。
たとえば、週末には、みんなとガヤガヤしに
街に出ていくとか、週末はデートだとか、
休みの日に美味しいものを食べに行くとか
こういうプチ贅沢があるから
生きていけると思うですね。
この本を読むとそこら辺の
テンション下がる感じがしますが、的を射ている
事は確かです。
あくまでも一流の二流を目指す方か
努力が空回りしている人にはオススメします。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

7, いまいち, そこら辺, テンション下がる感じ, プチ贅沢, みんな頂点, 二流, 休み, , 天才, 希望, 目標, 立ち読み, 美味しいもの, 自己啓発本, 若干, , 言葉, 超一流, , 週末,