@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

お金の本 図解だからわかると貧乏人はお金持ちをパラめくして
2025.06.21
おはようございます.「お金の本 図解だからわかる」と「貧乏人はお金持ち」を電子書籍で読んでみて率直にひろゆき氏が書いた「お金の本 図解だからわかる」が読みやすい、逆に貧乏人はお金持ちは読みづらい、何故か過去の歴史のウンチクが多く内容が残らないと思う人が多いのではないかなと思いました.
書いている内容はわかるだけど、明確なアドバイスを書いているのはひろゆき氏のゴースト?が書いたものが良さげかと思います.
それぞれの本の内容をAIに解説してもらいました、気になる人は手にとって見てください.
「お金の本 図解だからわかる」は、ひろゆき(西村博之)氏が著者のお金に関する本です。正式なタイトルは「図解だからわかる お金の本 ー 死ぬまでお金にこまらない!」です。
この本は、以下のような特徴と内容を持っています。
- 図解で分かりやすい: タイトルの通り、図やイラストを多く用いて、お金に関する知識や考え方を直感的に理解できるように工夫されています。
- ひろゆき流のお金とのつきあい方: 2ちゃんねるやニコニコ動画、4chanの管理人として知られるひろゆき氏が、自身の経験に基づいた「お金に困らないための考え方」や「頭のいいお金とのつきあい方」について解説しています。
- 実践的な内容: 「お金の無駄遣いを減らす」「生活レベルを上げない」「ストレス解消にお金を使わない」「自己投資をする」「競争相手のいない分野で稼ぐ」といった、具体的な行動や考え方が提示されています。
- 現代のお金と社会の変化に対応: 生命保険、株、宝くじ、リボ払い、ソシャゲ、結婚、生活保護などのコスパをひろゆき氏の視点から一刀両断し、これからの時代のお金の稼ぎ方、貯め方、使い方について触れています。
- 「幸せ」とお金の関係: 本書で一貫して主張されているのは、「幸せになるにはお金を使わないこと」や「楽しいの最大化を目指すより不安や不幸をどれだけ減らせるかが重要」といった考え方です。
この本は、お金の運用的な話だけでなく、お金とは何か、お金との付き合い方や心掛けといった基本的ながらも大切な話がシンプルで端的に語られており、お金の知識を体系的に学びたい人や、ひろゆき氏の考え方に触れてみたい人におすすめの一冊と言えるでしょう。
橘玲さんの「貧乏はお金持ち」は、グローバル資本主義が進む現代において、会社に依存せず、「雇われない生き方」で経済的自由を掴むための具体的な戦略とファイナンスの技術について書かれた本です。
主な内容は以下の通りです。
- サラリーマンの「楽園」の終焉: 現代のサラリーマンが置かれている厳しい状況、つまり、企業に縛られ、税金や社会保険料で手取りが減っていく現状を指摘しています。
- フリーエージェント化する世界: 終身雇用が崩壊し、誰もがフリーエージェントとして生きる時代が来ていることを示唆しています。
- 「マイクロ法人」の活用: 本書の中で最も特徴的なのが「マイクロ法人」の活用法です。一人社長の小さな会社を設立することで、税制上の優遇措置を受けたり、国の制度の「歪み」を合法的に利用して富を築く方法が解説されています。
- サラリーマンでは決してできなかった税金の最適化(所得税と法人税の仕組みの違いを利用)
- まとまった資金を無税で運用する方法
- 低金利で融資を受ける方法
- ファイナンスの知識の重要性: 自分の人生を自分で選択し、自由に生きるためには、お金に関する知識(ファイナンス)が不可欠であると説いています。
- 「国家を道具として使う」という発想: 国家の制度や法律を「道具」として活用し、自身の経済的な利益を最大化するという、従来の常識を覆す視点を提示しています。
本書のターゲット層と評判:
- 会社に依存しない生き方を模索している人、独立や起業を考えている人、税金や社会保険料の負担に疑問を感じている人などに響く内容です。
- 税制や会計に関する専門的な内容も含まれるため、予備知識がないと難しく感じる部分もあるという意見もあります。しかし、サザエさん一家を例に出すなど、分かりやすく解説されている箇所も多く、税理士の知識がなくても理解できるよう工夫されています。
- 出版されてから時間が経っているため、税制などの情報が古くなっている部分もありますが、2024年には「新・貧乏はお金持ち」としてアップデート版も出ており、最新の状況に合わせた内容が加筆されています。
要するに、「貧乏はお金持ち」は、現代社会の経済システムを深く理解し、その中でいかに賢く生き、自由な人生を築いていくかを、大胆かつ具体的な方法で提案する一冊と言えるでしょう。
因みにどちらも自分がメンタルが沈んでいる時に購入した本で積本でした、メンタル沈んでいる時はこういう本がメンタルの栄養剤になるだと思います.あと、AIが解説した内容は概ね合っていますが概ね止まりですがまぁ無いよりはある方が良いと思い記載しています.
あと自己啓発ではないけど、自己啓発的な感じなので試して失敗しないように!
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
!」, アップデート, あと, アドバイス, イラスト, うんちく, おすすめ, お金, グローバル, ゴースト, コスパ, こと, サザエさん, サラリーマン, サン, システム, シンプル, ストレス, ソシャゲ, それぞれ, ターゲット, タイトル, ため, チャン, どちら, どれ, ひろ, ファイナンス, フリーエージェント, マイクロ, メンタル, もの, ゆき, よう, リボ, レベル, 一刀両断, 一家, 一貫, 不可欠, 不安, 不幸, 世界, 主張, 主義, 予備, 人生, 仕組み, 以下, 企業, 会社, 会計, 体系, 使い方, 依存, 保護, 保険, 優遇, 具体, 内容, 出版, 分野, 利用, 利益, 制度, 加筆, 動画, 博之, 合法, 啓発, 図解, 国家, 基本, 変化, 大切, 大胆, 失敗, 宝くじ, 実践, 対応, 専門, 崩壊, 工夫, 常識, 幸せ, 従来, 心掛け, 情報, 意見, 感じ, 戦略, 所得, 手取り, 技術, 投資, 指摘, 措置, 提案, 提示, 方法, 明日, 明確, 時代, 時間, 書籍, 最大, 最新, 最適, 本書, 栄養剤, 楽園, 模索, 正式, 歪み, 歴史, 法人, 法律, 活用, 無税, 無駄遣い, 特徴, 状況, 独立, 率直, 現代, 現状, 理解, 生き方, 生命, 生活, 疑問, 発想, 直感, 相手, 知識, 示唆, 社会, 社長, 税制, 税理士, 税金, 端的, 競争, 箇所, 管理, 終焉, 終身, 経済, 経験, 結婚, 考え方, 自分, 自己, 自由, 自身, 著者, 融資, 行動, 西村, 視点, 解消, 解説, 記載, 設立, 評判, 負担, 貧乏, 貧乏人, 資本, 資金, 購入, 起業, 通り, 運用, 過去, 道具, 違い, 選択, 部分, 重要, 金利, 金持ち, 関係, 雇用, 電子,

ハーバード大学物理博士課程・久保田しおんさんのトークが面白いかと.
2025.06.17
おはようございます.右から左に情報が抜けていく中の人が最近見て良かったなって思えた動画はこちら『【鏡の世界では物理法則がわずかに変化する】ハーバード大学物理博士課程・久保田しおん/私たちが消えずに存在している理由を探る/CP対称性は“誰が”破ったのか【CROSS DIG 1on1】』です.何が良かったのかは久保田しおんさんが研究しているニュートリノ物理学のお話がわかりやすくて良かったです.
実際、表面上理解できても分かるわけではないのだけども、それでもワクワクする話だったです、そしてあんな能力があればなぁって思いました.
因みにCROSS DIG【クロスディグ】が結構専門的な話がまるまる聞けてPIVOTと競合相手なのかなと思っています、チャンネル登録数だけ言えばクロスディグは20万人に対してPIVOTは330万人で圧倒的に多いのですが、これからクロスディグが有料転換しなければ勝算はありそうな気がします.
ともあれ、久保田しおんさんのトークは面白いです.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
オン, お話, クロスディグ, こちら, サン, そう, タチ, チャンネル, トーク, トリノ, ニュー, バー, パート, わけ, 世界, 久保田, 動画, 勝算, 博士, 圧倒的, 変化, 大学, 存在, 対称, 専門, 情報, 明日, 最近, 有料, 法則, 物理, 理由, 理解, 登録, 相手, 研究, 競合, 能力, 表面, 課程, 転換,

映画、アンチャーテッドを観ました。 #映画レビュー #遅ればせながら感想
2022.10.29
おはようございます、何をもって仕事とするかが曖昧になっている気がします。
さて、今日はアマプラでアンチャーテッドを遅ればせながら観ましたので感想を残しときます。この映画は簡単に言えば冒険活劇的な映画です、インディーズの現代版とも言えば良いのでしょうか。そんなストーリー展開の映画です。因みに元ネタはゲーム、アンチャーテッドから来ているそうですが、自分はあまりゲームは専門ではないので割愛します。
また、ストーリー展開も知らず何も予備知識も入れずに映画を観た結果の感想だということを前提として感想を書くと、大画面で観ると少しは感想は違うかもしれませんが…全体を通してキャラに個性的なキャラがいないなって思えて残念?。
恐らくですがゲーム展開をナゾッて制作しているだと思います、そこが何だかB級映画に見えてしまうですね。ゲームでは面白い展開でも映画にすると何か一苦労がいるような気がします。
ちょっと辛口コメントですが、ラストに続編がある思わせシーンの方が本編ストーリーよりも何かテンポが良かった気がします。あのテンポの良さで本編も作って欲しかったというのが自分の希望ですね。
もう少しストーリー展開がハラハラドキドキでスピード感があると良い映画になっていたと思います。
まとめ、もう少しスパイスが欲しいカレーのよう、低学年には受けが良さそうだけど大人や青年が観るには何かが足りなかったという映画です。悪くはないが良くもなく・・・。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アマ, アンチャーテッド, インディーズ, キャラ, ゲーム, こと, ストーリー, そこ, ナゾッ, ネタ, プラ, レビュー, 一苦労, 予備知識, 今日, 仕事, 何, 全体, 冒険, 制作, 前提, 割愛, 専門, 少し, 展開, 感想, 映画, 曖昧, 残念, 気, 活劇, 現代, 画面, 簡単, 級, 結果, 自分,

尺が短いものが好まれる時代、分かった気になる情報😇。
2022.08.04
おはようございます、Githubのマルウェアが気になって早朝に情報をチェックしていました。
さて、今の時代、尺が短いものが好まれる時代、分かった気になる情報が世の中に受け入れやすくなっているような気がします。敢えて分厚い本、難解な動画、長文のブログを読むという事をオススメします。短い情報をいろいろな所から収集するよりもニッチな専門家が情報発信しているものを読む方が大事になるじゃないかな。
短い情報は表面上、分かった気になるけど結局、ツマミ部分だけでそのつまみ食いばかりしても中身に到達できないという本末転倒なところがあるじゃないかと思います。なので、それとは反したものが大事じゃないかってね。
今からYOUTUBERになろうとしている方でかなり専門知識を持ち合わせている方は短い動画を作るより、長くて上質な情報を流す方が良いじゃないかなって思います。それは殆どの人は見ないだろうけど価値の分かる人には届くと思います。
短いものは消費されて捨てられる可能性がある、それは一瞬の輝きでしか無い気がしてならないです。お手軽な消費されるものを作るよりかは独自性のあるものを作る方が良いと思います。
努力しないで得れるものはないだと思います。地味だけど毎日の勉強が大事です、いろいろな最短勉強方法が巷に溢れているけど、やる気と努力しか他ならないし手を動かしてたり行動して失敗したりして覚えるしか無いだよね。泥臭い事をしている人の方が社会を支えていたりするものです。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
github, YOUTUBER, いろいろ, おすすめ, かなり, それ, チェック, ツマミ, つまみ食い, ところ, ニッチ, ブログ, マルウェア, もの, 上質, 世, 中, 中身, 事, 人, 今, 価値, 分, 到達, 努力, 動画, 収集, 大事, 専門, 専門家, 尺, 情報, 所, 方, 早朝, 時代, 本, 本末転倒, 次第, 殆ど, 気, 発信, 知識, 結局, 表面, 部分, 長文, 難解,

アクセス数と収益は必ずしも比例しない。ミスマッチな○×。
2022.07.08
おはようございます、今日は週末ですね?、来週の今頃は今の会社を退社している。
さて、タイトルにも記載した通りアクセス数と収益は必ずしも比例関係にありません。そういうことなので自分のブログはそれなりに収益化出来ています。収益が出ているのがブログなのか無料ツールなのかは調べてないので分かりませんが、比例しないことは分かっています。
この頃のアクセス数は横ばい傾向にあるのですが、マッチしている広告が表示されているためかトントンな収益は出ています。もう少しこのブログで稼ぐことが出来れば良いのですが、その為にはそれなりにある分野に特化したブログを制作しないといけないのではないかと思っています。
例えば映画だったりプログラミングだったりと一つの分野に特化したブログになればもっとユーザー数を伸ばせると思います。来週の退社を基に専門分野やあるものに特化したブログを立ち上げます。そのうちどれかが成功したらそれに対して投資していくつもりです。
ちなみにこのブログは今のところ、継続して書いていきます。来週末からいろいろと忙しくなってきます大変💦。
※このブログも来週末を最後に予約投稿を止めます。更新時間帯は変えませんが一週間分の記事を予約投稿するなどは止めます。その方がもっと質の良い記事を書けるじゃないかと思っているからです(この頃、駄目記事が多い気がします)。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
○×, アクセス, いくつ, うち, こと, それ, それなり, タイトル, ため, ツール, どれか, ブログ, プログラミング, マッチ, ミスマッチ, もの, ユーザー, 一つ, 今, 今日, 今頃, 会社, 傾向, 分野, 制作, 収益, 基, 専門, 広告, 成功, 投資, 映画, 来週, 横ばい, 比例, 為, 無料, 特化, 自分, 表示, 記載, 退社, 通り, 週末, 関係, 頃,

悪い円安とか言われているので、下がり具合を見てみた。
2022.05.16
おはようございます。
この頃、悪い円安とか言われているので、下がり具合を見てみました。見てみると結構下がっているのがわかります。


過去5年間でみると物凄く下がっていますよね。海外へ旅行へいくと物価が3倍だとか呟いている人もいたりして・・・。このまま円安が進めばスマホの値段も上がるでしょうね。特にiPhoneなんて20万円するようになるかも知れません。速く日本政府が対応をしなくては駄目な感じになるかなって思います。
この円安は大丈夫って言っている人もいるけれども、自分はなんとなくそうは思えないですね。お給与は上がらない、労働人口は減り続け生産性も下がっています。このまま沈んでいくのかな日本っていう不安があり将来を悲観的に思っている人達もいると思います。
日本政府には、迅速な対応を是非行ってほしいですよね。
尚、Gさんのファイナンス専門サイトがあります、気になる人はこちらから見てみてください。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
20, 3, 5, iPhone, こちら, サイト, スマホ, ファイナンス, 万, 不安, 人, 人口, 値段, 具合, 円安, 労働, 対応, 専門, 将来, 政府, 旅行, 日本, 気, 海外, 物価, 生産性, 給与, 自分, 過去, 頃, 駄目,

映画、99.9-刑事専門弁護士-THE MOVIEを観てきましたよ。
2022.01.04
映画、99.9-刑事専門弁護士を観てきましたよ、率直に感想を述べると案外良かった。因みに自分は「 99.9-刑事専門弁護士 」のドラマも観たことがない、映画予告も観ずに観に行きました。おやじギャグのナンセンスなギャクを連発して、最後にちょっとマシなおやじギャグをいうと「ぶはっ」って笑いそうに自分は場面が何度かありましたが、必死に耐えました・・・。いやーあの静けさの映画館の中では笑えないですね。かなり注目の的になってしまいます。
そんな笑いの場面もあるけど、ラストは衝撃的な真実が描かれていたりして「いやー」何とも言えない空気感になってしまいましたが、全体的なストーリーも良かったと思います。ただ、この映画の独特の世界観を好まない人は、たぶん見れないかもしれません。そのためにも 「99.9-刑事専門弁護士」のドラマをちらっと観てどんな世界観なのかは知っておいたほうが良いかもしれません。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
99.9, MOVIE, The, おやじ, かなり, ギャグ, こと, ストーリー, ため, ドラマ, ナンセンス, まし, ラスト, 世界観, 中, 予告, 人, 何, 何度か, 刑事, 場面, 専門, 弁護士, 必死, 感想, 映画, 映画館, 最後, 注目, 独特, 率直, 的, 真実, 空気感, 笑い, 自分, 連発, 静けさ,

XXXXPICKSを有料会員から無料会員にした訳。
2021.04.16
サブスクリプションを見直すにあたって先日、ニューズピックスを有料会員から無料会員にしました、解約した理由は、先ず(まず)1500円という価格が今の自分には勿体なと感じました。なぜ勿体ないなと感じたか、それはニューズピックスの有料記事や動画を毎日のように見ていないということです。そして次にニューズピックスの動画番組のマンネリ化が大きな要因かと思います。何だか毎回の番組が同じ会に見えてきて飽きてしまったのです。
YOUTUBEをネットサーフィンしていると無料動画でもある程度良質な物もある、そしてニュース記事もググりながら調べていくと専門メディアがあります。そういう事もありNewsPicksの会員を無料枠に戻しました。
因みにニューズピックスの無料枠でも全部視聴できる動画などもあります。例えばこちら。
何故、自分がビジネス系の動画や記事を見るのか?
ビジネス系の動画は意識高い系や意識高いおっさんなどが見ることが多そうだけど、そんな人ばかりが見ているわけでもなくて、証券投資家やIT関係者の方々もチェックしているのです、なぜ、チェックしているかといえば単なる仕事上、ついていけなくなるからに他ならない。技術者だったらわかるかと思いますがこの世界は日進月歩なんです・・・。ただそれだけの話。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1500, newspicks, XXXXPICKS, youtube, おっさん, こちら, こと, サーフィン, サブスクリプション, それ, ニュース, ネット, ビジネス, ピックス, マンネリ, メディア, 事, 今, 会, 会員, 何故, 価格, 先日, 全部, 動画, 専門, 意識, 有料, 枠, 毎回, 毎日, 無料, 物, 理由, 番組, 系, 自分, 良質, 要因, 視聴, 解約, 記事, 訳,

みんな知らないが当たり前だということを忘れる。
2021.02.02
知っている人はみんなも知っているという感覚がある、たぶん専門分野をお仕事にしている人が知らない人と会話するときに相手と歪みが生まれたりしますよね。じぶんもこの頃、それがたまにあります。
知らないがあたりまえだと思って話すことを心がけるって結構大変な作業だなと感じます。話すって書くよりも大変な感じです。書くと感情というものの表現が抜けるけど・・・。話すと感情は抜けない代わりに、いろいろと歪が生まれることがあるなとヒシヒシと感じることがあったので記録として残しときます。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
アタリマエ, いろいろ, お仕事, こと, じぶん, それ, たま, とき, みんな, 人, 会話, 作業, 分野, 大変, 専門, 当たり前, 感じ, 感情, 感覚, 歪, 相手, 表現, 記録, 頃,
大量アクセス元&高知&鳥羽&専門校
2018.02.22
大量アクセス元&高知&鳥羽&専門&端末。
Not Foundのページに大量アクセス。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ