Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

Photo by Flo Dahm on Pexels.com

映画、FALL/フォールをネトフリで観ました.予算が足りなかったのか

2024.10.20

Logging

おはようございます.映画、FALL/フォールをネトフリで観ました.

予算が足りなかったのか、救出までこの映画が描かれていなく.救出した後の映像にいきなり飛んでいるから何とも助かった感が無いですよね.いやもしかしてこれってあの延長線で全部がってことも有り得るのかもとか、考えてしまった自分がいる.あの延長線は映画見ないと分からないと思うしそんな事を考える人はあまりいないと思う.

恐怖体験 – 高所恐怖症の人は絶対見ないでください | FALL/フォール | Netflix Japan

恐らくあの延長線があることによって、この映画はただ恐いだけの映画ではなくなっていると思うし生とかタヒのことを考えてしまうし「人生短し」なので大切に生きようと思える内容になっている.

あの場面がなければ唯のパニック映画で終わっていたのは確かです、ですけどこのフォールという映画はあの場面があるから、それで終わらなかった.

まとめ
唯のパニック映画ではないから意外に楽しめた(高所恐怖症の方は観えないかもしれない).

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

FALL, たび, ネトフリ, パニック映画, フォール, まとめ唯, 予算, , 人生, 全部, 内容, 延長線, 恐いだけ, , 救出, 映像, 映画, 自分, 高所恐怖症,

GW前半後半の予定.

2024.04.30

Logging

おはようございます.GW前半後半の予定というか、GW期間中お休みなので10連休ぐらいあるのかな?数えていないけど….今年はゆっくりお休みできればと思っています、何処かへ行くという予定はないのですが何処かへ行く可能性はあります.

close up photo of water
Photo by Emiliano Arano on Pexels.com

毎年恒例のTシャツアート展に行くかどうかは今のところ未定.毎年行っているから今年も行くということは限らないわけですが...でも気分と天候が良かったらふらりと電車で行く可能性も残っています.

ちなみに大阪というか京都に行くという予定はありますが、まだ予約をとっているわけではなく、これから予算と相談して行こうかなって思っていますが今回も日帰り弾丸の旅です.

あと、この休みのうちにWEBアプリを一つ完成させようと思っています.それだけはマストでしたいなっては思っています.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

GW前半後半, Photo by Emiliano Arano on Pexels.com, Tシャツアート展, WEBアプリ, うち, ところ未定.毎年, ふらり, マスト, 予算, 予約, 京都, 休み, 何処, 大阪, 天候, , 日帰り弾丸, 毎年恒例, 気分, 電車,

GWにTシャツアート展に行きます。 #たぶん行く

2023.04.28

Logging

おはようございます。Tシャツアート展に行くことが自分の中で恒例の行事となっていたのですが、コロナでその恒例行事も一時停止していたのですが、此の度、Tシャツアート展に行くことにしました。今回は電車を使ってTシャツアート展に再度行こうと思います。

GW(ゴールデンウィーク)が10連休あるので、さてどうしようかなと思っています。これを知ったのが3ヶ月前だったら格安で県外旅行が出来たと思うのですが、知ったのは先月のことなので・・・。なんだかダラダラとしたGWになりそうな気がします。本当なら予定で埋めたい・・・。

自分は沖縄県に旅行に行きたいのですが、それが出来ないのは予算的に高額なことです、高知県から沖縄県に行くのに旅費が往復で10万以上するので、未だに沖縄旅行に行くことを躊躇っています。

見に行きたいところは、沖縄の水族館と沖縄じゃなく屋久島。たぶん、屋久島に行くのは結構予算がいると思っていますし、登山用品なんか備えていると結構な額になりそうですね。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

GW, Tシャツアート展, ゴールデンウィーク, コロナ, 予算, 再度, 屋久島, 往復, 恒例, 恒例行事, 旅費, 未だ, 水族館, 沖縄, 登山用品, 行事, 躊躇, 電車, , 高知県,

Photo by eberhard grossgasteiger on Pexels.com

Z世代ではないのでAndroid端末でも良い気がします。

2023.03.15

Logging

おはようございます、MacMini M2かMacBookか悩み始めたら、M3が登場するよという噂が・・・。

Nokia X30 5G – Play the long game​

自分みたいにMacMini M2かMacBookか悩んでいる場合は、今すぐ購入するかどうかを決める前に、M3が本当に発売されるのか、どのようなスペックが予想されるのか、そしてどのくらいの価格帯で販売されるのかを確認することが重要になると思っています。

また、M3が発売されるまでに必要な作業や用途がある場合は、今すぐ購入してしまう方がよい場合もありますがMacMini M2とMacBookはそれぞれ特徴が異なるため、自分の用途や予算に合わせて選択することが重要ですよね~~分かっているだけど、悩ましい問題です。

これはMacの話ですがAndroidとiPhoneにも置き換えて言える話です。悩ましい🤔。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Android, iPhone, M3, Mac, MacBook, MacMini M2, MacMini M2かMacBook, スペック, それぞれ特徴, よい場合, 予算, 作業, 価格帯, , 悩ましい問題, 用途, 自分, ,

動画編集の方法をYOUTUBEで解説している人+クリエイター

2020.01.25

Logging

動画編集の方法をYOUTUBEで解説している人 GIV-ギブさん、Premiere Pro(プレミアプロ)などの編集ソフトの方法を解説してくれてます。自分もこれから動画などをYOUTUBEにUPしていこうと思っているのでとても勉強になる動画です。動画編集の本を購入する予算がいま無いので切り詰められるところはネットで勉強して技術習得を行うつもりでいます。

ネット情報だけで、こんなにも良い情報が転がっていることが驚きです、昔は技術がこんなにもなかったと思います。ここ数年で情報がかなりオープンになってきている気がします。これはいろいろな事を始める一歩を踏みやすい状況になってきていると感じます。

最後に動画編集の解説と GIV-ギブさん のチャンネル登録URLを貼っときます。

【Premiere Pro】フリーズエフェクト(Freeze Effect)の作り方

https://www.youtube.com/channel/UCPodLbvajx-60sRzRqL338Q/featured

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

338, 60, channel-, com, fea, GIV-, Premiere, Pro, sRzRqL, UCPodLbvajx-, UP, url, youtube, いま, いろいろ, かなり, ギブ, クリエイター, ここ, こと, これ, ソフト, チャンネル, つもり, ところ, ネット, プレミア, プロ, , 予算, , , 勉強, 動画, 情報, 技術, , 方法, , 最後, , , 状況, 登録, 編集, 習得, 自分, 解説, 購入,

jaxaの初任給が破格のお値段

2019.12.29

Logging

JAXA 2018-2019 有人宇宙活動

jaxaの初任給が破格のお値段です?

昨日、こんなつぶやきをしたのですが…
本当にJAXAのお給料は破格の値段ですね。。。

これでも求人に殺到するだから、お金では無いと思います。
ちなみにJAXAの初任給は19万円です、30歳過ぎている人は30万円
支給されるらしいけれど…。

それでも国は予算を削減しようとするのだから
鬼じゃないかなと思います。

これからは産業にもなるので投資するべき
ものじゃないかなと思ってしまうですけどね。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

19, 30, jaxa, お給料, お金, これ, それ, もの, , 予算, , 値段, 初任給, 削減, , 投資, 支給, 昨日, 本当, 殺到, 求人, 産業, 破格, ,

感覚が違うよイーロン・マスク!

2019.12.21

Logging

Starship | Earth to Earth

スペースXのYOUTUBE動画を観ていたら
2017年にこんな動画があった…。

宇宙船を飛行機のように使うというもの。
いやこれは普通の人は考えないよな、、、その感覚がない。

飛行機の倍の予算で乗ることが出来ればこちらを選択する人はいるはず。
そして国から国へと移動するのが20?50分で出来てしまう・・・。

日本からアメリカへ行くのも1時間以内で行くことが
出来るようになれば、なんだか物事の考え方が変わっていくように
思います。

This is SpaceX

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

0, , 20, 2017, 50, com, youtube, zqE-ultsWt, アメリカ, イーロン, こちら, こと, これ, スペース, パス, マスク, もの, 予算, , , 動画, , 宇宙船, 感覚, 日本, 普通, 物事, 移動, 考え方, 選択, 飛行機,

ラプラスの魔女を観ましたよ。原作をおそらく・・・。

2018.05.06

Logging


ラプラスの魔女を観ましたよ。
感想はどんなに頑張っても良いとは言えない・・・。
原作:東野圭吾作、ラプラスの魔女を映画化するのは無謀だったのでは
無いのかな。どんなに頑張ってもこれは映画化に向いていない気がします。
おそらく原作に忠実に描いたものだから
映画に違和感を感じることに繋がったのではないだろうかと
映画の評価もなんだか悪いみたいです。
原作の世界観が全く描けていない気がします。
役者さんが悪いわけではなく、これは映像表現の問題がかなり
あるのではないかなと、三池監督はアクション映画とかそういうのが
やはり得意そうです。ラストのVFXが予算がおりなかったんだろうけど
少し痛かった感じがしました。
全体的に予告より良い評価を自分は得ることは出来なかったです。
https://www.youtube.com/watch?v=DpI3nxq52Bk
 
 
 
 

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

VFX, アクション映画, ラスト, ラプラス, 三池監督, 世界観, 予告, 予算, 原作, 始末, 役者, 映像表現, 映画化, 東野圭吾作, 良い評価, 角川文庫, 違和感, 魔女,

#砂浜美術館Tシャツアート展2018年度へ行ったけど天候不良で人が閑散としてた。

2018.05.03

Logging


https://www.youtube.com/watch?v=ggrzaMXib1E
今年も天候不良、スマホで撮影したのですが良い画があまり撮れていなかったので
白黒でアップします。明日(2018/05/04)は天気良いみたいなので良い画が撮れるかも?
予算ですが大体ですけど高知から電車で土佐入野駅まで特急列車往復で
行くと1万円ぐらいの費用がかかると思っていると良いかも。
自分は今回、指定席で土佐入野駅まで行き、
土佐入野駅から高知駅まで指定席で帰ってきました。
道中の景色が何だか単調だったので、ウトウトでした・・・。
今回、何だか人が少ないような気がしました、
節目の年なのに、なんだか残念な気がします、去年はもっと
人がいたような気もします。たまたま今日は少なかっただけなのかも
しれませんが・・・。
その他の動画はこちらから
https://www.youtube.com/channel/UCXjtswW2Yh9vF6jrIkHW9Fg

 

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

4, スマホ, その他, 予算, 動画, 去年, 土佐入野駅, 天候, 天気, 指定席, 景色, 特急列車往復, 白黒, 砂浜美術館Tシャツアート展2018年度, 節目, 良い画, 費用, 道中, 電車, 高知, 高知駅,

映画、トランスフォーマー/最後の騎士王を観てきましたので感想を残しときます。

2017.08.06

Logging


映画、トランスフォーマー/最後の騎士王を観てきましたので感想を残しときます。
事前に映画の評価をチェックした所、5段階評価で3.6ぐらいの評価だったので
どうなんだろうかと思って観に行ったのですが、字幕版はそれほど悪いとも感じず
最後まで観ることができました。
3Dで観ればもっと良い評価になるのかなと
思いましたが、吹替版の3D上映しか高知県はなく、残念!!
ちなみに今回の最後の騎士王ですが、
過去のトランスフォーマーシリーズをある程度観ていないと
ついて行けないのかなと思います、じぶんの前の席のひとりの男性は
途中で席をはずした後、戻ってこなかったです・・・。
そういう人もいるので
楽しめる人もいるけれど、楽しめない人もいるのかなという印象を持ちました。
今回で最終章の1部目だと思いますが、2部目はこれ以上のド派手なモノにするには
結構予算が必要だなと感じます、日本では絶対に作れない作品だということは
痛いほどわかる作品でしたね。
 

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

3D上映, B074C8YZ66, TLK-22, じぶん, トランスフォーマー, ニューバンブルビー, 予算, 作品, 吹替版, 大事, 始末, 字幕版, , 感想, 最後, 最終章, 騎士王, 高知県,

副業を認めている会社の社員さんが!?働き方改革のお手本として?

2017.01.05

Logging


副業を認めている会社の社員さんが!?
働き方改革のお手本としてNHKの放送に出ていたけど
あんなに上手く行くことはないだろうなぁと思いつつ副収入無いよりも
あれば良いなと感じました。
その社員さんは副収入として年収400万円プラスだとか・・・。
(WEBで防犯グッズとかを売って年収400万円稼いでいらっしゃる。)
それぐらい稼ぎがアレば副業を本業にしても大丈夫じゃねぇと
思うわけですが、企業の社員さんとして働いています。
自分もそれなりに作れたりするし、クローラー系も出来たりするので
案外、行けるじゃねぇとか思ったりするのですが・・・。
やはりウェブで商売する場合やサービスを展開する場合、それなり
予算が必要になるのかなと思います。
昔なら、それなりググれば拾ってくれる事も
あったと思いますが、いまは広告やSNSを巧みに使い分けないと
アクセス数は伸びないのかなと感じます。
ちなみにAPIを使うことによって
効率よくWEBサービスを作ることが可能だったりします。
工数削減には繋がりますが、API提供元が提供を廃止するという
リスクなどもあり、一概には言えないですがAPIを
使うとかなり便利です。
APIサンプルサイトを載せときます。
http://so-zou.jp/web-app/tech/web-api/

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

APIサンプルサイト, API提供元, Webサービス, アクセス数, ウェブ, お手本, クローラー系, それぐらい稼ぎ, リスク, 予算, 会社, 働き方改革, 副収入, 副業, 工数削減, 年収400万円, 広告, 本業, 社員, 防犯グッズ,

六本木を中心に開催されるテクノロジーアート展を観に行きたいけど。

2016.02.19

Logging


六本木を中心に開催されるテクノロジーアート展を観に行きたいけど
予算の都合上見に行けない。{おそらく}
体感型のアートは本当に凄いですよ。
見ていて楽しくて触れたらもっと楽しいです。
東京近辺のかたが、羨ましいです。
近ければ見に行ってますね。
開催箇所が数か所あるので自分がみたいなと
思うものだけ厳選して見に行っても良いかと思います。
一日ですべて回ろうとすると
朝から見に行かないととても廻れそうに
無いですね。
ちなみに開催日時は2月26日?3月21日まで。
場所は六本木周辺:詳しくは公式HPを参考に。
MEDIA AMBITION TOKYO 2016
(メディア アンビジョン トキョウ 2016)

https://youtu.be/belTdz8xdd0

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

MEDIA AMBITION TOKYO 2016, すべて, テクノロジーアート展, メディア アンビジョン トキョウ, 中心, 予算, 体感型, 公式HP, 六本木, 六本木周辺, 参考, 未来, 東京近辺, 過去, 都合上見, 開催日時, 開催箇所,

【 #映画 】マエストロ観てきましたのでレビュー書いときますけど(´・ω・`)

2015.02.19

Logging

映画「マエストロ!」予告編

朝、仕事行く前にマエストロを観てきましたのでレビューなんかを書いときますけど、おすすめ度はあまり高くないです。全体的に低予算で撮られている感じがします。ごく普通の映像なんですけど徐々に、それが違和感なく感じてきます(そういう映画だという感じ)。そして、この映画は下ネタが多いです。西田敏行さんが演じるマエストロが下ネタ連呼します・・・・。

映画の内容は良くも悪くもない感じです。いまひとつスパイスの足りなかった感が自分には残りました。ちなみに映画のテンポは結構良い方だと思います。長いという印象は受けなかったです。トイウコトデ、そんな感じの映画でした。
?

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

-eohDY, 2, 4, ch, com, https, watch, www, youtube, おすすめ, スパイス, それ, テンポ, トイウコトデ, マエストロ, レビュー, 下ネタ, 予算, 仕事, 内容, , 印象, , 感じ, , 映像, 映画, 普通, , 自分, 西田敏行, 連呼, 違和感,

高知空港にJRが直結すれば赤字解消はできなくとも。

2014.12.15

Logging


高知空港にJRが直結すれば赤字解消はできなくとも、それなり高知県の印象がよくなることは確かです。
たぶん、15億ぐらいの予算で今の土佐くろしお鉄道に連結できると思うわけです。
もっとやすく仕上げることも可能かな?
本当にアレばすごく便利だなと思うですけど、
なぜ龍馬空港(高知空港)にJRを連結しないのかが疑問です。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

15億, jp, JR, アレ, インフラエンジニア, インフラ屋, 予算, 印象, 土佐くろしお鉄道, 教科書, 現場, 疑問, 赤字解消, 高知県, 高知空港, 龍馬空港,