Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

Photo by Caio on Pexels.com

15分、本を読む時間を作ろうと思っています.積本消化していこうと.

2025.06.19

Logging

おはようございます.読書は、知識を深め、視野を広げ、心を豊かにしてくれる素晴らしい習慣です。たった15分でも、毎日続けることで多くのメリットがあります。

なぜ15分なのか?

15分という時間は、忙しい日々の中でも比較的確保しやすい長さです。この短時間でも集中して読書に取り組むことで、次のような効果が期待できます。

  • 集中力の向上: 短時間でも読書に没頭することで、集中力を養うことができます。
  • 知識の定着: 毎日少しずつでも読み進めることで、内容が頭に残りやすくなります。
  • ストレス軽減: 読書は現実から一時的に離れ、心を落ち着かせる効果があります。
  • 語彙力と表現力の向上: 様々な文章に触れることで、自然と語彙が増え、表現力も豊かになります。

15分読書を習慣にするためのヒント

電子書籍も活用する: スマートフォンやタブレットで手軽に読める電子書籍も、隙間時間の読書に役立ちます。

時間と場所を決める: 「朝食後」「寝る前」「通勤電車の中」など、毎日同じ時間と場所で読むようにすると習慣化しやすくなります。

手の届くところに本を置く: すぐに手に取れる場所に本を置いておくと、いざ読もうと思ったときにスムーズに始められます。

好きなジャンルから始める: まずは自分が興味のある本や好きなジャンルの本から読み始めましょう。読書が楽しくなり、習慣化へのモチベーションが高まります。

無理はしない: 毎日続けられなくても、自分を責めないでください。少しずつでも継続することが大切です。

というメリット等をAIに提示してもらったので読書を始めようと思っています.

因みに自分は電子積本がかなり多いです、その積本を消化していこうと思ったのが15分の読書です.

積本を消化するには一字一句読まないに限る.
昔は本を一字一句読む派だったんだけど、この頃は飛ばし飛ばし読む派に変わりました.大体、こんな内容だなって所、分かるのでそういう所や分かっている説明文は飛ばすスタイルに切り替えました.

読了した本は積本感想を書いていきます.恐らく月に一回ぐらいに一つの感想なのかもしれないけど書いていきます.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

こと, ジャンル, スタイル, ストレス, スマート, スムーズ, タブレット, ため, とき, ところ, ヒント, フォン, メリット, モチベーション, よう, 一つ, 一時, 内容, 効果, 向上, 場所, 多く, 大体, 大切, 好き, 定着, 感想, 手軽, 提示, 文章, 日々, 明日, 時間, 書籍, 朝食, 期待, 様々, 毎日, 没頭, 活用, 消化, 無理, 現実, 知識, 短時間, 確保, 継続, 習慣, 自分, 自然, 興味, 表現, 視野, 語彙, 説明, 読了, 読書, 豊か, 軽減, 通勤, 隙間, 集中, 電子, 電車,

オモロイからやってんねん、出来ることからすれば良い.

2025.05.08

Logging

おはようございます.GW期間中に何度かUPしましたが自分で動画を作るのはオモロイ.そして人工知能を使った対談もオモロイです.いま情報源を読み込ませて音声を作っているのですがここから修正したりすることや色を付ける修正が出来たらもっと自分のオリジナル性が高まるのではないかと思っています.

先日もお話した通り何処かのタイミングで自分語りも入れていくかも知れません.このまま再生回数が増えたら良いのですけど、そんなに上手く行くかはわからない.上手く行けば自分語りは当分先になるかもしれないです.

そもそも自分語りするにはマイクを購入してからになると思いますので、すぐ明日からっていう話にはならないです.因みに購入しようと思っているマイクは2万円ぐらいのマイクを買ってボイスも少し変更して語ろうと思っています.

ブログを書きながら声にも出していくようなスタイルで自分語りをしてみようかなとか思っています.顔出しするかどうかは今のところわかりません.でも少しでもチャンネル登録数を増やして収益化したいなって思っています.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

いま情報源, オモロイ, オリジナル性, スタイル, タイミング, チャンネル登録数, ボイス, マイク, 人工知能, 何度, 修正, 再生回数, 動画, 収益化, , 対談, , 通り何処, 音声, ,

一人の天才というよりは流れを作るのが上手い人なのかもしれない.

2024.09.05

Logging

おはようございます.チームラボ代表猪子寿之 氏は東大卒の人だけど、一人の天才というよりは流れを作るのが上手い人なのかもしれない.猪子寿之 氏は小さなWEB会社から始めていまでは世界で活動する会社になった元を作ったひと.

【1日密着】アート界の革命児、チームラボ代表猪子寿之の1日

猪子寿之 氏と一緒に何かを作りたいと思っている人は多くいるじゃないかな.昔からこのひとはこういうスタイルだから、ひとが付いてきたんだと思っている.人間味あふれる人だから一緒に何かをしたいだと思うだろうなって.

類は友を呼ぶは会社にも通ずるだろうと.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

WEB会社, スタイル, チームラボ代表猪子寿之, ひと, ひと., 一人, 上手い人, 世界, , 人間味あふれる人, 会社, , , 天才, , 東大卒, 猪子寿之, ,

通称デデデデ映画化。

2024.02.03

Logging

おはようございます、YOUTUBEのおすすめに浅野いにおさん原作の『デッドデッドデーモンズデデデデデストラクション』の映画予告が表示されたので見てみた。予告だけでどうなるだろうと展開が気になる内容だった。

『デッドデッドデーモンズデデデデデストラクション』は浅野いにおさんファンの中では『デデデデ』と訳されるそうですね、どんな内容か知らないので何も知識を入れずに映画観に行くと思います。

映画『デッドデッドデーモンズデデデデデストラクション』本予告解禁!【前章3月22日(金)・後章4月19日(金)全国公開】

因みに自分、この頃、漫画を全然見ない感じになってしまった、フルリモートで仕事をしている関係ひる休みも家にいるのでコンビニで漫画の立ち読みとかをしなくなってしまい原作を読まずに映画化されたものを観るというスタイルになっているので、この頃は辛口評価がし難くなっている。

今回の『デデデデ』もおそらく原作を読まずに映画です。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

youtube, おさんファン, おさん原作, コンビニ, スタイル, デッドデッドデーモンズデデデデデストラクション, フルリモート, 予告, 休み, 原作, , 展開, 映画予告, 映画化, 映画観, 浅野い, 漫画, 知識, 立ち読み, 辛口評価,

FF7Rをやっとクリアした。何年まえに

2023.12.10

Logging

おはようございます、FF7Rをやっとクリアした。何年まえに発売したんだったけっと調べてみると2021年の6月10日に発売された事がわかった。発売されてから2年間とちょっとの月日が経過してやっとクリア一回目というのは、普通の人からすると遅いかもしれない。でも、自分ではまずまず早い方のクリアです、ゲームは好きなのだけど気が向いたときだけプレイするスタイルなので、大体こんな感じになることが多い。PS5というものを購入しなかったらもっと遅いクリアだったかもしれない。

因みにいろいろとやり残しの部分があるので、これからFF7リバースが発売されるまで少しずつ消化出来るところは消化したいとは思っているのだけども、おそらく消化せずに次のゲームを購入することになりそうです。どっちやねん・・・(ひとりツッコミ😅)

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

2年間, 6月10日, FF7R, FF7リバース, PS5, クリア一回目, ゲーム, スタイル, ところ, ひとりツッコミ, , 何年まえ, 感じ, 早い方, 月日, , , 自分, 遅い, 部分,

chatGPTを使用していますか。”YesOrNo”

2023.02.28

Logging

おはようございます、chatGPTをお仕事でも活用しています。

例えば「Bootstrapで下記の情報(単語一覧)を使用してフォームを構築して」と指示すると、コーディングしたBootstrapの雛形を生成してくれます。なので、大量の項目数を必要とする場合などは間違いなく力を発揮してくれます。

因みにchatGPTはコーディングを途中で辞めてしまう場合がありますので、その場合は続きを書いてという指示を出せば、続きのコードを書いてくれますが、ここで注意点があり先ほどと同じスタイルのコードで書いてくれればよいのですが、たまにコーディングスタイルを変えてしまう場合があります。そう言う時は先ほどの続きを書いてと指示を出すか、最初からやり直してもらうのが良いです。

その他の方法として一度に渡すタスク量を少なくして小出しに指示を出すとでも良い結果が得られます。

コーディングしてくれた物が完璧なものをchatGPTに要求するより、後は人の手で直す方が効率が良いのです、ですので自分はこれで全てが現段階で出来るとは思っていませんし、そういう使い方は難しいとも思っています。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Bootstrap, ChatGPT, コーディング, コーディングスタイル, コード, スタイル, その他, タスク量, フォーム, 一度, 下記, 効率, 単語一覧, 小出し, 指示, 最初, 現段階, 途中, 雛形, 項目数,

もう更新されていない「かめっちTV」の対談を見て思うこと。

2022.01.17

Logging

昨日の夜中、トンガで火山噴火があり夜中に津波警報で起こされました。高知県の漁港でも船が流されたりして被害があったようです。

さてYOUTUBEチャンネル「かめっちTV」ですが、二年前から全然更新されていないチャンネルです(亀山会長さんらしい判断だと思います)。そんなチャンネルをあるきっかけで見ることになりました。あるきっかけというのはメタップスCEO佐藤航陽さんが先見の眼がある人だなって知り調べていくうちに対談動画にたどり着きました。 DMM亀山会長とメタップスCEO佐藤氏の対談を見てやっぱ思考が違うなって思いました。

DMM亀山会長、メタップスCEO佐藤氏とお金2.0について語る!1/8【かめっちTV】

この動画8話ありますが、最後の最後まで人間味あふれる二人だなって思え良かったです。動画では誰でも分かりやすくというスタイルで作られているので見やすいじゃないかなって思います。

因みに佐藤航陽さんの事を調べていくうちに、この人が書いた「未来に先回りする思考法」という本を購入して読んでいたんだなって事に気づき、再度読み直しています。尚、「お金2.0」はまだ読んでいません。

HORIEMON.COM metaps 佐藤航陽 WITH 堀江貴文 CM

おまけ:先見の眼のある人、 佐藤航陽さん

テクノロジーが変えるビジネスの未来~佐藤航陽×小澤隆生×大澤朋陸×岩瀬大輔

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

8, CEO, DMM, TV, youtube, うち, カメ, きっかけ, こと, スタイル, チャンネル, トンガ, メタップス, 亀山, , , 二人, , 人間味, 会長, 佐藤, 先見, 判断, 動画, 噴火, 夜中, 対談, 思考, 思考法, 昨日, 更新, 最後, 未来, , 津波, 漁港, 火山, , , , 被害, , 警報, 購入, , 高知県,

ブログの形を少し変えようかなとか思いつつも今まで通りか?。

2021.11.01

Logging

ブログの形を少し変えようかなとか思いつつも今まで通りの近況スタイルで記事を書いていきます。もうこのブログ、書き出してから7年ぐらい経過していますね。書き出した当初は若気の至りみたいな文章だといま読み返すと思います。黒の歴史みたいで消し去りたいなと何度も思ったのですが、このサイトのブログだけは最後の最後まで残しておこうと決めています。もう七年間も続けているとなると自分が生きた証みたいなブログですよね。

因みに自分はこれ以外にもブログを書いているサイトはありますが、更新頻度はこのブログが断トツに多いです、自分がブログを書き出したのは、20代の前半ぐらいからです、その時に絵日記ブログを書いていてまぁまぁなアクセス数と某アニメスタジオ社からの訪問があったりして、ある意味、ブログを書いていて面白かった時期であり、身バレしないかと冷や冷やしながら書いていた時期でした。

今思えば、身バレしてもブログを書き続けていたら本ぐらい出版できたかもしれません、今となっては夢物語です。

それぐらいWEBで何か活動する人が増えてワンチャン狙うのが大変な時代です。昔が戦国時代なら、いまは徳川が治めている時代だと思ったほうが良いです。まだ、YOUTUBEの方がワンチャンあると思いますがそれでも厳しい。先行優位なのは別にWEBだけではない話ですが、今からブログをはじめてもワンチャンはないと思います。

noteなどで稼ぐ方法はあるとは思いますが、精々稼げて5万円ぐらいじゃないでしょうか、それ以上は厳しそう。noteにこのブログを移行しようと考えたこともありますが、WPからNoteへのデータ移行は面倒くさいので諦めました。なのでこのブログでこれからも書いていきます。

この頃、なんの記事を書いたら良いのかと悩むときがあります。機械学習などの記事を書くとあまりアクセスは取れないし、初心者向のプログラムコードを書いたりしたいなとは思うものの。いつの間にか、自分自身に初心者の気持ちが抜けていて、直ぐに問題解決してしまうのでどこで躓いたのかがわからない。書かないJSみたいなコードを書いていたら、たまに躓くこともあるけどそれでも初心者向とは言いにくいですね。

いま自分が興味を持っているのはデイトレードですが、まだまだ分かっていないことの方が多いのでブログで書くには未だかなと思います。まずはシュミレーションで試して自分にあっているかどうか判断してあっていたら確定申告が終わったあとぐらいから始めたいと思ってはいます。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

20, 7, アクセス, アニメ, いま, これ, サイト, スタイル, スタジオ, バレ, ブログ, , , 何度, 出版, 前半, 少し, 当初, , 意味, 文章, 断トツ, , 時期, 更新, 最後, , 歴史, 経過, 絵日記, 自分, 若気, 記事, 訪問, , , 近況, 通り, 頻度, ,

プログラム言語レッスン動画じゃない緩いやつ始めます。いやハジメマシタ!!

2021.10.25

Logging

プログラム言語レッスン動画じゃない緩いやつ始めます。YOUTUBEでむかし、ズブズブなPHP言語レッスン動画をUPしていました、今回は音声説明も何もないダダ、コードを書いている緩い動画を日々UPしていきます。動画に音楽を添えたスタイルにしようと思いますが、その他の解説や何やら動画に組み込みません。解説は概要に書くか、難しくなってきたらブログ記事にしようと思います。書いたコードサンプルはGithubにでもUPしていきます。

ネタが尽きたら動画UPの頻度が落ちると思います。タイトルは『T2がコードを10年書いている』です、今のYOUTUBEチャンネルを使ってUPしていきます。

トイウコトデ早速UPしました。

code{0} JS編-part1

初回はIF文で動作するプログラムになります。ソースコードは下記に置いていますのでご自由に使用くださいませ。

https://github.com/zip358/T2_pg

code{0} JS編-part2

追記:音声での解説を検討中。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

10, 2, com, github, https, if, php, Qq-ctgcMRWQ, UP, watch, www, youtube, コード, サンプル, スタイル, ズブズブ, ソース, その他, タイトル, だだ, チャンネル, トイウコトデ, ネタ, ハジメマシタ, ブログ, プログラム, むかし, やつ, レッスン, 下記, , 今回, , 使用, 初回, 動作, 動画, , 日々, 概要, 解説, 言語, 記事, 説明, 音声, 音楽, 頻度,

少しjava言語を勉強中。自分の勉強方法はこんな感じになります。

2021.08.18

Logging

最近、雨が続いていてあの暑さを忘れかけていますが、いま夏なんですよね。。。天気が回復したら空の良い写真が取れそうな気がします。

さて、先日からjava言語をまともに勉強しだしました、アプリ制作をしながらjavaに触れようかなと最初は思ったのですが、考え直して基本から始めた方が遠回りだけど近道に思えたので、そちらを選びました。

今までPHP言語ばかりしていたので正直な所、java言語はとっつきにくいですけど、オブジェクト指向の王様を勉強していると他の言語にかなり応用が効くみたいなので今更ですが、勉強しているですね。

自分の勉強方法は参考書などを手にして勉強するのではなくて、実際に手を動かしながらネットで調べつつ勉強スタイルです、これが一番自分には向いている勉強方法なのかなと思います。参考書は一番最後に開くようにしているという感じです。手を動かしながら学ぶときに重要なのはお題を見つけることなのですが、この頃はアルゴリズムの問題を提供しているサイト(競技プログラミング)が山程あるので、そちらを解きながら勉強していくのがベストだと思います。

参考書を読んで、そのまま身につくという人はあまりいないじゃないかなと思いますし、実際に使う関数って限られているので、そのパターンを身につけるには問題を解いていくのが大事になると思います。

因みにjavaのコンパイルと実行方法はこんな感じになります。

javac -encoding UTF-8 example.java
java example

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

java, php, アプリ, いま, オブジェクト, かなり, こと, これ, スタイル, そちら, とき, ネット, まとも, 今更, , 先日, 写真, 制作, 勉強, 参考書, 回復, 基本, , 天気, 実際, 少し, 応用, 感じ, , , 指向, , 方法, 最初, 最後, 最近, 正直, , 王様, , 自分, 言語, 近道, 重要, , , ,

教養としての投資の奥野 一成さんの語りが良い感じ。

2021.08.01

Logging

8月になりましたね。今頃、未来の自分は何をしているのかなぁなどと思いながら記事を書いています。

今回はVR教養としての投資の奥野 一成さんの語りが良い感じですって話です・・・(*´ω`*)、4000億円を動かす男が語る動画を見ましたので感想を残しときます。まず前半と後半の動画になっています、それをYOUTUBEで見れるなんて何気にテレ東BIZは太っ腹だなと思います。投資のことを結構、わかりやすく説いている番組だと思います。この頃、YOUTUBEでテレ東BIZの動画がオススメにあがるのは、どういう事なのか分かりませんが・・・ナイスなチョイスだと思っています?YOUTUBEの人工知能は凄いよな。

【前編】4,000億円を動かす男が語る長期投資【テレ東経済ニュースアカデミー】(2021年7月10日)

前置きはそれぐらいして感想ですよね、凄く投資の深堀りした話は出てこないものの、投資の素人にもわかりやすく投資のことを後半説いています、そして孫さんの投資スタイルはどうだとかやバフェットさんの投資スタイルなども前半に詳しく話されています。これから投資や投機を始めようという方は見て損はない回だと思いますので、是非ご覧ください?

【後編】4,000億円を動かす男が語る負けない投資【テレ東経済ニュースアカデミー】(2021年7月17日)

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

4000, 8, BIZ, Vr, youtube, おすすめ, こと, スタイル, それ, チョイス, テレ東, ナイス, バフェット, 一成, , 人工, 今回, 今頃, , 何気, , 前半, 前置き, 動画, 太っ腹, 奥野, , 後半, 感じ, 感想, 投資, 教養, 未来, 深堀, , 番組, 知能, 素人, 自分, 記事, , ,

宇宙旅行が現実になるにはあと30年ぐらい時間が必要だと思う。

2021.07.27

Logging

先週は2記事しか投稿していないですね(*´ω`*)すみません。今週から土日祝も記事を投稿するスタイルに戻します。

宇宙旅行が現実になるにはあと30年は必要だと思う、これはある意味直感的なものなので実際はもっと早く一般人でも東京へ遊びに行くねぐらいの感覚で宇宙旅行へ行ける日が来るのかもしれません。

因みに先日、アマゾンの創業者、ジェフ・ベゾス氏が宇宙へ行き無重力体験などをして帰還しました。

Historic Blue Origin space flight takes off

こんな感じであと10年ぐらいは富裕層が宇宙旅行へ一生に一回ぐらい行けるものというモノになるでしょう、次に月や火星などや他の惑星から資源を地球に持ってくるという事を行うことが事業になるのが20年後の未来かと思います。その後、他の惑星に開拓者として一般人が宇宙へ行くようになるのが、30年後の未来かと思います。

遠い未来のようですけど、いまの子供たちは確実に宇宙は近い存在になっていると思います。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

10, 2, 20, 30, アマゾン, いま, こと, これ, ジェフ, スタイル, ベゾス, もの, , 一生, 一般人, , 事業, 今週, , 体験, 先日, 先週, 創業者, 土日, 地球, 子供, 存在, 宇宙, 宇宙旅行, 実際, 富裕層, 帰還, , 必要, 惑星, 意味, 感じ, 感覚, 投稿, , 時間, , 未来, 東京, 火星, 現実, , 記事, 資源, 重力, 開拓者,

あれこだよ。前からあったけど、これからこれだと思った件。

2021.02.15

Logging

これからは、N高みたいな時代になっていくだろうと思います。時代は変わると思います、勉強はさせられるものじゃなく、するものだという考えを持っている学生にとってはN高はとても良い環境なんだろうと思います、そしていじめられている子でも、高校卒業の資格をとれる良い高校だと思います。

全国最多の生徒数 ネットの高校「N高」の魅力とは(2021年1月17日)

ちなみに今週も短文で物事を書いていきます、来週からは前のようなスタイルに戻れると思います。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

あれ, , これ, スタイル, もの, 今週, , , 勉強, 卒業, , 学生, 時代, 来週, 物事, 環境, 短文, 資格, , 高校,

ping送信はエラー吐きまくり。

2020.11.03

Logging

FC2ブログ http://ping.fc2.com
Technorati JAPAN	http://rpc.technorati.jp/rpc/ping
NAMAAN	http://ping.namaan.net/rpc/
Blog People	http://www.blogpeople.net/servlet/weblogUpdates
BulkFeed	http://bulkfeeds.net/rpc
gooブログ	http://blog.goo.ne.jp/XMLRPC
MyBlog Japan	http://ping.myblog.jp
ココログ	http://ping.cocolog-nifty.com/xmlrpc
ブログ村 Pingサーバー広場	http://ping.blogmura.jp/rpc/
Amagle ping service	http://ping.amagle.com/
ブログスタイル	http://blogstyle.jp/xmlrpc/
JUGEM	http://jugem.jp/?mode=NEWENTRY
bolgoon	http://www.blogoon.net/ping/
人気blogランキング	http://blog.with2.net/ping.php/
ドリコム	http://ping.rss.drecom.jp
エキサイトブログ	http://ping.exblog.jp/xmlrpc
yahoo.com	http://api.my.yahoo.com/RPC2
PING.BLOGGERS.JP	http://ping.bloggers.jp/rpc/

上記のようなping一覧が在るけれど、実際機能していないものが多い。ping送信はもう時代遅れになりつつ在るのかもしれない。そんな時代遅れになりつつ存在なので、自分でping先をいちいち管理するのは、ナンセンスだと思いこの度、pingoo!(https://pingoo.jp/)というサービスのフリープランを使いだしました。因みにスパム屋さんなど、いろいろな方々が登録されているサービスなのでそれを覚悟でお試しください。

それとは別にping送信をコマンドラインから送信するPHPプログラムを作りました。自分が運用しているよさこい動画検索サイトに入れ込んでいます。ソースコードとコマンドは下記になります。

php ping.php ping
<?php

if ($argv[1]=="ping") {
	$nglist = [];
	$server = array(
		"http://ping.fc2.com",//FC2ブログ
		"http://pingoo.jp/ping/",//pingoo.jp
	);

	$site_name = "よさこい動画検索";

	$url_parameter = explode("\n", file_get_contents("../data.csv"));

	for ($i = 0; $i < count($server); $i++) {

		foreach ($url_parameter as $key => $val) {
			$parameter = explode(",", $val);
			$parameter[0] = trim($parameter[0]);
			$parameter[1] = trim($parameter[1]);
			$site_url = "https://yosakoi-video.com/?id={$parameter[0]}&q=" . urlencode($parameter[1]);
			$dev = $content = '<?xml version="1.0" encoding="UTF-8"?>
<methodCall>
<methodName>weblogUpdates.ping</methodName>
<params>
<param><value>' . $site_name . '</value></param>
<param><value>' . $site_url . '</value></param>
</params>
</methodCall>
';

			$options = array('http' => array(
				'method' => 'POST',
				'header' => 'Content-type: text/xml' . "\r\n"
					. 'Content-length: ' . strlen($content),
				'content' => $content
			));
			$context = stream_context_create($options);

			$ret = @file_get_contents($server[$i], false, $context);
			var_dump($server[$i]);
			var_dump($parameter[0]);
			//var_dump($ret);
		}
	}
}

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

2, Amagle, blog, BLOGGERS, bolgoon, BulkFeed, cocolog-nifty, com, fc, goo, http, https, JAPAN, jp, JUGEM, MyBlog, NAMAAN, People, ping, pingoo, service, Technorati, xmlrpc, Yahoo, いろいろ, エキサイト, エラー, ココログ, サーバー, サービス, スタイル, スパム, ドリコム, ナンセンス, プラン, フリー, ブログ, ブログ村, もの, ランキング, 一覧, 上記, 人気, , 存在, 実際, 広場, , 方々, 時代遅れ, 機能, 登録, 管理, 自分, 送信,

いや良いだけどちょっと悔しい。

2020.10.20

Logging

NewsPicksの社員さんと地方のITエンジニアさんとのお給料を考えたときにちょっと悔しいなと思いました、いやお金じゃないだけど・・・ちょっとお給料のことがヨギリマシタよ。

【実践】DXを叫ぶ前に「エクセル」の基礎を学ぶ

フル視聴はこちら https://newspicks.com/live-movie/907

でも一般人はこれが普通なのかもしれないのかもしれないなと感じました、そんな自分もエクセルの操作やマクロは全然知らないですけど、ググれば操作やマクロは直ぐに出来る気がします。ITエンジニアになるとVBAやPythonやC#で解決します、たぶんそうなるし、そもそもITエンジニアはグーグルスプレッドシートの方を使うほうが多いです?、共有することは簡単だからかな?でもエクセルごりごり使用できれば事務作業はかなり効率化になると思います。

因みに動画でも仰っていますが、基本スタイル覚えれば良いので全ての関数などを覚える必要はないです!!あとはググれば答えはネットに大体落ちてます。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

907, com, https, IT, live-movie, newspicks, Python, VBA, あと, エクセル, エンジニア, お給料, お金, かなり, グーグル, こちら, こと, これ, シート, シタ, スタイル, スプレッド, とき, ネット, プル, マクロ, ヨギ, りま, 一般人, 事務, 作業, 使用, 全て, 共有, 効率, 動画, 地方, 基本, 必要, 操作, , 普通, , 直ぐ, 社員, 答え, 簡単, 自分, 視聴, 解決, 関数,

text形式に土日は変更。

2020.10.03

Logging

土日は基本テストスタイルに変更しようと思っています。なお、今まで土日はイラストを挿絵としていれておりましたが、サーバー移行の際に画像データがすべて消えてしまったことにより、この際、テキスト形式にしようと思ったので、そのようにすることにしました。なるべく短文にならないように気をつけて記事を書こうかなと思います。

本日はお休みなので『映画、浅田家』を見に行こうかどうか考えています。浅田家のお話、予告を見ると結構感動しそうな気がします。ただ、567の事を考えるとあまりリスクな事をしたくないなという気持ちもあります。映画館って完璧な密室なので・・・。たぶん空調設備も高知県の場合、完璧ではないでしょうからね。そう思うと本当に凄い観たい映画だけ観たほうが良いかなという気持ちがあります。観たい映画は結構な本数があるので…。

映画「浅田家!」予告【2020年10月2日(金)公開】

「あ?どうしよう?」
「浅田家」

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

567, Text, イラスト, お休み, お話, こと, サーバー, スタイル, すべて, データ, テキスト, テスト, リスク, 予告, , 土日, 基本, 場合, 変更, 完璧, 密室, 形式, 感動, 挿絵, 映画, 映画館, 本当, 本数, 本日, , 気持ち, 浅田家, 画像, 短文, 移行, 空調, 結構, 記事, 設備, , 高知県,

秋ですよ、秋ですよ。パーカー!

2020.09.26

Logging

秋ですよ、秋といえばパーカーです、YOUTUBERパーカーさんとは関係ありませんが動画を貼っときます。さて秋といえば上着はパーカーかジャージ上が秋の基本スタイルのコーディネートスタイルです(暑い日はポロシャツですが)。オシャレさんでは無いのです。『えぇオシャレなんかしません』痩せても基本スタイルは秋といえばパーカーかジャージ上です。夏になればポロシャツと基本スタイルは決まっています。

バイトの面接に行ってきた感想と結果を報告します

ロゴポロシャツや無地ポロシャツ、無地パーカーなどです、絵柄や凝ったデザインの洋服はありません。ちなみに冬もパーカーかセーターしか来ません。

ある時からこういうスタイルになりました。時代の流れの洋服を追っていると過去の写真を見てみるとなんだか古いなと感じてしまったりするからです、なので、進化がとまっているパーカー、ジャージ、ポロシャツ、セーターを着るようになり、それが今まで続いています。

そんなこともよりも今年の夏、ほぼ痩せなかったことがショックです。マイナス5kg痩せてからオチない・・・あとマイナス15kgまで落とそうと思っていているのですが・・・この話は明日します。今日はここらで〆

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

YOUTUBER, オシャレ, コーディネート, こと, , ジャージ, スタイル, セーター, それ, デザイン, パーカー, ポロシャツ, ロゴ, 上着, 今年, 写真, , 動画, 基本, , , , 時代, 洋服, 無地, , 絵柄, 進化, 過去, 関係,

自戒の念を込めて不景気になるって事。

2020.05.09

Logging

不景気になるとどうなるのか。

  • 占い師が儲かる。
  • 自己啓発本が売れる。
  • 派遣や転職サイトへの登録者が増える。
  • 格差が広がる。
  • 失業者が増える。
  • 国の借金が増える。
  • 勧誘が増える。
  • 儲け話が横行する。
  • ブラック企業が増える。
    等など

いま、567で不景気になっている、回復にはかなり時間がかかると思います、ネットではいろいろな情報があり、どれが本当なのかが判断しづらい。特に今後、こうなるよ的な話はAさんの反対意見をいうBさんが必ず存在します。

判断基準は政治や業界に力のある人が言うことだと思います。世の中動かしているのはそういう人達です。なのでそういう人達が何気に発言している言葉の意図を読み取り、今後を予想するほうが良いと思います。

日本では「みなし失業」とかいう事を検討しているだとか・・・。もうアレですよ、ベーシックインカムで良いじゃないかなと思います。政府が行おうとしていることを見ていると何だか、そういうスタイルになりそうな気がします。日本版のベーシックインカムというものが出来るのではないかなと思います。

そうなれば格差が広がるでしょうけれど。やり直しやすくなることは確かだと思います。この567の影響で倒産件数も増えています。これからもっと増えていくと思います、都市の影響は必ず地方に影響します、なのでこれからは地方の倒産件数も増えていくでしょう。

そんな世の中になってしまったので、先のことを考えて行動していきたいです。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

567, アレ, いま, いろいろ, インカム, かなり, こと, サイト, スタイル, どれ, ネット, ブラック, ベーシック, 不景気, , , 予想, , , 今後, 企業, 何気, 借金, 儲け話, 判断, , 勧誘, 占い師, 反対, 啓発, 回復, , 基準, 失業, 失業者, 存在, , 情報, 意図, 意見, 政府, 政治, , 日本, 時間, 本当, 格差, 検討, 業界, 横行, , 派遣, 発言, 登録者, , 自己, 自戒, 言葉, , 転職,

YOUTUBER貞山放送鉄生(ていざんほうそうてつお)さん

2020.05.06

Logging

貞山放送鉄生さんの職業は運送を行っているトラックドライバーさんです、ですと言えばよいかわからないけど、567の事がありこれからはYOUTUBERが本業になりそうなそんな予感さえする方です。トラックドライバーとの接点があった20代前半の自分はトラックドライバーの運っさんとお話することもあったので、鉄生さんを見ているとトラックドライバーさんの印象そのまんまの人だなと感じます。なので何か勝手に親近感を持っています。

イケハヤ大学にちょっと反論。

最初の頃は他のトラックドライバー系YOUTUBERと同じスタイルの輸送するときにYOUTUBEするようなスタイルでしたが、途中から部屋で語るスタイルに変えている所など他のトラックドライバー系YOUTUBEとは一線を画するスタイルでYOUTUBEを放送しています。

[YouTube収益報告] 3月の動画収益。

そして徐々にチャンネル登録数を増やしています。結構これは凄いことですよ。普通こんなに増えていかないから、今年は1万登録超えは確実でしょう。継続とトーク力です。やはりトーク力は大かなと思います。自分にはトーク力がないのでこんなに増えないからYOUTUBE模索中の自分からすれば、凄いなと思います。

最後にチャンネル登録はこちら
https://www.youtube.com/channel/UCcQGvwueQ2YIpNLjppoXobg

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

20, 40, 567, 7, com, https, J-nA, TSi, watch, www, youtube, YOUTUBER, お話, こと, これ, スタイル, そのまんま, チャンネル, ていざん, てつお, とき, ドライバー, トラック, ほうそう, 一線, 予感, , , , 前半, 勝手, 印象, , , 接点, 放送, , 最初, 本業, 登録, 職業, 自分, 親近感, 貞山, 輸送, 途中, , 運送, 部屋, 鉄生, ,

inliving=いん りびんぐと読みます。

2020.03.15

Logging

いんりびんぐ(ririka / vlog)さんのvlogです。中堅YOUTUBERというあたりのポジションかなと思います。ちなみに自分が知った頃はもっと登録者数は少なかったように覚えています。このひと、数年前からYOUTUBEやメディアに登場している人なので、どちらかと言えばプロレベルだと思います。女性層と男性層といえば男性層の登録者数が多そうだなと思います。

新しいスニーカーと、持っている靴たち。

こういう人はスタイルも顔も良いので何をしてもいいねされそうです。ショップも運営しているみたいです。ただ女性層に敵がいそうな気もします。有名になればなるほど、いろいろな人がいるので大変かと思いますね。これからも頑張っていってもらいたいですね。そしてUNIQLOや無印良品でセンスよく見えるのは着こなし方、コーディネートが上手いからと顔も良いからという理由も少なからずあるでしょうね。本人がそう思っていなくても。

最後にチャンネル登録はこちらになります。
https://www.youtube.com/channel/UC-kl8i6lq_ObZAn4kTL2WHA/featured

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

htt, inliving, ririka, UNIQLO, Vlog, youtube, YOUTUBER, あたり, いろいろ, いん, がいそう, , コーディネート, こちら, これ, ショップ, スタイル, センス, チャンネル, どちらか, ひと, プロ, ポジション, メディア, りびん, レベル, 中堅, , , 大変, 女性層, , , 最後, 有名, 本人, , 無印良品, 理由, 男性層, 登場, 登録, 登録者, 自分, 運営, , ,

時間革命 1秒もムダに生きるな:著 堀江貴文

2019.12.03

Logging

時間革命 1秒もムダに生きるな:著 堀江貴文
この本の中に自意識が描き出す「世間」は、心のなかの幻であるという
言葉が書かている。
これ、まったくその通りだなと思います。
ひとは想像の中で生きている生き物だと
自分は思っていてひとの心のなかでどう思っているかなど
今の所、判りしれないところ。

そんな他人に気を使う必要はあまりないのではないかと思っている。
特に失礼な言葉を投げかけてくる人にまで
過度な気遣いは必要なく最低限の気遣いで良いのではないかと
思っている。

堀江貴文氏は一貫している電話をかけない、でないという事。
その理由は他人の時間を奪う、他人から時間を奪われるのが嫌だという理由から
堀江貴文氏の一貫してそのスタイルを通しているようです。

そのことは今まで出版している堀江貴文氏の本に書かれていることが多い。

確かに仕事をしていたら電話よりログとして残る、
チャットワークなどが良いと感じる事が多い、自分が電話の嫌なことは
何かといえば、言った言わないのトラブルになる可能性があるという事だ。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, こと, これ, スタイル, チャット, ところ, なか, ひと, ムダ, ログ, ワーク, 一貫, 世間, , , , , 仕事, 他人, 出版, 堀江貴文, , , 必要, 想像, , 時間, 最低限, , , 理由, 生き物, 自分, 自意識, , 言葉, 通り, 電話, 革命,

「2030年世界はこう変わる」をパラ読みして。

2015.10.05

Logging


「2030年世界はこう変わる」をパラ読みしてこう変わるじゃなくて、こう変えたいような気がしてきた。
確かにいろいろなパターンや未来予測がかかられているがアメリカは世界をこう変えたいのだろうという節が何点かあった。
おそらく雇用形態などは変わっていくと思います、トイウヨリは変わってきた気がしますね。都市で働くのと地方で働くのでは働き方が未だに差がありますが、徐々に地方にも都市型の雇用形態へシフトしていくのだろうと感じます。
いろいろな本に未来予測が書かれている中で唯一の共通点は雇用形態の変化です。企業スタイルからフリーランススタイルへ変化していくということがいろいろな本で書かれている。
いろんな本で共通して書かれているのだから、おそらく今後、個人で動く人が増えてくるかと思います。
?
?

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

2030, アメリカ, いろいろ, こと, シフト, スタイル, トイウヨリ, パターン, フリー, ランス, 世界, , 予測, , 今後, 企業, 何点, 個人, 働き方, 共通, 共通点, 唯一, 地方, 変化, , 形態, 未来, , , , 都市, 雇用,