Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

Photo by Victor Dunn on Pexels.com

未来は不確定で予想がつかないけれどブレイクスルーは🤐

2022.09.05

Logging

こんにちは、基本情報処理の動画を垂れ流しながらコードを書いています。

さて、今日は未来の話です。未来は不確定で予想がつかないけれどブレイクスルーは必ず起きる。これはどんな分野でもそうだと感じています。今、複雑なことは人でしか出来ないけれど、いづれ複雑な組み合わせも仕事も人工知能が出来るようになると思っています。

つい最近、アートの分野で自然言語(言葉)を入力するだけで絵を描いてくれる。優秀なAI(Midjourney(ミッドジャーニー))が登場して話題になりました。これから先、AI(人工知能)の民主化は続くと思います、人々はスマホをデジタルな道具として使うように人工知能のツールもツール(道具)して使うでしょう。

Google’s Most Advanced Robot Brain Just Got a Body
Googleが開発中のロボット

徐々に仕事は人工知能に奪われていくと思います、今、その転換期の始まりに立っていると自分は感じていて数十年後には一般の人にもそう感じる日が来ると思います。

これからは、人によって起こるブレイクスルーと人工知能によって起こるブレイクスルー。この2つの相乗効果によってブレイクスルーが頻繁に起きるようになると思います。そうなった時、古代人が見ると魔法の世界が広がっているかも知れません。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

AI, Google, Midjourney, アート, コード, こと, これ, ジャーニー, スマホ, スルー, ツール, つい, デジタル, ブレイク, ミッド, ロボット, 一般, 不確定, 予想, , 人々, 人工, , 今日, 仕事, 優秀, , 入力, 分野, 動画, 基本, 情報処理, 数十, , 最近, 未来, 民主化, 登場, 知能, 組み合わせ, , 自分, 自然, 複雑, 言葉, 言語, , 話題, 転換期, 道具, 開発,

イラストレーターというサブスクを見直しました。

2021.08.16

Logging

イラストレーターというサブスクを今まで使ってきましたが、収入源がないので一旦イラストレーターのサブスクを手放します。これからのアイキャッチ画像は自分が撮影したフォト画像かもしくはフリー素材を使用します。イラストレーターの良いところは数分でまぁまぁなデザインのものが作れてしまうという所です。これは他のイラストレーター似のソフトやWEBサービスでは出来ないものです。それぐらいイラストレーターは優秀ですが・・・(*´ω`*)

https://www.youtube.com/watch?v=uhpvVZY-st8

このまま、無収入でサブスクを支払いを続けていると火の車になってしまいかねないので、節約できるところはしていこうと心を鬼にしてイラレのサブスクを解約しました?。

因みに今回のアイキャッチ画像もものの数分で作り上げる事も出来ました。当分使わないのだからもっと頑張ろうかなと思ったのですが・・・。

早く収入源を確保してイラストレーターをまた使いたいなと今は思っています。

退会する前にイラストレーターやフォトショップの代替えのソフトなども調べてみました、フォトショップ代替えのWEBサービスはある程度、無料枠で使えるものがあったのでおそらく何とかなるだろうなと思っています。この頃はアイフォンで撮影することが多いですが、ホコリを被っている数十年前の一眼レフカメラを使用してたまには撮影などもしてみようと思っていますが!!!!!?でも基本はアイフォンで撮影すると思います。

※当分の間、過去のアイキャッチ画像や写真などを使うと思います。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

8, com, https, uhpvVZY-st, watch, web, www, youtube, あい, イラストレーター, イラレ, キャッチ, このまま, これ, サービス, サブ, スク, ソフト, それぐらい, デザイン, ところ, フォト, フリー, もの, 一旦, , 今回, , 使用, 優秀, 収入, , , 撮影, 数分, 火の車, 画像, 確保, 節約, 素材, 自分, 解約, ,

そこの君、自らの力で毎日100円稼げるか?

2021.07.13

Logging

そこの君、自らの力で毎日100円稼げるか?、営業の方だったらYESという人もいるかも知れないが、ほとんどの人は現実問題、毎日、自らの力で100円も稼げないと思っている。それぐらい自らの力で稼ぐというのは難しいのです。

【夢をかなえるゾウ①】絶対に成功できない凡人の特徴と成功者の鉄則(Wish Granting Elephant)

そういうわけで、雇われずに自らの力で毎日100円稼ぐというのは難しい。やはり自らの力で商品を作り、宣伝をして売らないと毎日100円稼ぐというのは難しいわけです。

一人で毎月、サラリーマン程度の収入を得ている人は、かなり優秀な人だと思います。フリーランスになって稼げている人はひと握りの人で、あとの人はお金を稼げていない人ばかりだと思います。

だから、お金を稼いでいるというような情報発信をしているSNSのアカウントが無数にあるのだと思いますし、怪しげな教材などに手を出してしまう人も多い。

【人を動かす①】人の心を突き動かす行動の原則

毎日100円稼ぐことが出来ない人は流行っているからと言ってフリーランスになることはオススメしません。まずは自らの力で毎日100円稼ぐ仕組みを作ってください、まずはそこからです。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

100, SNS, yes, アカウント, あと, おすすめ, お金, かなり, こと, サラリーマン, そこ, それぐらい, ひと握り, フリー, ほとんど, ランス, わけ, 一人, , 優秀, , 収入, , 商品, 問題, 営業, 宣伝, 情報, , 教材, , 毎日, 毎月, 無数, 現実, 発信, 自ら,

日本なんか焦げ付きそう。

2021.04.22

Logging

日本なんか、このままずるずるで経済が動いていくと焦げ付きそうな気がする。これからどんどんと倒産する会社が出てくると思いますし、失業者も増えていくだろうと感じます。いまDX(デジタルトランスフォーメーション)とか言ってデジタル化で何とか出来るとか言っているけど、上手くは行かないのではないかと。そもそもデジタル化すれば業務は簡略化できてしまい仕事がなくなっていく。そして政治家は週休3日制を検討することを考えている。国が守ろうとしているのは国民ではなく経済(会社)、間接的に国民を守ってはくれるとは思うけど、この国(日本)、結構やばい所まで来ているのではないかな。

これから、V字回復は無理そうだ。失業者は失業したままの状態が当分続くのではないかなと思っているし、優秀な人材までもが仕事を失いかけていて、他の業種へ派遣されたりしている。これが、まずいのだと自分は思っている。会社としてはラッキーなのだけど、今まで働いている人から言えばあまり嬉しくもない事なのかもしれない。会社も優秀な人材には残ってもらいたいだろう、これから経済が衰退していく中でどちらの人材が残ってもらいたいかといえば優秀な人材だろう。そうなると今まで働いていた人々が仕事を失うことだって、これから先、起こりうるのではないかと思っています。

痛みは立場の弱い人間ほど受けやすいと思う。これから先、国民はなんか戦後最悪の雇用の中で生きていかないといけない人が増えていくと思います。ちょっとヤバいと直感的に感じます。直ぐには経済回復しないよ・・・。

毎日ハローワークに足を運べば実態経済が見えるより?{この頃、行ってないけど(笑)}。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, DX, いま, こと, これ, デジタル, トランス, フォーメーション, まま, ラッキー, , , 人材, 仕事, , 会社, 倒産, 優秀, 回復, , 国民, 失業, 失業者, , , 政治家, 日本, 検討, 業務, 業種, , 派遣, 状態, 簡略, 経済, 自分, 週休,

お気をつけて。

2021.02.28

Logging

zip358で検索するとzip358.comが終了しましたというサイトが何件か表示されますが、それをクリックするとweb attackでブラウザの脆弱性よりパソコンに侵入しようとしますのでお気をつけてください。なので、zip358.comとアドレスバー(URLバー)に入力することを強くオススメします。

ちなみにzip358.comが閉鎖するとか考えていないし、アメーバブログとかに移行するつもりもないです。グーグルやyahoo検索でも普通のサイトが標的になるということがあるので、必ずパソコンにはウィルススキャンのソフトを導入することをおすすめします。例えばノートンというソフトやウィルスバスターとかですかね。自分が思うにノートンは結構優秀なソフトだと思います。

たまに自分の作ったexeソフトもウィルスと間違って削除されることもありますが・・・。

という事で、くれぐれもお気をつけてください。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

358, attack, com, exe, url, web, Yahoo, zip, アドレス, アメーバ, ウィルス, ウィルスバスター, おすすめ, お気, グーグル, クリック, くれぐれ, こと, サイト, スキャン, ソフト, それ, たま, つもり, ノートン, バー, パソコン, ブラウザ, ブログ, , 何件, 侵入, 優秀, 入力, 削除, 導入, 普通, 検索, 標的, 移行, 終了, 脆弱性, 自分, 表示, 閉鎖,

ios14のウィジェットをカスタマイズする方法。

2020.09.25

Logging

ios14のウィジェットをカスタマイズする方法を紹介している動画を2つ紹介します。どちらもウィジェットスミス(Widgetsmith)というiosアプリを使用してカスタマイズしています。下記の動画を見ていただければわかるかと思いますが、日本語対応していないので若干、面倒かなと思うかもしれませんが慣れれば簡単です。

ウィジェット定番アプリ「Widgetsmith」の使い方を徹底解説!
【iPhoneホーム画面】iOS14アップデートで秋っぽくおしゃれにカスタマイズ!おすすめアプリ紹介!📱

その他にも、colorwidgetsというアプリもあるそうですね。そのうち、日本語対応のウィジェットアプリがリリースされるとは思いますが、今の処、日本語対応のゴリゴリカスタマイズできるウィジェットアプリはリリースされていないようです。

ウィジェットを「効率的に」設置できる便利アプリをご紹介!

あと自分としてはPaypayの純正のウィジェットが便利だなと思っています。人目で残高確認ができますし、支払いのショートカットとしても優秀かなと思っています。ただ、いま例の問題(不正引き落とし問題・2020/09/25:現在)でチャージが地銀などから出来ない状態が続いているので支払いは控えてます。

〆ios14のウィジェットカスタマイズの方法(手順解説)でした。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

09, 14, 2, 2020, 25, colorwidgets, iOS, Paypay, Widgetsmith, アプリ, いま, ウィジェット, うち, カスタマイズ, ショートカット, スミス, その他, チャージ, どちら, リリース, 下記, 不正, 人目, , 使用, 便利, 優秀, , 動画, 問題, 地銀, 対応, 方法, 日本語, 残高, 現在, 確認, 簡単, 純正, 紹介, 自分, 若干, 面倒,

ショッピファイ(Shopify)という黒船。

2020.09.16

Logging

ECサイトを運営されている方は知っている方もいるかと思いますが、誰でもかんたんにグローバルなECサイトが作れるショッピファイ(Shopify)が話題です。この頃?、日本語にも対応したみたいです、ただしAPIのドキュメントは日本語にはまだ対応していませんが、翻訳を介せばそれほどわからないこともないかもしれません。

ショッピファイって何なんをもっと噛み砕くと、日本のBASE(ベイス)やGMOのカラーミーショップなどのインターネット上で個人や企業がお店が開けるものだと思っていただけたら良いかなと思います。ショッピファイの優秀なところは世界へ展開出来るということです。

BASEを1分で体感しよう!

BASEなどにある決済機能なども搭載されていますし、CSVの流し込みにも対応しています、なのでこれからECサイトを運営される方は自社のECサイトとしてBASEとショッピファイを運営し、楽天モールやYahoo!ショッピングなどの運営することにより、後発でも利益を得ることは十分可能かと思います。

尚、いま楽天モールなどを使わずにBASEやショッピファイまたはECCUBEなどを使用し自社のECサイトを運営することが流行っているそうです。

ショッピファイで世界へ展開したいという方は、まず下記のショッピファイのブログを読んでみてはどうでしょうか、ショッピファイの構築手順が動画とテキストで解説しています。

https://www.shopify.jp/blog/start-onlinestore

ショップを、次のステップへ。Shopify

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

16, 8, amp, API, base, com, CSV, EC, GMO, https, jPkKF, Shopify, watch, www, Xx, youtube, インターネット, お店, カラーミーショップ, かんたん, グローバル, こと, これ, サイト, ショッピファイ, ドキュメント, ところ, ベイス, もの, 世界, 企業, , 個人, 優秀, 対応, 展開, 搭載, , 日本, 日本語, 機能, 決済, 翻訳, 自社, 話題, , 運営, , 黒船,

コロナウィルス対策でIT促進化が進む?

2020.03.04

Logging

コロナウィルス対策でIT促進化が進む…。事務的作業をテレワーク(リモートワーク)など行うという取り組みが世界中のデスクワークを中心とした現場で行われているという事ですが…。自分はあまり喜ばしいことではないと思っています。これが定着すると確かに社会は変わると思いますが、とても厳しい現実が待っていると思います。

とても厳しい現実とは何かといえば、今まで会社は会社のある地域でしか人材を雇おうとしなかったけれど、これが見直され世界から優秀な人材を確保することが出来る事に社会が気づいた事が今回の問題点だと思います。そうなるとスキルのない人材は確実に仕事を失うと思います。日本は英語が話せないひとが多いので、まだ世界から比べれば日本国内での話になると思いますが他国はかなり大変なことになり格差は広がる一方だと思います。

またリモートワークが社会に定着するには、そんなに時間がかからないと思います。2?3年の間にリモートワークを支援するツールなども増えていくでしょうし、そういう環境がかなりデスクワーカーの働き方を変えていくと思います。

変えていくというよりは世界の巨人に変えられると思います。また、いろいろな今まであったツールを企業が無償で提供している理由ですが、お分かりの通り今後のビジネスに繋がるわけです。そしてコロナウィルスが沈静化後もこの流れは続くと思います。

GAFAM( ガファム )万歳三唱?

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

2, , IT, ウィルス, かなり, こと, これ, コロナ, スキル, ツール, デスク, テレ, ひと, リモート, ワーク, 一方, 世界, 中心, , 人材, 今回, 仕事, 他国, 会社, , 作業, 促進, 優秀, 問題点, 国内, 地域, 大変, 定着, 対策, 支援, 日本, 時間, 格差, 現場, 現実, 確保, 社会, 自分, 英語, , ,

夢売る人と夢見る人。

2016.06.28

Logging


夢売る人と夢見る人のことで
先日、つぶやいた。

内容は上記のようなことだけども
実際、そうではないかなぁと思うことがあります。
?
会社辞めようかなと思う人ってのは大体、夢見る人なんです。
現実は、そう甘くなく何処に行っても嫌な人はいます。
仕事を邪魔する人もいます。

儲からない会社の循環:社員が満足してないものを吐き出し続けているからです。
満足していない負の生産物を吐き出すとそれは全体に蔓延しいずれ負の形で返ってきます。
じゃ会社を辞めた方が良いじゃないかと思えると思いますが、そうではないです。
次の会社が見つかるまで努力しましょう。何処に行っても同じことが起こっている場合、あなたに原因があるかも知れません。
例えば、優秀な人物だと叩かれる場合があります。出来る人を叩かれるのが世の常です。自分が他より秀でていると
思うなら就職する会社のランクを少し上げるべきです。そうすることで叩かれる心配はなくなります。
もうひとつは、そういう業界にはそういう人しか集まらないという問題もあります。学校とは違い会社は
同じような人材を集めようとします。人事の考え方にもよりますがうまく行ってない会社ほど同じような人材を集めようとします。
そうすると負の連鎖がおきる。そういう場合は業種を変えるのも手だとも思います。そうすることで変化する場合もあります。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

あなた, いずれ, こと, それ, もうひとつ, もの, ランク, 上記, 世の常, , 人物, 仕事, , 会社, 何処, 優秀, , 先日, 全体, 内容, 努力, 原因, 問題, 場合, , 大体, 実際, 少し, 就職, , 循環, 心配, , 業界, , 満足, 現実, 生産物, 社員, 自分, 蔓延, , 邪魔,